La technologie blockchain est un puissant levier de développement de l’open innovation.

La blockchain est une technologie de stockage et de transmission d’informations, transparente et sécurisée, fonctionnant sans organe central de contrôle. Par extension, une blockchain (ou chaîne de blocs, NDLR) est une base de données qui contient l’historique de tous les échanges effectués entre ses utilisateurs depuis sa création. Cette base de données est sécurisée et distribuée : elle est partagée par ses différents utilisateurs, sans intermédiaire, ce qui permet à chacun de vérifier la validité de la chaîne .

Si ses premières applications étaient limitées au domaine des fintechs, la blockchain trouve aujourd’hui de nouveaux usages dans de multiples secteurs : énergie, santé, logistique, propriété intellectuelle, etc. S’agissant de capital immatériel, il est un domaine qui semble particulièrement prometteur pour la blockchain, c’est celui de la cocréation et de l’open innovation.

Les limites de la cocréation

Ce domaine connaît en effet des freins qui en limitent actuellement l’efficacité :
– Une certaine réticence à utiliser les outils d’open innovation due au manque de confiance que peuvent ressentir les contributeurs vis-à-vis des plateformes actuelles de cocréation et d’open innovation, notamment en ce qui concerne leurs données personnelles.
– La difficulté à opérer une traçabilité des contributions : ne pas pouvoir affecter une paternité à celles-ci crée inévitablement une frustration, voire une démotivation des participants. Sans compter que si les participants créent de la valeur, il serait équitable qu’ils reçoivent une juste rétribution à hauteur de leurs apports.

Les promesses de la blockchain

Il semble donc nécessaire d’objectiver et d’enregistrer les contributions individuelles à l’ouvrage collectif. Les fonctionnalités au cœur de la technologie blockchain devraient apporter des solutions :
-En supprimant les intermédiaires et les tiers de confiance, une blockchain publique fait de tout individu un point nodal dans l’écosystème socio-économique concerné. Dans ce réseau de pair à pair, chacun peut librement s’exprimer et agir, et tous les contributeurs sont identifiés de façon certaine.
-En traçant les contributions de chacun, la blockchain permet de « rendre à César ce qui est à César ». Cette reconnaissance des mérites individuels est un levier important pour stimuler la participation et l’engagement.
-La transparence de la blockchain favorise les relations de confiance et lève les obstacles et les réticences à l’engagement des membres du réseau. Ce sentiment d’appartenance à une communauté démocratique stimule l’implication des individus, les interactions, les échanges et la volonté d’agir ensemble.

La blockchain compte un certain nombre de mécanismes et d’outils qui devraient s’avérer particulièrement pertinents dans des démarches de cocréation :

La notarisation. La traçabilité découle des propriétés mêmes de la blockchain, réputée immuable et incorruptible. En effet, une fois qu’une information est enregistrée dans la base de données, par consensus, elle y est inscrite de façon indélébile. Ce qui revêt une importance cruciale lorsque l’on traite d’identités, par exemple : contrats, diplômes, idées et faits peuvent être enregistrés de manière permanente. Aussi le MIT a-t-il commencé à émettre les diplômes qu’il délivre sur la blockchain grâce à un outil publié en open-source. Parallèlement, la start-up française BCDiploma propose d’authentifier les diplômes en les stockant directement sur la blockchain. Ce dispositif de notarisation électronique permet ainsi d’avoir accès à l’historique et à la nature de toutes les transactions. Il permet d’en connaître l’émetteur et le récepteur, ainsi que la nature des informations transmises. En transposant cet exemple au domaine de l’open innovation et de la cocréation, la blockchain peut être un puissant levier pour tracer l’origine et le parcours des idées créatives et des contributions des membres individuels d’un collectif, permettant de reconnaître – voire de rémunérer – les apports de chaque cocréateur.

Les « tokens ». Ces jetons sont des actifs numériques qui peuvent être échangés entre membres d’une blockchain, soit dans un but ludique, soit pour matérialiser la valeur des transactions qui y sont réalisées. Les tokens facilitent donc la mise en place d’un dispositif incitatif au sein d’une communauté de cocréateurs dont les apports, une fois évalués, se voient récompensés par des « tokens » dédiés. C’est la théorie du « nudge » de Richard H. Thaler, Prix Nobel d’économie 2017. En créant des conditions propices et en s’appuyant sur des théories crypto-économiques, nous pouvons espérer stimuler l’innovation : en favorisant certains types de recherche, en ouvrant un « financement inversé » où le chercheur serait rémunérer « à la découverte », en introduisant des gratifications pour les innovations provenant de multiples acteurs, etc.

L’évaluation par les pairs. Tout type de transaction peut être enregistré dans la blockchain, y compris des votes. De quoi hiérarchiser et valoriser les contributions individuelles en se basant sur leur évaluation collective (par un large public ou par les experts qui y sont habilités). Nul doute qu’un mécanisme de vote favoriserait l’émulation entre les contributeurs. Il stimulerait l’intelligence collective et l’effervescence créative. On peut imaginer que ce mécanisme puisse s’appliquer partout : sur les réseaux sociaux mais aussi dans les entreprises voire dans certaines sphères sociétales, réinventant ainsi une nouvelle forme de démocratie.

Les « smart contracts ». Ces codes sources informatiques s’auto-exécutent au moment précis où certaines conditions prédéfinies se trouvent réunies. Certains processus de cocréation peuvent ainsi être automatisés, les rendant plus fluides, plus rapides et plus fiables.

Un levier pour stimuler l’open innovation

En matière de cocréation basée sur la blockchain, il est possible d’imaginer plusieurs niveaux d’implication des individus :
-Une simple participation éditoriale sur le modèle de Wikipédia, mais avec une rémunération incitative : dans le cas de la plateforme Steem – le pendant blockchain de Reddit – chaque curateur de contenu se voit reversé une fraction des bénéfices, en fonction du niveau de partage du contenu en question. Dans le même registre, la start-up Wespr est une maison d’édition et une librairie décentralisées permettant de miser sur des écrivains qui se voient reversés des avances liées au volume d’extraits lus par les lecteurs.
– Une contribution ponctuelle à un projet : par exemple, le collectif OuiShare valorise les apports de ses membres à ses projets afin de renforcer le sentiment communautaire et d’augmenter l’implication de chacun.
– Un niveau plus ambitieux de cocréation : par exemple, la société Matryx propose un système de challenges scientifiques avec rétribution des chercheurs selon la qualité de leurs contributions.

La blockchain peut donc être un levier de cocréation à de multiples niveaux et dans de nombreux domaines. Dès lors, rien n’interdit d’envisager qu’elle initie de nouveaux systèmes et de nouveaux comportements.

Une solution aux limites actuelles de l’open innovation et de la cocréation consisterait à proposer à divers acteurs (entreprises, start-up, entrepreneurs et intrapreneurs, chercheurs, inventeurs, etc.) de pouvoir se connecter à une plateforme de confiance d’innovation collaborative. Celle-ci aurait des fonctionnalités classiques (inscription sécurisée, réseau social pour échanger, possibilité de lancer des challenges et de se regrouper pour les résoudre, matching entre offreurs et demandeurs d’innovation, etc.). Surtout, cette plateforme nouvelle génération pourrait être totalement novatrice grâce à la blockchain. Celle-ci apporterait une fonction « nudge », permettant aux divers acteurs de maîtriser leurs données personnelles, de se voir correctement attribuer leurs contributions et, ce faisant, d’être reconnus voire rétribuer de façon juste et équitable.

Les Scientifiques ont souvent la méthodique et classique habitude de devoir déterminer le contraire de ce qu’il viennent de découvrir, cette méthode s’adapte aussi à la prise de décision dans des domaines autres que les Sciences pures, comme le management..

La richesse de la contradiction permet de prendre du recul et de tester la solidité comme les limites de sa pensée.

Toute décision est censée être l’aboutissement d’une réflexion solitaire ou collective, de débats faisant intervenir de nombreux collaborateurs et conseillers, d’études et d’analyses faisant appel à des spécialistes ou à des experts, en général à tous ceux qui ont l’expérience, la compétence, les moyens et les méthodes pour servir une décision efficace. Or les décisions les plus importantes ne présentent, dans l’absolu, aucune garantie, car elles dépendent essentiellement de la compréhension par les décisionnaires des critères qui les influencent, de leurs conséquences à court et à long terme, des réactions internes et externes qu’elles vont susciter et d’une multitude d’éléments périphériques qui échappent à l’analyse de ceux qui proposent, conseillent ou décident.

Il serait fastidieux d’illustrer ce constat en dressant une liste qui se voudrait exhaustive des décisions stratégiques catastrophiques qui ont mis en grande difficulté des sociétés leaders sur leur marché, poussées en quelques années à réorienter ou à cesser leur activité (lire aussi la chronique : « Comment éviter qu’une erreur de décision ne mette en péril l’entreprise »). Mentionnons seulement trois exemples, certes connus, mais éclairants d’un point de vue historique :
– IBM, en sous-estimant l’intérêt du PC à la fin des années 1970, a laissé le marché de la micro-informatique se développer hors de son contrôle. Cette regrettable décision s’est doublée d’une décision plus grave encore, celle de demander à Microsoft de fournir le système d’exploitation de son PC ; ce qui a fait la fortune de Bill Gates et a plongé IBM dans une période de grands troubles (lire aussi l’article : « Les clés pour opérer un virage stratégique selon Virginia « Ginni » Rometty, P-DG d’IBM »).
– Dans les années 1980, Kodak a retardé – pour des raisons commerciales de court terme – son passage à la photographie numérique, technologie que la société avait pourtant mise au point. Une incroyable erreur qui a entraîné la faillite de l’entreprise.
– Nokia a perdu sa position de leader mondial dans la téléphonie mobile en voulant, pour faire face au lancement de l’iPhone d’Apple, en 2007, conserver et adapter son système d’exploitation Symbian au lieu de choisir la réponse immédiate la plus évidente, Android, déjà disponible sur le marché et fort d’un écosystème ouvert.

A chaque fois, il aurait suffi que ces sociétés prennent la décision exactement opposée à celle qu’elles ont prises pour conserver leur leadership et s’ouvrir à une nouvelle croissance sur un marché d’avenir. Et, à chaque fois, l’expérience, les meilleures compétences, les meilleurs ingénieurs et les plus gros moyens financiers se trouvaient du côté de ceux qui ont fait ces mauvais choix.

Conservatisme et myopie

Dans la majorité des cas, le raison est le même : ces décisions ont été prises par conservatisme, par réflexe de prolongation de l’existant, mais surtout à cause de l’aveuglement des leaders qui ont pensé que l’avenir s’inscrirait dans la continuité du passé et qu’en cas d’erreur, les liquidités dont ils disposaient leur permettraient de réagir en procédant aux évolutions et aux adaptations nécessaires, en rachetant des technologies ou des sociétés pouvant leur permettre de se remettre rapidement à niveau. L’histoire de beaucoup de ces grandes entreprises montre qu’elles ne rattrapent jamais vraiment le retard pris lorsque les innovations concurrentes sont des innovations de rupture, et lorsque des investisseurs donnent aux challengers les moyens d’accélérer leur décollage et de creuser l’écart, tant technologique qu’en termes d’image.

Dans son ouvrage « L’effet loyauté », Frederick Reichheld affirme que l’espérance de vie des grandes entreprises est d’une quarantaine d’année, même si certaines survivent à leurs erreurs en réduisant ou en redéfinissant leurs activités. A cause d’une vision à court terme ou par conservatisme, les décisionnaires à la tête des grandes entreprises peuvent rater le tournant technologique ou commercial qui déterminera le leadership d’un secteur d’activité pour les années à venir.

Cette forme de myopie des dirigeants des grands groupes atteint également le management intermédiaire pour des décisions moins importantes qui, cumulées, impactent le développement de ces groupes sur le long terme. Pourquoi, avec autant d’expérience, de compétences, de méthodes et de moyens, beaucoup de ces grandes sociétés prennent, dans certaines circonstances, des décisions exactement opposées à celles qu’il faudrait prendre ? Nous proposons quelques pistes de réflexion, dont certaines ne sont que le pendant négatif des qualités supposées de ces sociétés.

Culture d’entreprise et souplesse neuronale

Une entreprise, et en particulier une entreprise leader, doit à la fois inventer l’avenir et s’adapter aux événements qui influencent ou perturbent son parcours. Ces événements ne peuvent pas être considérés seulement comme des faits externes qui s’imposent à elles, ils sont aussi des réalités indissociables d’une perception construite collectivement à travers une culture d’entreprise qui permet, dans la majorité des cas, d’agir avec cohérence et en synergie, à travers des comportements et des réflexes façonnés au cours du temps.

Cette base consensuelle et cette vision partagée permettent certes de « cimenter » les processus décisionnels de l’entreprise, mais se révèlent aussi être un handicap dans les périodes de mutation ou de crise, lorsque l’entreprise doit trouver, face à des mouvements plus ou moins prévisibles, des réponses adaptées pour garder ses positions et reprendre l’initiative. D’autant que la caractéristique souvent sous-estimée de ces périodes de crise est que celles-ci évoluent lentement en début de phase puis s’accélèrent pour, parfois, aller bien au-delà de tous les scénarios négatifs prévisibles.

Dans ces cas-là, les cultures d’entreprise trop structurantes (lire aussi l’article : « La culture n’explique pas tout »), les processus de décisions trop collectifs et les chaînes hiérarchiques trop formelles poussent à un certain conservatisme qui limite le champ des décisions. Pour réagir, les dirigeants doivent donc retrouver de la souplesse « neuronale » afin de favoriser l’émergence de décisions innovantes. Dans les domaines clés, l’élaboration de scénarios opposés ou la mise en concurrence de groupes travaillant sur un même sujet avec des objectifs différents est un moyen d’ouvrir le champ des décisions possibles.

Leadership, crise et tempo

Dans ces périodes d’incertitude se révèle ou apparaît une catégorie à part, celle des leaders. Ces femmes et ces hommes occupent souvent un poste à la tête de l’entreprise ou se trouvent, en temps de crise, dans des fonctions clés qui leur donnent une position privilégiée. Les véritables leaders s’épanouissent dans le management de crise : ils ont le souci d’anticiper systématiquement les événements et sont plus tournés vers les solutions innovantes et dérangeantes que vers celles qui plaisent au plus grand nombre. Les véritables leaders ne recherchent pas le consensus car, pour eux, penser au-delà des habitudes est un réflexe, et penser exactement le contraire de ce que la majorité envisage une attitude dialectique de départ permettant de faire progresser les débats ou de convaincre.

Mais le rôle du leader ne s’arrête pas là. Son objectif ultime est de faire appliquer la décision prise dans le bon tempo (lire aussi la chronique : « Etre un bon leader, une question de tempo »). Le tempo ne s’invente pas, ne se décide pas. Il ne peut en général être impulsé que par celui qui est à la tête de la société, détenteur d’une autorité et d’une crédibilité fondées sur une réelle intuition du futur, sur l’obsession de maintenir la position de leader, de saisir les nouvelles opportunités et sur la volonté de renforcer les avantages concurrentiels de son entreprise. Le tempo, c’est coller au rythme du futur par anticipation.

Une chose et son contraire

En raison des mécanismes de l’attention sélective, le cerveau humain a des difficultés à traiter simultanément deux pensées. C’est pourquoi penser une chose et son contraire n’est possible que de manière consécutive. Comme l’enseigne la philosophie chinoise ancestrale, la pensée progresse en mobilisant le jeu interactif et successif des idées opposées, en générant des contradictions bien plus riches que l’affirmation d’idées monolithiques. Cela signifie que la contradiction, au cœur des forces de la nature, peut également être un jeu naturel – bien qu’à stimuler – pour notre cerveau.

Toute pensée extérieure contradictoire est en effet un bon moyen de tester la solidité de sa propre pensée et d’en évaluer les limites. Comme au jeu de go, les décideurs doivent agir en faisant des choix dans un environnement en mouvement, dans le cadre de forces contraires, d’actions et de réactions, de risques et d’opportunités qui nécessitent une compréhension de la dynamique créée par la décision.

En période de crise, vérifier systématiquement si les décisions exactement opposées à celles que l’on envisage de prendre ne sont pas meilleures est un réflexe de sagesse qui peut permettre de décider avec plus de recul. Un tel réflexe aurait pu être utile à IBM, Kodak, Nokia et des milliers d’autres…

Quel avenir en matière de cybersécurité ? La question est légitime au vu de l’explosion de la cybercriminalité dans le monde. Dans un contexte où la transformation digitale ne cesse de s’accélérer, trois scénarios peuvent être envisagés. Trois modèles qui oscillent entre attaque et défense.

Deux facteurs majeurs vont déterminer l’évolution de la problématique de la cybersécurité au cours des dix prochaines années : le degré d’accélération de la transformation digitale et l’évolution de l’environnement extérieur au cyberespace (coopération entre Etats, respect de l’Etat de droit, conjoncture économique et sociale, stratégies gouvernementales mises en œuvre, etc.). Trois scénarios peuvent être envisagés, caractérisés chacun par des rapports de force différents entre l’attaque et la défense.

Le Moyen-Age digital, entre Etats faibles et pouvoir des brigands

Dans ce scénario, les progrès technologiques sont faibles. Les efforts d’un point de vue défensif sont dépassés par l’accélération de la menace en matière de cybersécurité. Il y a une faible coopération entre les Etats. Certains d’entre eux sont corrompus ou peuvent même tomber sous la coupe des mafias, à l’image des narco-Etats d’Amérique latine. L’attaque est en position avantageuse par rapport à la défense.

Un tel rapport de forces provoque un effondrement généralisé de la confiance. Le point de rupture n’est pas atteint car les cybercriminels n’ont pas intérêt à provoquer un écroulement du cyberespace, qui signifierait leur propre ruine. Et pour cause, il n’y aurait plus de cibles à attaquer. L’apparition d’une situation de type « Cybermaggedon », caractérisée par la multiplication des cybercatastrophes, a ainsi peu de chance de se produire – sauf situation éventuelle d’escalade entre Etats nations, ce qui appartient à une logique géopolitique propre. Ici, les délinquants restent maîtres du jeu.

Les conséquences économiques sont très lourdes. Les investissements des entreprises en matière de cybersécurité sont élevés et deviennent une priorité absolue. La qualité de mise en œuvre de dispositifs de protection efficaces devient même un des avantages compétitifs les plus critiques pour les entreprises. Dans ce scénario, la coopération entre les entreprises est très faible.

Mais l’impact va bien au-delà de la défense de l’entreprise. Dans le scénario du Moyen-Age digital, il est impossible d’assurer aux clients une parfaite confiance concernant la protection des données et des risques cyberphysiques (impact sur les objets, les personnes, etc.). Or la confiance en matière de protection des données personnelles est actuellement, et de loin, le premier frein à l’utilisation d’Internet. Le développement des smart cities, la diffusion de nouvelles technologies de soins, l’éducation à distance, pour ne citer que quelques exemples, seraient menacés. C’est bien l’accélération de la transformation digitale qui se trouverait finalement remise en cause et, par ricochet, la croissance économique, la création d’emplois et le bien-être des populations.

Responsables et Alliés : quand l’union fait la force

Dans ce scénario, il n’y a pas d’avancées majeures en termes de rupture technologiques mais on constate un essor de la culture de la cybersécurité qui limite les dégâts les plus graves, dans une situation de retour à un renforcement de l’Etat de droit et de la coopération internationale, constituant un facteur exogène important pour la cybersécurité . Les entreprises parviennent à mieux décoder les attaques : objectifs, cibles visées, voire identification précise des attaquants. Il est ainsi possible d’apprécier le niveau de risque et de mesurer l’impact financier de ces assauts. Les sociétés qui ont réussi à mettre au point des solutions défensives peuvent même décider de les commercialiser.

Ce contexte nouveau favorise l’émergence d’un réseau sécurisé de cyberdéfense : il intègre les entreprises mais aussi l’ensemble des acteurs impliqués (entreprises, institutions publiques, centres de recherche universitaires, start-up, groupes de cybersécurité privés, etc.). Le WhiteNet, pendant du DarkNet, se développe et se consolide.

La principale caractéristique de ce scénario est, en effet, l’apparition d’une coopération constante et soutenue entre les Etats afin de lutter contre la cybercriminalité. Cette collaboration porte sur l’échange de données, l’acceptation de standards communs et de bonnes pratiques, etc. Au niveau national, l’évolution du risque cyberphysique est vue comme une menace critique sur la croissance et de nouvelles législations, plus agressives, voient le jour et sont efficacement mises en œuvre.

Le WhiteNet offre un socle pour le développement de nouveaux business model. Pour les entreprises, l’intégration à un réseau de cyberdéfense devient un avantage clé : elles peuvent monétiser leur savoir-faire en matière de lutte contre les cyberattaques. De nouveaux acteurs enrichissent l’écosystème : sociétés de cyberassurances, agences de notation des risques cyber, qui facilitent la monétisation, etc. Dans ce scénario, la cybersécurité génère des cercles vertueux multiples : elle est source de création de valeur.

Le risque de cybercatastrophe est faible en raison de l’existence du WhiteNet et de la coopération internationale. Cependant, la menace ne disparaît pas car il n’y a pas de risque zéro. Si la probabilité d’une cybercatastrophe est très faible, le danger est surtout d’ordre géopolitique, en particulier dans la relation avec les Etats qui ne coopèrent pas pleinement dans le WhiteNet. Le risque demeure conséquent en cas d’affrontements entre Etats nations : certains d’entre eux pourraient recourir aux cyberarmes.

La principale contrainte pour les entreprises réside dans la difficulté à recruter des talents en l’absence de réelles ruptures technologiques, telles que la diffusion large de la programmation en méthode formelle ou des percées sur la Loi de Moore, voire sur le calcul quantique, qui permettraient des ruptures en termes de capacités de calcul. Cependant la diffusion de l’intelligence artificielle devrait permettre à moyen terme de pallier certains problèmes de recrutement pour les tâches à basse ou moyenne valeur ajoutée.

La Révolution Défensive : une nouvelle donne

Dans ce scénario, on assiste à la conjonction de trois éléments favorables :

– L’essor conjoint des technologies de simulation et d’automatisation permet de rompre l’asymétrie d’information traditionnellement en faveur de l’attaque. Le rapport de forces est définitivement modifié au profit de la défense. Résultat, le développement du WhiteNet et des nouveaux business model qui y sont associés se renforce.

– Les progrès enregistrés ont pour effet d’attirer les talents vers le monde de la cybersécurité : la pénurie est résorbée. Cette accélération de la formation du capital humain permet à son tour d’améliorer en permanence les technologies et de garantir la pérennité des dispositifs de protection. Parallèlement, dans les entreprises, la fonction du responsable de la sécurité des systèmes informatiques (RSSI), ou CISO (Chief Information Security Officer), est mieux valorisée.

– Dans ce contexte, on assiste à un changement de doctrine dans la coopération internationale. Un climat de confiance se développe auprès des consommateurs et les Etats préfèrent développer une approche défensive. La sécurité collective augmente. Cette nouvelle attitude contribue, à son tour, à renforcer le nouveau rapport de force favorable à la défense. Le risque géopolitique n’est jamais nul mais il y a, pour la première fois, une influence du système technique clairement en faveur de la défense, ce qui réduit au minimum le risque de conflit.

La capacité de nuisance des groupes cybercriminels est fortement réduite et la rentabilité de leurs activités s’effondre. Par ailleurs, on assiste à une baisse globale du coût de la cybersécurité, qui permet de réallouer la valeur ajoutée à d’autres activités et de favoriser la croissance. Il y a un réel effet de création de valeur.

Dans ce scénario, les entreprises doivent donc demeurer vigilantes et adapter leur stratégie. Le dispositif de protection est externalisé et la cybersécurité devient une « utility », comme l’eau ou l’électricité. La mission du RSSI évolue : il supervise les services externalisés, tout en veillant à ce que la culture de la cybersécurité au sein de l’entreprise soit maintenue et développée. Des exercices fréquents sont organisés, la capacité de défense est régulièrement validée par le biais de « stress tests » systématiques à tous les niveaux (humain, organisation, process, etc.). L’entreprise est en tension permanente. La formation des managers est un autre volet fondamental de cette nouvelle stratégie.

Développer avant tout une société de confiance

Ces différents scénarios mettent en évidence les grands facteurs d’évolution en matière de cybersécurité, qui vont permettre de basculer dans un univers ou un autre. Ils montrent également l’importance des interactions entre de multiples éléments, un phénomène insuffisamment pris en compte dans les analyses.

L’évolution de l’environnement économique et social de la planète sera un élément décisif pour déterminer l’avenir de la cybersécurité. Au cours des dix prochaines années, il y aura toujours le risque d’une nouvelle crise économique qui provoquerait une nouvelle hausse du chômage et une accentuation des inégalités. Ce retournement de l’activité empêcherait une vraie répartition des fruits de la transformation digitale. Ce contexte serait favorable à la montée des extrémismes et à l’utilisation d’Internet comme outil de combat politique. La coopération entre Etats, mais également entre entreprises, s’en trouverait affectée et, par ricochet, le développement d’une société internationale de confiance.

La technologie en elle-même ne sera pas la seule réponse. Elle doit être intégrée à des stratégies plus globales d’approche défensive. Surtout, le changement ne pourra se concrétiser que si, parallèlement, se développe une société de confiance, tant au niveau international que national. Si les consommateurs ont le sentiment qu’une société hyperconnectée ne peut assurer la protection des données, les ruptures technologiques seront un coup d’épée dans l’eau.

Enfin, la coopération internationale n’est pas une panacée en soi. Le piège consisterait à développer une régulation excessive. Le travail en commun des Etats n’a de sens que si celui-ci a pour effet de créer un cadre suffisamment souple et protecteur pour que l’initiative privée puisse se développer dans un contexte sécurisé. Un excès de régulation pourrait, paradoxalement, nuire à la cybersécurité.

Dans tous les cas de figure, la meilleure arme défensive demeure la collaboration entre l’ensemble des acteurs impliqués dans le cadre du WhiteNet. Cet outil est à la fois une arme défensive efficace, une source de création de valeur et un moyen d’attraction des talents. Les entreprises ont un rôle majeur à jouer dans l’émergence de ce WhiteNet et dans l’élaboration d’une réponse à la cybercriminalité.

Comment être persuasif et obtenir ce que vous désirez en six leçons.

Le prix Nobel d’économie a été attribué, en 2017, à Richard Thaler, pour ses travaux en économie comportementale, qui décryptent notamment en quoi des mécanismes psychologiques et sociaux influencent les décisions des consommateurs ou des investisseurs. L’économiste américain de 72 ans s’inscrit ainsi également dans le champ de la psychologie sociale. Dans ce domaine, plus d’un siècle de recherches a abouti à des enseignements intéressants, largement présents dans l’œuvre de Richard Thaler et résumés en 6 principes d’influence par le psychologue américain Robert Cialdini.

1- Donnez ce que vous voulez recevoir

« Nous nous sentons obligés de rendre les services qui nous ont été rendus, explique Robert Cialdini. L’application : donnez ce que vous voulez recevoir. » C’est le principe de réciprocité. Si vous faites un geste envers l’autre, celui-ci sera plus enclin à en faire un autre en retour. Et plus le geste est perçu comme qualitatif, plus le retour est important. Ainsi, avant d’aborder un échange avec un interlocuteur, faites la listes des gestes qualitatifs que vous pourriez faire à son encontre. Et focalisez-vous sur ceux qui pourraient vous permettre d’obtenir un retour qui aille dans le sens de l’influence que vous souhaitez exercer sur lui.

2- Valorisez votre expertise

« Nous attendons des spécialistes qu’ils nous disent quoi faire. L’application : montrez votre expertise, ne supposez pas que votre propos est évident par lui-même. » Dès les années 1960, le psychologue Stanley Milgram avait réalisé une série d’expériences illustrant ce principe d’autorité : les participants n’hésitaient pas à électrocuter (fictivement mais ils l’ignoraient) des complices du chercheur car ils avaient l’aval d’une autorité médicale. En 2009, « Le jeu de la mort », un documentaire diffusé sur France 2, refit la même démonstration. Pour actionner ce levier, identifiez en quoi vous avez un statut d’autorité auprès de vos interlocuteurs, ou à défaut à quelle(s) personne(s) ou élément(s) faisant autorité vous pouvez vous référez.

3- Mettez en évidence les similitudes que vous avez avec les autres

« Plus nous apprécions les gens, plus nous sommes enclins à leur dire oui. L’application : mettez au jour les similitudes réelles avec les autres et délivrez des appréciations authentiques. » Robert Cialdini appelle tout simplement ce principe la « sympathie », et en délivre deux clés : les points communs, qui rapprochent, et les expressions positives, qui instaurent une dynamique d’échanges favorable. Dans cette optique, Jodi Glickman, conférencière et spécialiste de la réussite professionnelle, formule huit conseils faciles à appréhender : facilitez la vie des autres, anticipez les étapes des projets auxquels vous participez, allez à l’essentiel, partagez facilement les informations, engagez le dialogue seulement après avoir demandé à l’autre s’il en a le temps, félicitez facilement, partagez votre temps et votre expertise, assumez collectivement les échecs et reconnaissez individuellement les réussites.

4- Evoquez vos « avantages uniques »

« Plus une ressource est rare, plus nous la désirons. L’application : mettez en avant des avantages uniques et des informations exclusives. » L’or est le symbole même du métal précieux. Pourtant, il en est un autre, encore plus cher, le platine : 31 100 euros le kilo pour le premier contre 35 245 euros le kilogramme pour le second. Qu’est-ce qui explique cet écart ? Leur différence de volume de production : 2 500 tonnes par an pour le premier contre 200 tonnes pour le second. C’est le principe de rareté, valable pour les métaux comme pour la communication interpersonnelle. Ainsi, plus ce que vous proposez apparaît comme spécifique, unique ou exclusif aux yeux de vos interlocuteurs, plus cela vous donne de l’ascendant.

5- Utilisez la puissance de la recommandation par les pairs

« Nous utilisons les actions des autres pour déterminer notre propre comportement. L’application : utilisez la puissance de la recommandation par les pairs à chaque fois que celle-ci est disponible. » En 2009, le Trésor public anglais a mis en œuvre ce principe. Avec son arsenal habituel de relances et de pénalités, ses résultats atteignaient 57% de recouvrement. Grâce à l’ajout de messages précis soulignant que l’immense majorité des contribuables payaient à temps, ce taux est passé à 86 %. Inspirez-vous de cette réussite et utilisez l’exemples des autres pour aller dans le sens de vos messages.

6- Faites prendre des engagements

« Nous voulons que notre conduite soit cohérente avec nos valeurs. L’application : faites prendre des engagements clairs, publics et volontaires. » Robert Cialdini nomme ce principe la « cohérence dans l’engagement ». Nous préférons adopter, au fil du temps, des comportements successifs cohérents les uns avec les autres. Ainsi, pour inciter un interlocuteur à telle ou telle action, rappelez-lui ses actions antérieures de la même veine. Amenez-le également à exprimer des engagements clairs et formels, ce qui l’encouragera à les tenir.

 

Plutôt qu’une simple numérisation de leur offre, les entreprises doivent entamer un processus de transformation globale basé sur l’expérience client, une révision de leurs process internes et leurs collaborateurs.

Dans un monde secoué par la prolifération des nouvelles technologies (intelligence artificielle, Internet des objets, blockchain, réalité virtuelle, cloud…), par les Gafa (Google, Apple, Facebook, Amazon) et leurs cousins les Natu (Netflix, Airbnb, Tesla, Uber), par les start-up et leurs licornes, les entreprises doivent se réinventer et engager une transformation profonde. Beaucoup d’entre elles en ont conscience mais elles sont encore trop nombreuses, soit à se tromper sur le contour et l’ampleur de cette problématique et de ses enjeux, soit à faire un amalgame entre transformation digitale et innovation.

Les entreprises doivent ainsi se méfier d’une transformation digitale restreinte à la seule numérisation de l’offre, en lui préférant une transformation globale. La différence est importante et se fourvoyer dans la formulation de la problématique leur fera manquer le défi du digital et risquer d’être « disrupté ». Il ne faut pas non plus confondre la finalité et les moyens. La transformation digitale ne se réduit pas à développer une application mobile, à produire du contenu sur les réseaux sociaux et à embaucher un chief digital officer (CDO). Pour mener à bien une transformation globale, il est souhaitable de travailler sur trois axes en parallèle.

1. L’expérience client

Sur l’axe de la relation client, le défi principal est l’expérience client. Grâce aux outils numériques, les clients sont de véritables « consom’acteurs ». Ils peuvent s’informer sur les produits, comparer les prix (y compris dans les magasins), partager les bons plans, recommander, critiquer… De leur côté, les entreprises fournissent une multitude d’informations par le biais de leurs sites Web, les réseaux sociaux, leur service client, et plus récemment les chatbots. Cependant, contrairement aux start-up, qui changent la logique d’offre et de service en logique d’expérience client, trop peu d’entreprises savent écouter et nouer un dialogue avec ce dernier.
Dans ce nouveau monde, l’expérience client est un enjeu vital pour les entreprises et elles doivent l’intégrer dans leur organisation. C’est un facteur de différenciation concurrentielle. Les entreprises doivent supprimer les points de friction dans les parcours clients, les rendre simples et fluides. Elles doivent surtout allier le meilleur de l’humain et du digital, sésames d’une expérience réussie, pour se mettre en capacité d’enchanter le client en suscitant des émotions chez lui, levier puissant pour obtenir sa satisfaction et sa fidélité dans la durée (lire aussi la chronique : « Relation client, c’est l’émotion qui compte »).

2. Les process internes

C’est le deuxième axe de la transformation digitale. Le question des process internes n’est pas nouvelle : la numérisation des outils existe depuis longtemps, néanmoins les enjeux sont certainement encore plus importants aujourd’hui et peut-être différents. En mettant le client au cœur de la stratégie de l’entreprise, en revendiquant le souhait de le satisfaire et de répondre à ses attentes quel que soit le canal de communication, les deux défis majeurs que sont l’excellence opérationnelle et l’agilité émergent dans l’entreprise. L’excellence opérationnelle permet en effet de maximiser les performances en matière de productivité, de qualité des produits, de réduction des coûts, et plus généralement d’efficience. Elle est donc un levier puissant de compétitivité pour les entreprises, a fortiori dans un environnement extrêmement concurrentiel.
Par ailleurs, le monde dans lequel évoluent dorénavant les entreprises est caractérisé par l’inconstance des situations, leur imprévisibilité, leur complexité due au nombre croissant d’interactions, et parfois l’ambiguïté de certaines situations. Dans ce monde #Vuca, (volatility, uncertainty, complexity, ambiguity), les stratégies, les priorités et les projets changent vite ; être agile est fondamental pour les entreprises. Adopter les principes du lean start-up mais aussi simplifier son organisation pour la rendre plus efficace face à la complexité est essentiel pour atteindre performance et « time to market ». Les « dinosaures » doivent redevenir des souris capables de faire preuve d’agilité dans ce nouveau monde digital.

3. Les collaborateurs

Pour être en capacité d’évoluer et de réussir dans ce nouveau contexte, l’entreprise devra embarquer l’ensemble de ses collaborateurs, en impulsant une transformation culturelle profonde de son fonctionnement. La démarche doit promouvoir des valeurs et des comportements en adéquation avec les nouveaux défis de l’entreprise.
Il faudra aller au-delà du « cultural washing ». Fournir des tablettes aux salariés, recruter un chief happiness officer (CHO) ou encore passer en open space est loin d’être suffisant. C’est le cœur du réacteur de l’entreprise qu’il faut transformer, grâce à une autonomisation et une responsabilisation des salariés ainsi qu’ un management par la confiance. Il s’agit de basculer d’un état passif et méfiant, souvent généré par de longues années de réorganisations et de fusions-acquisitions successives, à un état de confiance. Sacré défi pour améliorer significativement l’engagement de ses salariés et ainsi sa performance.

L’innovation est un métier

Innovation et transformation digitale sont deux approches différentes. Elles sont distinctes et complémentaires, elles se nourrissent l’une et l’autre. Le digital permet de répondre plus efficacement aux nouveaux besoins, d’accroître le rythme de développement mais pas d’innover. La fonction de CDO a parfois fait disparaître la fonction de directeur de l’innovation au sein des entreprises. C’est une erreur. Là où la transformation digitale permettra à l’entreprise de devenir CIAS (connectée, intelligente, agile, sociale), l’innovation lui permettra de trouver de nouveaux territoires de croissance. La transformation digitale aboutit dans la majorité des cas à une digitalisation de l’existant, lorsque l’innovation vise à élaborer un nouveau produit, process ou service, à aborder un nouveau marché, à imaginer un nouveau modèle d’affaires etc.
Beaucoup trop d’entreprises se méprennent et multiplient les POCs (proof of concept), les hackathons, les meet-up avec des start-up sans avoir défini au préalable une stratégie d’innovation. L’entreprise doit avoir une vision claire de là où elle veut aller, des services qu’elle veut offrir, des innovations qu’elle doit mettre en œuvre pour se rendre incontournable aux yeux de ses clients et élaborer un processus spécifique pour ce métier si fragile. Innovation et transformation digitale sont ainsi complémentaires, elles servent un même objectif : toujours mieux servir et satisfaire les clients de manière rentable. Seule l’innovation lui permettra de créer de nouveaux business models, d’identifier de nouveaux territoires de croissance et d’aller nager dans des Océans bleus.

Inciter les consommateurs à penser aux bonnes expériences stimule les ventes.

La plupart des entreprises recourent aux enquêtes clients pour évaluer le taux de satisfaction, identifier les points à améliorer, ou tout simplement permettre aux clients mécontents de s’épancher. Cette approche se caractérise par un état d’esprit pessimiste, se concentrant sur les problèmes. « Le client cherche toujours ce qui ne va pas, il est conditionné pour cela », explique Sterling Bone, maître de conférences en marketing à la Jon M. Huntsman School of Business de l’université de l’Utah. En effet, la grande majorité des recherches relatives au service client traitent du « redressement du service » – comment réagir quand un client se plaint. Lors d’un cours d’études bibliques, à la fin des années 2000, Sterling Bone s’est mis à réfléchir au pouvoir de la gratitude, et il en est venu à se demander ce qu’il adviendrait si ce sentiment était intégré aux enquêtes de satisfaction. Plutôt que de demander aux clients ce qui s’est mal passé, pourquoi ne pas leur demander ce qui s’est bien passé ?

Depuis, Sterling Bone et ses collègues ont mené des recherches pour approfondir cette idée. Ils ont publié sept études qui, prises dans leur ensemble, montrent que les entreprises ne devraient pas considérer le processus de feed-back client seulement comme une possibilité d’écouter leur clientèle, mais aussi comme une occasion d’influencer subtilement sa perception. Il est apparu, de façon systématique, que solliciter le feed-back des clients en cherchant tout d’abord des compliments (en demandant, par exemple, ce qui s’est bien passé pendant la visite) augmentait le degré de satisfaction déclaré et entraînait une hausse de la probabilité d’un nouvel achat, du montant d’argent dépensé et de la fidélisation. Commencer une enquête par des « questions ouvertes et positives » semble être une façon simple et bon marché d’accroître la satisfaction et la consommation. « Les gens sont plus heureux lorsqu’ils se concentrent sur ce qui est positif, et pourtant les entreprises leur en donnent rarement l’occasion », commente Sterling Bone.

L’une de ces études, menée dans une enseigne américaine, montrait que les clients invités à formuler un compliment au début de l’enquête de satisfaction réalisaient 9% d’achats supplémentaires et dépensaient 8% de plus dans ces magasins durant l’année suivante que les clients répondant à la même enquête sans avoir été invités à formuler un compliment. Une autre étude, conduite dans une entreprise de logiciels B to B, a révélé que les utilisateurs d’un logiciel de démonstration à qui il avait été demandé, en début d’enquête, de décrire les fonctionnalités qu’ils appréciaient tout particulièrement ont dépensé 32% de plus dans les produits de la société en question, durant l’année suivante, que les utilisateurs de la version d’essai à qui cette question n’avait pas été posée. Dans ces deux études, les clients qui avaient été incités à formuler des compliments ont également atteint des scores plus élevés avec les outils traditionnels de mesure de la satisfaction. Et être ainsi invité à donner une opinion positive stimulait l’acte d’achat même chez les clients qui avaient fait état d’expériences médiocres. « Il est possible que les questions ouvertes et positives contribuent à redéfinir les expériences clients qui n’ont pas été extraordinaires », affirment les auteurs.

Les chercheurs donnent plusieurs explications possibles à ces résultats. Les psychologues savent que la mémoire est malléable ; demander aux clients de raconter des expériences positives contribue donc peut-être à renforcer le souvenir de ces expériences et à les rendre plus accessibles à l’avenir, améliorant ainsi, chez ces clients, la perception générale des événements. A moins qu’un autre effet psychologique ne soit aussi à l’œuvre : la dissonance cognitive – c’est-à-dire le malaise ressenti par des personnes ayant des croyances contradictoires – pourrait rendre les clients moins susceptibles d’avoir piètre opinion d’une marque après en avoir loué un des aspects positifs. « Nous faisons l’éloge de ce que nous aimons, et nous aimons ce dont nous faisons l’éloge », analyse Hilary Hendricks, titulaire d’un MBA de l’université Brigham Young et ayant participé aux recherches.

Une telle manipulation pose-t-elle un problème éthique ? Les chercheurs reconnaissent que la question mérite d’être examinée, mais ils apportent plusieurs éléments rassurants. Premièrement, disent-ils, des études antérieures montrent que les clients sont rarement conscients de la manipulation. « Il est donc probable que les clients perçoivent ces sollicitations comme étant sincères, si ce n’est flatteuses », écrivent-ils. Sterling Bone ajoute que le travail de recherche en psychologie sur les effets salutaires de la gratitude suggère qu’être incité à adresser des compliments pourrait stimuler le sentiment de bien-être chez les clients. Les chercheurs font enfin valoir que les entreprises devraient aborder cette technique moins comme un moyen de manipuler la perception que comme une manière d’établir des relations.

Les chercheurs citent plusieurs sociétés qui sollicitent déjà les retours positifs de leurs clients dans le cadre de leur programme Voix du client. Chez Subway, à proximité des caisses, des panneaux affichent : « Que pensez-vous de votre sandwich ? Pile-poil ! Parfait ! Super ! Dites-nous – Nous voulons savoir ! » Un réseau d’hôpitaux confessionnels invite ses patients à répondre à la question : « Quelle bénédiction avez-vous reçue de la part d’un employé de l’hôpital ? » La page contact de JetBlue Airways conduit à un lien où les clients peuvent « partager un compliment ». Lonnie Mayne, le président d’InMoment – une société spécialisée dans l’insight consommateur qui mobilise énormément ce type de recherche – affirme que ceux qui ont adopté cette tactique parlent d’un cercle vertueux d’appréciation mutuelle entre clients et employés. « Les clients ne sont pas les ennemis, assure-t-il. Mais si vous ne sollicitez que leurs critiques, c’est ce que vos employés entendront et ce qu’ils auront en tête lors de leur prochaine interaction avec eux.»

Lonnie Mayne précise aussi que les sociétés peuvent profiter des réponses positives pour améliorer la qualité, en déplaçant l’attention du « champ de mines » (les inévitables réclamations) vers les « mines d’or » (où la marque s’en sort bien). Néanmoins, prévient Kristen DeTienne, professeure à la Marriott School of Management de l’université Brigham Young et coauteure de plusieurs des sept études citées, il faut poursuivre les recherches pour savoir si solliciter un compliment après une expérience désastreuse (une erreur médicale, par exemple) ou une expérience très délicate ou rarement agréable ne risque pas d’être contre-productif et d’exaspérer les clients. « Peut-être n’avons-nous pas envie que l’on nous demande quels aspects d’un service funèbre nous ont “enchantés” », explique-t-elle.

Kristen DeTienne nous avertit aussi que, à trop insister pour obtenir un feed-back positif, on risque de dépasser les bornes. Elle évoque une équipe de Delta Air Lines basée dans l’Ontario, dont les membres distribuaient des prospectus rappelant aux passagers « Nous visons 5 » – demandant en substance une note de 5 sur 5 lors des enquêtes de satisfaction. Ce mécanisme prend une importance particulière dans le contexte des soins de santé, car la perception qu’ont les patients des soins prodigués intervient souvent dans la fixation des financements fédéraux. Les meilleures sociétés, explique Kristen DeTienne, avisent leurs employés que les tentatives d’orientation des réponses des clients sont un motif de licenciement immédiat.

En effet, les auteurs précisent que leur principale crainte au sujet de leurs recherches est que certains managers s’en servent pour gonfler le degré de satisfaction de leurs clients – un indicateur qui aide souvent à fixer le niveau de rémunération au mérite. Dans le cadre de leurs études, solliciter un compliment accroît de 15% les résultats du Net Promoter Score (un indicateur de la satisfaction des clients) et augmente jusqu’à 25% les intentions d’achat. Si certains managers reformulent des enquêtes entières pour mettre l’accent sur les expériences positives, leur entreprise pourrait mal interpréter cette hausse tronquée et la prendre pour une réelle amélioration du service. Les chercheurs recommandent aux sociétés de continuer à proposer leurs enquêtes initiales à un groupe témoin de clients de manière à ce que les tendances véritables ne soient pas occultées.

Enfin, les chercheurs notent que, pour parvenir à une amélioration durable, les bénéfices résultant des sollicitations de compliments doivent être couplés à des fondamentaux solides en matière de service. « Nous ne pensons pas que cela fonctionnera si l’entreprise n’est pas gérée convenablement, précise Kristen De- Tienne. Cette technique seule ne sauvera pas une entreprise en difficulté. »

Ils sont dévoués, increvables et de plus en plus efficaces : les chatbots sont devenus incontournables dans la relation client. Mais avant qu’ils ne maîtrisent les subtilités du langage de marque, il y a encore du chemin…

A l’heure du big data et de l’intelligence artificielle, l’art d’écrire et de parler se doit d’être à la hauteur de la sophistication des données collectées sur l’internaute. C’est ce que nous appelons le « language quality data ». Cet art passe par une modélisation du langage, qui doit refléter la ligne éditoriale de l’entreprise et de la marque. Il se doit de transmettre des valeurs et de désigner votre style, votre façon d’être avec vos clients.

Un enjeu d’autant plus important à l’heure du chatbot (« robot qui discute »), qui ouvre la voie au déploiement de nouveaux champs d’expression. Polyvalent, cet assistant virtuel séduisant et à la mode assume des tâches ciblées, répétitives et parfois fastidieuses mais étonnantes. Le chatbot informe, aiguille, vend, assiste, anime et divertit. Conçu au milieu des années 1960, il revient sur le devant de la scène, notamment via le développement des services de messagerie instantanée et des progrès en matière de machine learning (conception d’un système apprenant) et de « deep learning » – une méthode d’apprentissage automatique grâce à des réseaux de neurones artificiels (lire aussi l’article : « Comment les machines apprennent, et pourquoi vous y gagnez »).
Des agents dotés d’une faculté d’apprentissage

On peut distinguer deux grandes catégories de chatbots. La première correspond aux robots à programmation simple, qui repose sur des questions et des réponses prédéfinies par une base de données. La seconde comprend des programmes avec des algorithmes complexes reliés à l’intelligence artificielle. Capables de changer de sujet de conversation et dotés d’une grande faculté d’apprentissage et d’auto-évaluation, ces chatbots, en majorité accessibles via Facebook Messenger, se nourrissent des dialogues qui ont été tenus et les gardent en mémoire.
Ainsi conçu sur un modèle simple de questions-réponses, le chatbot de BlaBlaCar est spécialisé dans la vente : il vise à faciliter les recherches de trajets en covoiturage. S’il n’a pas de nom, il est en revanche réactif, facile à repérer et remplit très bien son rôle d’aiguilleur. La marque s’est ici concentrée sur l’efficacité : le ton du chatbot est neutre.

Elaboré pour trouver des billets de train aux prix les plus compétitifs, le VBot, agent de voyage virtuel de la SNCF, possède également de nombreuses qualités. Sa présentation est brève mais complète. Il détaille la procédure de chaque requête client et prend une posture d’assistant attentif et proactif : « Je m’occupe de trouver les meilleurs prix pour vos trajets en train ». Créateur d’une conversation naturelle et authentique, le Vbot recherche la connivence et la complicité avec l’internaute en alternant subtilement l’énonciation du « je » et du « vous ». Il emploie un style chaleureux et bienveillant : « Aidez-moi à progresser : vous ai-je surpris, fait rire ou énervé ? On se dit tout. » Il a même l’humilité de vous confier qu’il cherche à s’améliorer.
Beautybot, inventé par Sephora pour conseiller l’internaute dans le choix de ses cadeaux de Noël, tisse une relation encore plus aboutie avec le client. Il jongle entre des phrases courtes, interrogatives et exclamatives. Proactif, il utilise une grande variété de tournures, à la fois servicielles (« Je vais vous aider à… ») et conniventes (« Promis, ça reste entre nous »). Mais sa force principale réside dans sa capacité à offrir un produit correspondant au profil de la personne à qui l’on veut faire plaisir. Aussi bien sur la base d’informations objectives, « Quel âge a-t-elle ? », que subjectives ; « Pouvez-vous m’en dire un peu plus sur son style ? ».

Cette tendance à la personnalisation se confirme y compris dans des secteurs où le conseil nécessite d’être plus pointu. La foire aux vins 2017 a fait émerger plusieurs chatbots, tels que Balthus pour Lidl. Il se présente comme un sommelier virtuel à même de vous aider à choisir le vin que vous recherchez. Familier, Balthus s’exprime avec un ton chaleureux et aiguille le consommateur grâce à des questions sur les prix, le type de vin, les appellations, les mets prévus, ou l’occasion (« se faire plaisir », « épater ses amis »). La langue est naturelle, émaillée d’expressions informelles, d’interjections et d’emoji. Balthus et Beautybot partent des besoins de l’internaute, l’impliquent et le guident dans un parcours personnalisé, nourri par un dialogue adapté et spontané.
Dans l’immédiat, malgré leur inventivité, les chatbots peinent à s’extraire du registre des questions-réponses, structuré par une réflexion binaire. Il en résulte une certaine difficulté face aux aléas et aux questions inattendues. Et au-delà des limites techniques, les marques n’ont pas encore réellement accordé le ton du bot avec la langue exprimée sur leur site ou sur les réseaux sociaux. Et c’est dommage quand on veut à ce point personnaliser la relation. Toutefois, cette nouvelle interface de dialogue et d’expression se perfectionne d’heure en heure et offre de nouvelles formes de modélisation du langage (lire aussi la chronique : « Je flunche puis on se skype : comment les verbes de marques investissent notre langage »).

Des robots capables de rédiger seuls des comptes-rendus

Les logiciels d’intelligence artificielle développés par Yseop, utilisés dans le secteur de l’immobilier de bureau par exemple, vont jusqu’à écrire des comptes-rendus de façon autonome. Ces agents artificiels rédigent, grâce à un système de QCM bien pensé, des rapports qui en tromperaient plus d’un.
L’enjeu majeur de la modélisation du langage et de sa maîtrise par des bots suppose néanmoins, sur le fond, d’agrandir le champs de perception des aléas et, sur la forme, d’apprivoiser des nuances de ton. Les mots possèdent des sens multiples et le langage manie l’implicite. Il combine raison et émotion, et possède une dimension sensible (intonation, timbre ou ton et rythme), pour l’instant étrangère à la langue digitale. Dans son dernier livre, « La chute de l’empire humain », le P-DG de Roland Berger Charles-Edouard Bouée confirme d’ailleurs que « L’informatique intelligente peut s’approcher de la compréhension, mais être capable de pensées créatives nécessitera une capacité d’imagination ».

 

 

 

 

 

 

 

A force de se concentrer sur la technologie, on en oublie que le manager a un rôle clé. Et qu’il doit le garder.

Depuis l’annonce du phénomène « big data » au début des années 2010, promettant d’être la « nouvelle frontière pour l’innovation, la compétition, et la productivité » selon McKinsey, les entreprises ont de plus en plus de mal à garder le cap. Les vagues de révolution technologique se succèdent : cloud, big data, Internet des objets, machine learning et maintenant l’intelligence artificielle ; chacune mettant en péril les business model des entreprises tandis que les règles du jeu de la compétition ne cessent de changer.

Alors que l’intérêt au départ s’était surtout porté sur l’explosion du volume de données désormais à la disposition des entreprises, l’enjeu majeur a rapidement évolué vers la capacité des entreprises à générer de la valeur via l’analyse de ces données. En réponse au défi consistant à trouver les profils sur le marché ayant cette capacité à transformer ces données de plus en plus complexes et variées, un nouveau rôle, le « data scientist », est apparu comme l’un des métiers les plus porteurs du 21ème siècle. Sorte de mouton à cinq pattes à la confluence de l’informatique, des techniques avancées de modélisation et d’une connaissance approfondie du milieu de l’entreprise, tout le monde se l’arrache dans des domaines et secteurs aussi variés que le marketing, la finance, le conseil, la santé et la grande distribution, sans oublier les gouvernements eux-mêmes.

Toutefois, cet engouement pour ces nouveaux profils représente une réelle menace pour les entreprises qui tendent à penser que recruter une équipe de data scientists leur suffira pour « faire de la data » ou faire efficacement du big data . En effet, il y a un fort risque de « myopie organisationnelle » quant à la transformation radicale qu’engendre un fonctionnement en mode data, plaçant les données au cœur de la stratégie et des modèles d’affaire. Il s’agit d’une réelle mutation, d’un changement d’ADN, qui impactent l’intégralité des processus de l’entreprise et qui redéfinit même la manière de travailler, de communiquer et d’interagir. Une entreprise en mode data ou data-driven se voit dotée d’une capacité organisationnelle analytique qui englobe la détection, la génération, le stockage, le traitement et l’analyse des données. L’entreprise se métamorphose en une entreprise analytique ou quantitative.

Des data planners aux data stewards

Ceux qui ont saisi la portée et les implications d’une data-transformation ont commencé à recruter une armée de spécialistes autres que ces fameux data scientists, comme des chief data officers, véritables chefs d’orchestre de la donnée œuvrant au même niveau que les autres dirigeants de l’entreprise. Il existe aussi pléthore de nouveaux métiers dont le périmètre et les compétences associées tendent à varier d’une entreprise à une autre. Les data planners ont souvent la tâche d’interpréter les données consommateurs et de collaborer avec le planning stratégique. De plus en plus de data analysts sont, quant à eux, recrutés avec pour mission d’analyser les données et d’aider à faire évoluer la stratégie de l’entreprise, alors que d’autres les rattachent à la direction des systèmes d’information et les placent responsables de toutes les opérations réalisées sur les bases de données. Se mêlent à tout cela les nouveaux data stewards, qui sont en charge d’organiser et de gérer les données de l’entreprise, et les data miners dont le rôle est plus ou moins à la confluence de tous les autres métiers data.

Il est bien évidemment concevable que cette révolution data engendre l’émergence de nouveaux métiers. Il en a été de même lorsque, il y a de cela environ 50 ans, les ordinateurs ont commencé à envahir les entreprises. De nombreux métiers de l’informatique sont alors apparus. Cependant, au-delà de ces nouveaux rôles, la transformation engendrée par l’avènement de l’informatique a ébranlé le périmètre fonctionnel et les compétences de quasiment l’intégralité des métiers de l’entreprise. La raison est simple, le fait de basculer dans l’ère informatique avait modifié la manière de travailler, de communiquer et d’interagir tout en redéfinissant la stratégie et les business model. Il en est aujourd’hui de même pour la data-révolution.

Plutôt que d’essayer de créer de nouveaux métiers, il est urgent de redéfinir la fonction, les tâches et les compétences de chaque métier. Par exemple, les entreprises sont de plus en plus à la recherche de « data visualizers » aussi appelés « data visualization analysts », capables d’analyser de manière pertinente les données grâce à des techniques d’analyse visuelle. A-t-on vraiment besoin de ces nouveaux métiers ?

Un seul but, aider à la prise de décision

L’entreprise s’engageant sur le chemin du data-driven voit l’ensemble de ces processus se transformer, en particulier ses processus de décision. Les décisions deviennent elles aussi data-driven, c’est-à-dire qu’elles englobent une composante analytique basée sur le traitement de données internes ou externes. Il peut s’agir de données stockées dans des « data lakes » (ou lacs de données, qui sont de plus en plus utilisés par les entreprises pour le stockage de données), ou dans une base de données, qu’elles soient structurées ou non, voire un simple fichier tableur. De la même manière, l’analyse peut être particulièrement complexe, de l’ordre de la data science, en utilisant des techniques telles que le clustering, la classification, la régression logistique ou les forêts d’arbres décisionnels. Mais il peut tout aussi s’agir de techniques d’analyse visuelle ou bien de simples statistiques inférentielles et descriptives. Un processus de décision devient data-driven lorsqu’il incorpore une dimension analytique. Tous ces nouveaux rôles et métiers créés autour de la data semblent avoir pour mission commune d’analyser les données afin d’aider la prise de décision quelle qu’elle soit. Or, il semble que l’acteur principal dans toutes prises de décision soit implicitement omis : le manager.

Qu’ils soient rattachés au niveau opérationnel, middle ou stratégique, les managers ne disparaissent pas au dépend d’une armada de data scientists, de data analysts et autres data miners. A l’heure du data-driven, les managers eux-mêmes deviennent « analytiques ». Ils doivent se muer en des managers-scientifiques. En d’autres termes, ils doivent être capables d’intégrer les données et de les analyser en lien avec les problématiques qu’ils rencontrent et les décisions qui doivent être prises. Pour saisir la réalité qui se cache derrière des données de plus en plus complexes, véloces et volumineuses, les managers n’ont d’autre choix que d’ajouter une couche d’abstraction visuelle à leur prise de décision : la « data visualization » (ou analyse visuelle de données). Mais a-t-on vraiment besoin, pour cela, de recruter des « data visualizers » ou n’est-il pas plus pertinent de former les managers aux techniques d’analyse visuelle ?

Attention à ne pas créer de l’inertie

De la même manière, le fait de basculer dans l’ère de la data à travers le big data, le machine learning, l’Internet des objets ou l’intelligence artificielle, permet à l’entreprise, ainsi qu’aux managers, d’agir en temps réel, voire en mode préventif ou prédictif. Mais vouloir impliquer tous ces spécialistes de la data dans les processus de décisions risque de créer de la lourdeur et de l’inertie, compromettant le bénéfice du temps réel et du prédictif. Les compétences des managers scientifiques doivent se trouver à la confluence des sciences de gestion mais aussi de l’informatique (avec notamment la gestion des données, la programmation…) et des techniques avancées d’analyse et de modélisation statistiques. Se posent alors deux défis fondamentaux pour les entreprises. Il faut dans un premier temps transformer les managers actuels en managers scientifiques. Au-delà de la difficulté de modifier l’état d’esprit et le mode de fonctionnement des managers, l’évolution significative des compétences nécessaires incluant des notions plus techniques ou scientifiques est un problème délicat en matière de gestion des ressources humaines.

La deuxième question qui se pose est où trouver et recruter des managers qui seraient dotés de cette composante analytique ? Ce nouvel ADN semble résider à la croisée des programmes proposés par les écoles de commerce (et des cursus en gestion et management des universités) et de ceux dispensés par les écoles d’ingénieurs. Il est donc important, pour les entreprises, d’engager un dialogue avec ces organes de formation afin de redéfinir les compétences clés de chacun des métiers de l’entreprise. Par ailleurs, si les écoles de commerce, les universités et les écoles d’ingénieurs continuent de fonctionner en silo, le système éducatif ne sera pas en mesure de répondre de manière efficace aux demandes urgentes du marché. Il est même peut-être pertinent de repenser l’organisation du système éducatif actuel, ainsi que le rôle de ses différents acteurs. Si les managers deviennent des managers scientifiques, si tous les métiers de l’entreprises incorporent de plus en plus une composante analytique, et si de nouveaux métiers data apparaissent, il n’est pas du tout sûr que le fonctionnement actuel soit le plus approprié. C’est parce qu’elle a un impact à divers niveaux, et pas seulement dans la sphère des entreprises, que cette transformation data s’apparente à une vraie révolution sociétale.

 

les progrès de l’IA semblent sonner le glas d’un certain nombre de professions, d’autres vont apparaître pour la programmer, l’éduquer et la gérer.

En l’espace de quelques mois, le marché s’est emparé du concept d’intelligence artificielle, bousculé par les démonstrations d’Amazon et Google et interrogatif quant aux immanquables changements de modèles à venir. Une étude d’Accenture projette, en France, un grain de productivité supplémentaire de 20 % grâce à l’intelligence artificielle à l’horizon 2035. Une autre étude de Venture Scanner estime à un total de 27,4 milliards de dollars le montant des investissements mondiaux à la fin de l’année 2017 en direction de plus de 2000 entreprises l’intelligence artificielle.

Une destruction créatrice… de métiers

Nous faisons face à une révolution industrielle aussi décisive que celles expérimentées à l’émergence de la vapeur, du moteur à explosion, de l’électricité ou des puces électroniques. C’est toute la place de l’homme vis-à-vis de la machine et du vivant qu’il convient de réinventer. C’est également le moment de s’interroger sur le mouvement schumpétérien de destruction créatrice qui nous guidera à l’avenirDe nouveaux métiers vont se créer pour programmer, éduquer et gérer l’intelligence artificielle, et ce à mesure que d’autres, essentiellement sur des actions à faible valeur ajoutée, vont disparaitre. 

Ces nouveaux métiers, dont on commence, sur des projets bien réels, à devoir définir les contours, seront multiples, à l’image des emplois créés dans le mobile – depuis le développeur Android jusqu’au « revenue manager » d’une plateforme publicitaire. Concentrons-nous ici sur trois fonctionsessentielles :

1. Le psydesigner

L’intelligence artificielle, par sa nature et sa fonction, appelle de nouvelles compétences. La psychologie trouve précisément son sujet d’étude dans ce qu’un individu ou un groupe comprend d’intelligence (l’apprentissage, la mémoire, la perception, le comportement…). C’est donc sans doute sur ce socle de compétences que se construiront les personnalités des nouvelles incarnations de l’intelligence artificielle.

Aujourd’hui, Alexa (Amazon), Cortana (Microsoft) et Siri (Apple) ont une forme de personnalité construite et perçue à travers le service rendu, un certain champ lexical et un « form factor » (ou facteur de forme, un aspect du design qui définit et prescrit la taille, la forme et d’autres spécifications physiques des composants, en particulier dans l’électronique, NDLR). Ces intelligences seront amenées à se complexifier et à se segmenter, tout comme les applications mobiles se sont enrichies et fluidifiées pour délivrer, non plus un service, mais une expérience. En outre, ces assistants personnels partageront notre quotidien, voire notre intimité. Il est donc essentiel qu’ils incarnent des valeurs et des traits de personnalités compatibles avec les nôtres, jusqu’à devenir uniques.

Le psychologue deviendra le « psydesigner », comme l’ergonome est devenu « user experience designer » et « user interface designer ». A la fois artisan et technicien, il construira une charpente d’incarnation de l’intelligence artificielle, comme un « nez » construit un parfum.

2. L’egoteller

L’expérience induite par ces nouvelles interfaces se matérialisera par le biais d’une incarnation dont le comportement, le champ lexical, la prosodie et la relation créée provoquera des émotions. Comme dans la « vraie » vie, nous aurons plus d’atomes crochus avec certaines personnalités qu‘avec d’autres, en fonction de ce qu’elles dégageront, de ce que nous comprendrons d’elles. L’egoteller sera le scénariste des personnalités façonnées par le psychologue. Il y ajoutera unetouche artistique, modèlera l’entité technique construite par le psydesigner, définissant des traits de personnalité en plein et en creux, dans une instantanéité ou sur la durée en fonction des objectifs des marques, comme un metteur en scène donne vie à un scénario.

Il s’agit donc d’une démarche en binôme avec le psychologue comme, aujourd’hui, un jeu mobile est construit par un « producteur » (garant d’un délivrable technique) et un « monetization manager » (garant d’une maximisation des revenus).

3. L’éthicien

L’intelligence artificielle, devenue auto-apprenante, c’est-à-dire libérée d’un « cordon ombilical » numérique, cristallise un certain nombre de fantasmes, de peurs et d’espoirs. En tout état de cause, elle soulève un certain nombre de questions fondamentales tant c’est finalement la place de l’homme qu’il convient de recomprendre et de repenser.

Les grands éditeurs de logiciels construisent déjà leurs plateformes en fonction de ce que leur compréhension de l’éthique commande (lire aussi l’article : « Lutter contre la discrimination sur les plateformes »)Cette notion d’éthique est plurifactorielle (financière, culturelle ou politique) et à géométrie variable. Le département des éthiciens, nouvellement créé et parfois très étroitement associé à l’exécutif, définira, sinon les lois, du moins les règles algorithmiques qui soutiendront les « totems » et les « tabous » de son intelligence artificielle.

Rien ne sert de croquer la première pépite technologique venue. Une stratégie efficace d’acquisition centrée sur l’innovation doit tenir compte des métiers, de la culture d’entreprise et des équipes internalisées pour concrétiser ses promesses de croissance.

L’accès à l’innovation est le principal moteur des fusions-acquisitions à l’échelle mondiale. Il est à l’origine de plus de la moitié d’entre elles, loin devant l’accès à de nouveaux marchés ou canaux de distribution, l’expansion géographique ou les stratégies défensives. C’est bien ce que démontre une étude réalisée par Deloitte selon laquelle 291 milliards de dollars ont été dépensés en 2016 dans le monde par les entreprises dans le cadre de fusions-acquisitions recouvrant M&A (Mergers & Acquisitions) et corporate venture capital, contre 72 milliards en 2012.

L’évolution constatée entre 2012 et 2016 s’explique principalement par l’existence d’une vague remarquable d’innovations technologiques au cours de la période ainsi que par un contexte macroéconomique favorable, ayant conduit à une augmentation des valorisations sous-jacentes à ces transactions. La période est également caractérisée par l’émergence de fonds de corporate venture capital (CVC), dont le nombre a presque doublé en dix ans aux Etats-Unis, selon Deloitte.

En France, la dynamique du corporate venture est bien là : Safran, Air Liquide, Engie, Axa et Orange ont créé ces dernières années leurs propres fonds dotés de plus de 100 millions d’euros chacun. Cette approche, complémentaire du M&A, permet aux grands groupes de cibler des opportunités d’investissement, qui sont de taille souvent limitée, mais porteuses d’innovation et propices aux expérimentations. Mais il ne suffit pas d’acquérir une cible disruptive pour devenir une entreprise innovante.

Les enjeux stratégiques de l’acquisition
Pour que ces opérations d’acquisition se transforment en succès, il faut donc que l’innovation, qui en est la motivation stratégique principale (« strategic rationale »), soit préservée, développée et diffusée après l’intégration, de façon à permettre à la société acquéreuse de délivrer le retour sur investissement et les synergies attendues par ses actionnaires (lire aussi l’article : « Fusions-acquisitions : la seule chose que vous devez savoir »). De prime abord, cela ne paraît ni évident ni systématique tant un projet d’acquisition représente une prise de risque pour l’acquéreur. Pourquoi les entreprises s’engagent-elles alors dans le défi d’une transaction M&A « orientée innovation », pour reprendre les termes de l’étude de Deloitte ? Autrement dit, quel est l’intérêt d’une entreprise à acquérir une cible innovante ? En réalité, plusieurs enjeux stratégiques existent :

– capter une technologie ou une innovation qui ne peut être développée en interne par l’entreprise ;

– accélérer la maîtrise d’une technologie pour palier un retard en matière de R&D, d’industrialisation ou de commercialisation d’une offre vis-à-vis d’un concurrent direct ;

– absorber le concurrent de demain pour se prémunir face à la menace potentielle qu’il représente ;

– développer des synergies résultant d’une convergence sectorielle ou d’évolutions technologiques croisées. Les domaines du big data, de l’Internet des objets (IoT) et de l’intelligence artificielle (IA) ont, par exemple, des applications multi-sectorielles qui sont propices à ce type de stratégies prédatrices.

– communiquer à ses investisseurs sur les marchés financiers qu’un virage technologique a bien été pris, sans préjuger de l’écart possible entre la communication et la réalité.

– internaliser une équipe, un savoir-faire ou une technologie à la suite d’une collaboration ou d’un partenariat fructueux avec une start-up, par exemple.

Il existe probablement d’autres motivations stratégiques, peut-être moins fréquentes. Dans la majorité des cas, l’objectif général recherché au travers du projet d’acquisition d’une cible innovante est bien celui de s’approprier une technologie ou un savoir-faire innovant. Il est intéressant de relever que ces projets de transaction bénéficient en tout cas d’une incontestable validation à la fois stratégique et financière par le marché, au vu du nombre important de transactions réalisées dans ce registre et donc acceptées par les actionnaires des parties concernées.

Le vrai potentiel d’une acquisition se révèle parfois après coup
Cela ne signifie pas pour autant que le plan stratégique d’exploitation de l’innovation soit parfaitement défini ou que le potentiel de la future combinaison des deux entités soit correctement appréhendé en amont de la transaction. Dans certains cas, il faut attendre que la transaction ait eu lieu pour que se révèle la façon dont la technologie ou le service innovant de la cible vont être exploités. Un certain questionnement sur l’intention stratégique enveloppait l’acquisition de LinkedIn par Microsoft pour 26, 2 milliards de dollars en 2016, avant que la dynamique d’intégration ne contribue à clarifier au moins partiellement les services du nouvel ensemble, dont l’ambition affichée est de devenir le leader mondial des services en ligne aux entreprises.

L’enjeu est réel. Comment préserver, développer et diffuser la culture d’innovation d’une entreprise qui vient d’être absorbée par une autre entité ? Face à ce défi, la réalité des chiffres est éloquente dans le secteur technologique : 76% des dirigeants d’entreprises américaines considèrent que les acquisitions centrées sur l’innovation ont satisfait ou dépassé les attentes. Ce score est très élevé, quand la majorité des études considère qu’en moyenne, les opérations de M&A sont des échecs dans 50 à 60% des cas. Cependant, ce succès est à relativiser car il repose sur une déclaration des dirigeants uniquement, et non des autres parties prenantes comme les salariés ou les actionnaires. Ce succès est également fragile, car il doit être reconfirmé durablement à chaque étape de l’intégration.

Préparer l’intégration pour mieux la réussir
La préparation de l’intégration et l’intégration en elle-même sont un défi important pour l’entreprise acquéreuse. L’implication des responsables opérationnels, en tant que « deal sponsors » très tôt dans le processus M&A, fait ainsi figure de bonne pratique. Cela peut permettre de sécuriser ou de valider la motivation stratégique avec des professionnels du métier et des experts technologiques, un point critique quand l’innovation est au centre d’une transaction.

De même, le fait d’accorder une véritable place à la dimension culturelle (souvent sous-estimée en pratique) peut s’avérer décisif pour le succès des transactions orientées innovation : bien identifier les différences culturelles entre la cible et l’acquéreur dès la phase de « due diligence » permettra d’articuler l’intégration opérationnelle des équipes sans détruire la culture entrepreneuriale de la société acquise.

La rétention des équipes et de leurs compétences sur le long terme une fois la transaction réalisée revêt une importance particulière. C’est d’autant plus délicat que la différence de taille entre la cible et son acquéreur est significative. Le départ non anticipé des équipes viderait la cible de sa substance et reviendrait pour l’acquéreur à disposer d’un actif de moindre valeur, donc à avoir finalement surpayé une coquille désormais quasi vide. La mise en place de parcours d’intégration, de mécanismes de rémunération incitatifs et d’un suivi régulier « post-closing » peuvent alors contribuer à maintenir en place les individus ayant un savoir-faire innovant pendant une certaine période.

Générer de la croissance à partir de l’innovation
Le secteur bancaire est riche en exemples d’opérations M&A centrées sur l’innovation. L’émergence d’entreprises des FinTech a conduit à une disruption des modèles économiques traditionnels du secteur, souvent à partir de technologies innovantes, telles que la blockchain ou les « data analytics » (lire aussi la chronique : « Open innovation, co-création : pourquoi la blockchain est une petite révolution »). L’innovation dans le secteur bancaire provient ainsi d’une forme de décloisonnement, voire de convergence multi-sectorielle grâce à de nouvelles passerelles avec les secteurs des télécoms ou de l’informatique.

C’est dans ce contexte que Samsung Electronics (filiale de Samsung, NDLR), le spécialiste coréen de l’électronique grand public, a acheté en 2015 la société LoopPay, pionnier des paiements sans contact et mobiles. En procédant à cette acquisition, Samsung a affirmé son ambition de développer un nouveau service nommé SamsungPay, concurrent direct de ApplePay.

Cette stratégie d’investissement traduit une volonté de se diversifier et de franchir les frontières sectorielles traditionnelles pour concrétiser de nouveaux relais de croissance. Générer de la croissance d’activité supplémentaire grâce à l’innovation d’une société cible est un défi majeur, qui concerne de nombreux secteurs au-delà de la banque-assurance. La croissance additionnelle provient alors de la réalisation de synergies de chiffre d’affaires, la plupart du temps dans de nouvelles lignes d’activité. La mise en œuvre de ces synergies est complexe : elle nécessite de disposer d’une vision à moyen terme du marché et des nouveaux besoins des clients pour pouvoir y apporter une réponse adaptée.

Dans la pratique, un certain nombre de chantiers et de mesures tels que la définition de nouvelles offres commerciales, un développement commercial croisé, un partage des portefeuilles clients ou encore une communication maîtrisée auprès des tiers sont nécessaires pour que la société acquéreuse et la cible puissent espérer croître ensemble. Après tout, que vaut réellement une acquisition si elle ne crée pas de croissance ?

Repenser le rôle des départements M&A
Les stratégies de croissance externe centrées sur l’innovation invitent à mettre en perspective le rôle des départements M&A des groupes acquéreurs, et dans une certaine mesure des fonds de corporate ventures. Leurs métiers font en effet l’objet d’une mutation profonde du fait de la place désormais incontournable occupée par l’innovation dans les investissements réalisés. En effet, les équipes M&A et CVC ont un rôle essentiel à jouer pour :

1. démontrer que le recours à une stratégie de croissance externe n’est pas un palliatif stratégique révélateur d’une incapacité de l’entreprise à innover ;

2. valider les stratégies d’acquisition opportunistes comme des stratégies pleinement légitimes, dès lors que l’environnement de marché est incertain et requiert une capacité de l’entreprise à prendre rapidement position sur des nouveaux marchés ou dans de nouvelles technologies ;

3. valoriser financièrement l’innovation, en particulier lorsqu’elle concerne des technologies ou marchés émergents qui n’ont pas encore été parfaitement détourés, dimensionnés et évalués ;

4. dessiner la convergence entre différents secteurs présentant des synergies technologiques.