L’émergence des technologies cognitives interroge la notion même d’intelligence.

L’intelligence artificielle (IA) fait partie de ces concepts mobilisateurs dont la fonction, purement commerciale, est de répondre par un rêve à un désir ou à une peur. Peur ou désir, cela revient au même, car l’un et l’autre sont un discours sur un manque. Comme disait Jacques Lacan : « Le désir naît du manque et pas l’inverse. » Ce manque, nous l’avons tous en commun : c’est le sentiment de ne pas être assez puissant et de ne pas pouvoir contrôler notre environnement. Et c’est ce manque qui nous fait nous précipiter sur le premier rêve qui passe comme un papillon sur une lampe.

On ne peut en effet qu’être fasciné quand on assiste aux prouesses de systèmes comme Deep Blue ou Watson, capables de battre les meilleurs aux échecs ou au jeu de Go. Il y a dans ces performances une part importante de mise en scène qui a comme fonction de faire rêver. L’intelligence artificielle suscite un désir de puissance tout autant qu’une peur de sa propre puissance, tel que l’illustre le mythe du golem. Pour mémoire, ce mythe raconte comment un homme a réussi à donner vie à une statue d’argile et comment sa création, dépourvue de conscience, lui a échappé et a commencé à détruire le monde.

Intelligence et puissance cognitive

L’émergence du concept d’intelligence artificielle a ceci de positif qu’il nous oblige à réfléchir a ce qu’on met derrière le mot intelligence. Si l’intelligence est réduite à la puissance cognitive, alors on peut effectivement affirmer qu’il peut exister une intelligence artificielle. Dans ce cas, on peut parler – plus modestement et moins commercialement – d’un système de gestion automatisée des flux d’information (GAFI).

Mais l’intelligence humaine ne se limite pas à la puissance cognitive. L’intelligence est aussi une capacité à s’adapter en apprenant (lire aussi l’article : « Apprendre à apprendre »), c’est-à-dire être capable de modifier ses processus de gestion de l’information pour modifier les prises de décision. Là encore, la machine a conquis un espace jusque-là réservé à l’homme avec le « deep learning », un système capable de modifier ses propres processus d’une manière autonome. Mais il y a toujours quelque part un homme caché derrière la machine (lire aussi l’article : « Comment les machines apprennent (et pourquoi vous y gagnez) »). Même si le public est hypnotisé, il y a toujours, comme dans le « Turc mécanique » (un prétendu automate du XVIIIe siècle, doté de la faculté de jouer aux échecs, dans lequel était en réalité caché un joueur humain, NDLR), une intention humaine qui ne se montre pas.

Si la machine paraît autonome, elle ne s’autodétermine pas pour autant : l’autonomie de la machine est, quoi qu’il arrive, déterminée par la volonté d’un être humain. Autrement dit, le processus ne peut exister sans qu’un être humain ne le mette en marche par son intention. Une intention qui est déterminée par une certaine conscience de soi dans un environnement précis et par l’imagination d’une solution pour modifier la relation que l’individu entretient avec son environnement. C’est en partie ce qui fait la différence entre la machine et l’homme : si la machine sait gérer des flux d’information et modifier ses propres processus, elle dépend largement de l’être humain dans sa capacité réflexive et dans sa capacité à imaginer quelque chose, à le rendre cohérent avec le réel par confrontation à ce réel et par le biais d’ajustements successif. C’est sans doute cela qui caractérise l’intelligence humaine : la capacité à imaginer un réel et à produire les ajustements nécessaires à sa réalisation (lire aussi la chronique : « L’homme et l’intelligence artificielle : rivalité ou romance ? »).

Intelligence et biais

En outre, la notion d’intelligence artificielle sous-entend une forme d’objectivité rationnelle qu’il est nécessaire d’interroger. Par exemple, les systèmes de reconnaissance faciale sont très performants pour reconnaître les hommes blancs mais beaucoup moins pour reconnaître les femmes noires. La raison est simple : la programmation de la machine se fait en lui faisant avaler une quantité astronomique de données (des milliers de photos) et en laissant le système de deep learning généraliser des caractéristiques et produire des catégories. La façon dont on nourrit la machine influence donc ses modes de généralisation et de catégorisation. Si on ne lui montre que des hommes blancs, elle caractérisera à partir de ce qu’elle a appris. Aussi le fonctionnement de la gestion automatisée des flux d’information sera-t-il largement déterminé par l’intention (consciente ou non) de celui qui programmera la machine (lire aussi l’article : « Lutter contre la discrimination sur les plateformes »). L’objectivité n’est qu’illusion dès que l’humain introduit un biais.

A l’instar des machines de l’ère industrielle qui démultipliaient la force physique des hommes en l’augmentant par l’insertion d’un appareillage entre l’intention de l’homme et le réel, l’intelligence artificielle augmente la force intellectuelle et en démultiplie la puissance par l’insertion d’un appareillage entre l’intention de l’homme et le réel. Mais, de même que la machine en ce qui concerne la force physique, cela n’exclut pas les biais et les mésusages : cela ne fait qu’augmenter la force destructrice quand l’intention est destructrice. En outre, « augmenter » ne remplace pas. En ce sens, l’intelligence artificielle ne remplace pas l’intelligence humaine comme une prothèse remplace un membre. Elle tente de l’appareiller pour en augmenter la puissance ou pallier ses faiblesses, comme une orthèse.

Certes, une machine capable de gérer des milliards d’information représente un rêve de puissance. Mais réduire l’intelligence à notre capacité de gérer de l’information conduit à une conception mécaniste de l’intelligence. La puissance cognitive n’est un critère d’intelligence que dans les sociétés fascinée par le mental comme la notre. La puissance cognitive est au service de l’intelligence, mais elle n’est pas l’intelligence. Contrairement aux apparences, on ne pense pas avec sa tête (sa cognition). La cognition est un outil de formalisation qui sert à témoigner des résultats de la pratique de son intelligence d’une manière socialement communicable. Notre conception « mentale » de l’intelligence peut alors être vue comme une forme de perversion. Le moyen devient le but, l’instrument qu’est le mental n’est plus au service d’une intention, il porte la charge de l’intention : il prend le pouvoir. C’est ce qu’on observe dans l’usage des nouveaux outils comme les smartphones chez les plus immatures : le but devient l’outil, il n’y a plus d’autre but que d’utiliser l’outil.

Intelligence et conscience

Etre intelligent, c’est peut-être aussi « être en intelligence » avec son environnement humain et non humain. Mais c’est aussi être en intelligence avec soi-même. Avoir une conscience de soi et des autres telle qu’on est capable de percevoir les effets que l’on a sur les personnes et notre relation au monde avant que les conséquences nous reviennent en retour. Au-delà de la puissance cognitive qui peut en être l’instrument, l’intelligence est bien la capacité à être dans une interaction responsable avec soi-même et son environnement.

On peut être fasciné par le spectacle de ces robots humanoïdes capable d’interagir avec les humains en répondant à leur question. Ce qui est fascinant, c’est que nous avons l’impression qu’il répondent comme s’ils savaient que nous existions en tant qu’humain ; ce qui suppose qu’ils ont conscience qu’eux même existent. Mais le robot sait-il qu’il existe ?

Ce qui caractérise l’intelligence humaine, c’est la conscience que chacun d’entre nous a de sa propre existence, la capacité de chacun d’entre nous a être attentif aux autres, au monde et à lui-même. C’est cette attention qui va déterminer l’intelligence. Etre attentif, c’est faire le choix conscient de considérer tous les éléments de l’environnement, au-delà de ce que la situation me laisse voir, pour prendre une décision. Or on se souvient que le GAFI de Facebook a censuré le tableau de Courbet, « L’Origine du monde », ainsi que la photographie d’une fillette nue brûlée au napalm pendant la guerre du Vietnam. Cette censure est liée au fait que le GAFI répond à une règle antipédopornographie et supprime ce qu’il reconnaît comme y ressemblant. En ce sens, il n’est pas capable d’être attentif au contexte, de considérer l’environnement, l’intention du message et le projet du messager. Pour ce faire, il faudrait qu’il soit capable d’un regard critique sur sa perception, ce qui supposerait une conscience qu’il est un sujet regardant dont la perception pourrait être critiquée.

La question que nous pourrions poser à l’intelligence artificielle, si on la rencontre un jour dans la rue, pourrait être : « Comment sais-tu que tu existes ? » Tant que celle-ci ne pourra y répondre (sans avoir été programmée pour cela), nous pourrons nous demander s’il est vraiment question d’intelligence.

Même si l’offre et le contenu sont les mêmes, les consommateurs accordent plus de valeur aux produits physiques que numériques. Ce qui fait la différence : le sentiment de propriété.

Chaque jour, nous interagissons avec deux types de produits. Le premier est acquis et partagé instantanément, il est impalpable, résiste aux dégradations, il est facile à personnaliser et impossible à perdre. Même un enfant peut en porter des milliers à lui tout seul. Le deuxième nécessite qu’on se déplace pour l’acheter ou le partager, il est difficile à modifier, encombrant, on l’égare aisément et il peut être endommagé de plusieurs façons. Seuls quelques exemplaires de ce type de bien peuvent être rangés dans un seul sac. Malgré les nombreux avantages du premier type de biens – les produits numériques -, les entreprises constatent de façon répétée que les individus apprécient et sont prêts à payer beaucoup plus cher pour leurs équivalents physiques. Notre recherche vise à expliquer les raisons de ce comportement déroutant. La vie moderne a été transformée par la numérisation généralisée de nombreux biens de consommation, qu’il s’agisse de livres, de magazines, de journaux, de musiques, de films, de billets d’avion ou de calculatrices. Les photographies numériques, commercialisées pour la première fois en 1990, sont maintenant prises plus souvent que les tirages sur papier. Pourtant, malgré les nombreux avantages des biens numériques, leurs alternatives physiques semblent garder une plus grande force d’attraction. Les livres imprimés sont toujours le format prédominant, les ventes de Blu-ray et de DVD continuent de croître, tout comme la demande des tirages sur papier des photographies numériques que les gens possèdent déjà.
Nous avons commencé à explorer ce paradoxe par une belle journée d’été à Boston, en offrant aux touristes sur le Freedom Trail (« chemin de la Liberté ») une photo souvenir avec un acteur costumé en Paul Revere. Nous n’avons pas fait payer pour la photo, mais nous avons demandé à chaque touriste de faire, en échange, un don à l’association historique qui assure l’entretien d’Old North Church. Les participants ont été répartis à leur insu et de façon aléatoire entre deux groupes. Le premier a reçu une photo numérique instantanée immédiatement par e-mail, tandis que l’autre a reçu une image Polaroid encore en cours de développement. Alors que les touristes du premier groupe ont choisi de donner en moyenne 2,29 dollars, ceux du deuxième groupe ont, de façon surprenante, donné 3,39 dollars, soit 48 % de plus pour le Polaroid qu’ils pouvaient tenir entre leurs mains.

Les biens numériques ne favorisent pas l’appropriation

Notre recherche nous permet de constater que ces touristes ne sont pas des cas isolés. Malgré les nombreux avantages des biens numériques, la valeur attribuée à leurs équivalents physiques est plus importante. Lorsqu’un bien physique tel qu’un livre ou une photographie imprimé(e) ou encore un DVD est numérisé, il perd une partie de sa valeur aux yeux des acheteurs. Les expériences que nous avons menées suggèrent que le facteur clé de cette dépréciation n’est pas la valeur de revente du bien, ni combien il coûte, ni combien de temps il peut être utilisé, ou s’il est unique ou très répandu. Nous constatons que la principale différence réside dans le fait que les biens numériques ne favorisent pas le même sentiment de propriété que les biens physiques.

La caractéristique intrinsèque et unique des biens numériques, c’est-à-dire leur immatérialité, est aussi ce qui nuit à notre propension à nous les approprier. Comme nous ne pouvons pas les toucher, les posséder et les contrôler de la même manière que nous interagissons avec les biens physiques, notre instinct de propriété vis-à-vis des biens numériques est altéré. On n’a jamais vraiment l’impression de les posséder, et quand nous sentons que nous sommes propriétaires de quelque chose, nous en gonflons psychologiquement la valeur. Par conséquent, nous n’accordons pas aux produits numériques ce supplément de valeur que nous reconnaissons aux biens qui font partie de notre patrimoine.

L’Empire contre-attaque

Dans le cadre des expériences complémentaires que nous avons menées auprès de cobayes en ligne et d’étudiants en commerce, nous avons constaté que la tendance à moins valoriser les biens numériques par rapport aux biens physiques s’étend à une variété de produits, des films populaires aux romans en passant par les manuels scolaires. Nous avons observé le même effet, que nous mesurions la valeur en permettant aux participants de payer ce qu’ils voulaient pour les biens, en leur demandant de déclarer le maximum qu’ils étaient prêts à payer ou en mesurant la probabilité qu’ils achètent la version numérique ou physique d’un bien, quand les deux sont vendus au même prix. Une plus grande valeur a continué d’être attribuée aux biens physiques par rapport aux biens numériques, même lorsqu’on donnait aux individus des éléments sur les coûts de production estimés et les prix de vente au détail. La tendance s’est maintenue même dans le cas de marchandises n’ayant aucune valeur de revente. Des explications alternatives plausibles, comme le fait que les biens physiques durent plus longtemps ou sont plus agréables à utiliser que des biens numériques, ont également échoué à expliquer cette différence.

Seule une différence d’intensité du sentiment de propriété vis-à-vis des biens numériques et des biens physiques explique cette préférence pour le format physique. En effet, l’écart de valeur s’est amenuisé pour les biens que les participants louaient et avaient prévu de rendre. Les étudiants n’étaient pas disposés à payer un manuel sur papier, qu’ils redonneraient à la fin d’un cours, plus cher que sa version digitale.
Cette variation du sentiment de propriété nous permet également de savoir quand les gens attribueront autant de valeur aux biens numériques qu’aux biens physiques. Etant donné que la propriété implique un lien entre une personne et un objet, nous avons constaté que l’écart de valeur se creusait lorsque ce lien s’établissait facilement et qu’il disparaissait quand ce lien se formait avec difficulté. Les participants ont, par exemple, accordé à l’exemplaire physique de L’Empire contre-attaque une valeur supérieure à celle qu’ils ont attribuée à sa version numérique, seulement s’ils considéraient que la série Star Wars était une œuvre cinématographique avec laquelle ils s’identifiaient fortement. Les participants qui n’étaient pas des fans de Star Wars ont apprécié les copies physiques et numériques de la même façon.

Question de besoin de contrôle sur l’environnement

Nous pensons que la différence de sentiment de propriété que les gens ont vis-à-vis des biens numériques et des biens physiques peut être liée à l’impression qu’ils ont d’avoir un contrôle plus diffus sur les objets numériques. Les gens se sentent propriétaires d’un bien, dans la mesure où ils peuvent le toucher et le contrôler. Nous avons en effet constaté que les personnes qui n’ont que faiblement besoin de maîtriser leur environnement ne montraient aucune préférence pour les biens physiques par rapport aux biens numériques, alors que les personnes qui, au contraire, ont un fort besoin de contrôle déclaraient qu’ils préféraient nettement les biens physiques à leur version digitale. Les participants à l’une de nos expériences nous ont même expliqué combien ils seraient prêts à payer pour acquérir un livre de leur auteur favori, à quel point ils avaient hâte d’en devenir propriétaires et leur besoin de possession – ce qui donne une idée du degré de contrôle qu’une personne veut avoir sur son environnement. Nous avons constaté que les participants éprouvant un plus grand besoin de contrôle ont tendance à penser avoir un sentiment de propriété psychologique plus étendu sur des exemplaires physiques que numériques d’un livre, ce qui les amène naturellement à accorder plus de valeur au livre papier plutôt qu’à sa version numérique, y compris lorsque les estimations du prix de vente et des coûts de production ont été incluses dans le modèle statistique. Alors que le sentiment de propriété et l’évaluation des ouvrages physiques et numériques ne varient pas autant dans le cas des participants ayant moins un besoin de contrôle sur leur environnement.

Nos résultats permettent d’identifier la source de dépréciation due à la numérisation, et comment les biens peuvent être conçus pour récupérer cette valeur perdue. Les produits numériques peuvent être faits pour ressembler visuellement à leurs homologues physiques – en utilisant le skeuomorphisme – comme Apple qui offre la possibilité, dans son application iBooks, de présenter ses livres numériques sur une étagère en bois virtuelle.

La valeur d’un vol

Le sentiment de propriété peut être obtenu en augmentant le sentiment de contrôle des utilisateurs grâce aux interfaces tactiles et aux possibilités de personnalisation qui font des utilisateurs des acteurs de la production ou de la conception du produit. A cet égard, les conclusions auxquelles nous sommes parvenus laissent craindre des risques de friction dans l’adoption de dispositifs autonomes tels que les voitures sans chauffeur. Tout comme les puristes automobiles modernes rejettent les transmissions automatiques, qui sont techniquement supérieures mais leur offrent moins de contrôle que les transmissions manuelles, les gens peuvent accorder une valeur moindre aux voitures sans chauffeur, qui nécessitent peu ou pas d’implication de leur part. Ce manque d’interaction physique est susceptible d’atténuer leur sentiment de contrôle sur ces véhicules autonomes. Par conséquent, ils devraient être moins enclins à développer un sentiment de propriété vis-à-vis de ces machines autonomes, lesquelles ne bénéficieront pas de ce surplus de valeur accordé aux biens vis-à-vis desquels les gens ont développé un sentiment d’appropriation psychologique.

Enfin, nos résultats donnent matière à réfléchir en ce qui concerne la vision qu’ont les gens du vol de biens physiques et numériques. Comme la propriété perçue est altérée pour les biens numériques, ils peuvent ne pas penser que s’ils piratent un bien, ils causent le même dommage à leurs propriétaires que s’ils leur volaient des biens physiques comparables.
La numérisation du contenu nous libère – ainsi que l’environnement – du fardeau de l’accumulation d’objets matériels destinés à nous former et à nous divertir. Malgré le bien-être fortement accru que les biens numériques apportent aux consommateurs, nos préférences ne sont pas uniquement déterminées par l’utilité ou la pertinence de ces innovations. Notre recherche montre comment les nouvelles technologies peuvent ébranler l’architecture de la connaissance, et quels arrangements cognitifs l’esprit peut introduire au passage. 

La technologie blockchain est un puissant levier de développement de l’open innovation.

La blockchain est une technologie de stockage et de transmission d’informations, transparente et sécurisée, fonctionnant sans organe central de contrôle. Par extension, une blockchain (ou chaîne de blocs, NDLR) est une base de données qui contient l’historique de tous les échanges effectués entre ses utilisateurs depuis sa création. Cette base de données est sécurisée et distribuée : elle est partagée par ses différents utilisateurs, sans intermédiaire, ce qui permet à chacun de vérifier la validité de la chaîne .

Si ses premières applications étaient limitées au domaine des fintechs, la blockchain trouve aujourd’hui de nouveaux usages dans de multiples secteurs : énergie, santé, logistique, propriété intellectuelle, etc. S’agissant de capital immatériel, il est un domaine qui semble particulièrement prometteur pour la blockchain, c’est celui de la cocréation et de l’open innovation.

Les limites de la cocréation

Ce domaine connaît en effet des freins qui en limitent actuellement l’efficacité :
– Une certaine réticence à utiliser les outils d’open innovation due au manque de confiance que peuvent ressentir les contributeurs vis-à-vis des plateformes actuelles de cocréation et d’open innovation, notamment en ce qui concerne leurs données personnelles.
– La difficulté à opérer une traçabilité des contributions : ne pas pouvoir affecter une paternité à celles-ci crée inévitablement une frustration, voire une démotivation des participants. Sans compter que si les participants créent de la valeur, il serait équitable qu’ils reçoivent une juste rétribution à hauteur de leurs apports.

Les promesses de la blockchain

Il semble donc nécessaire d’objectiver et d’enregistrer les contributions individuelles à l’ouvrage collectif. Les fonctionnalités au cœur de la technologie blockchain devraient apporter des solutions :
-En supprimant les intermédiaires et les tiers de confiance, une blockchain publique fait de tout individu un point nodal dans l’écosystème socio-économique concerné. Dans ce réseau de pair à pair, chacun peut librement s’exprimer et agir, et tous les contributeurs sont identifiés de façon certaine.
-En traçant les contributions de chacun, la blockchain permet de « rendre à César ce qui est à César ». Cette reconnaissance des mérites individuels est un levier important pour stimuler la participation et l’engagement.
-La transparence de la blockchain favorise les relations de confiance et lève les obstacles et les réticences à l’engagement des membres du réseau. Ce sentiment d’appartenance à une communauté démocratique stimule l’implication des individus, les interactions, les échanges et la volonté d’agir ensemble.

La blockchain compte un certain nombre de mécanismes et d’outils qui devraient s’avérer particulièrement pertinents dans des démarches de cocréation :

La notarisation. La traçabilité découle des propriétés mêmes de la blockchain, réputée immuable et incorruptible. En effet, une fois qu’une information est enregistrée dans la base de données, par consensus, elle y est inscrite de façon indélébile. Ce qui revêt une importance cruciale lorsque l’on traite d’identités, par exemple : contrats, diplômes, idées et faits peuvent être enregistrés de manière permanente. Aussi le MIT a-t-il commencé à émettre les diplômes qu’il délivre sur la blockchain grâce à un outil publié en open-source. Parallèlement, la start-up française BCDiploma propose d’authentifier les diplômes en les stockant directement sur la blockchain. Ce dispositif de notarisation électronique permet ainsi d’avoir accès à l’historique et à la nature de toutes les transactions. Il permet d’en connaître l’émetteur et le récepteur, ainsi que la nature des informations transmises. En transposant cet exemple au domaine de l’open innovation et de la cocréation, la blockchain peut être un puissant levier pour tracer l’origine et le parcours des idées créatives et des contributions des membres individuels d’un collectif, permettant de reconnaître – voire de rémunérer – les apports de chaque cocréateur.

Les « tokens ». Ces jetons sont des actifs numériques qui peuvent être échangés entre membres d’une blockchain, soit dans un but ludique, soit pour matérialiser la valeur des transactions qui y sont réalisées. Les tokens facilitent donc la mise en place d’un dispositif incitatif au sein d’une communauté de cocréateurs dont les apports, une fois évalués, se voient récompensés par des « tokens » dédiés. C’est la théorie du « nudge » de Richard H. Thaler, Prix Nobel d’économie 2017. En créant des conditions propices et en s’appuyant sur des théories crypto-économiques, nous pouvons espérer stimuler l’innovation : en favorisant certains types de recherche, en ouvrant un « financement inversé » où le chercheur serait rémunérer « à la découverte », en introduisant des gratifications pour les innovations provenant de multiples acteurs, etc.

L’évaluation par les pairs. Tout type de transaction peut être enregistré dans la blockchain, y compris des votes. De quoi hiérarchiser et valoriser les contributions individuelles en se basant sur leur évaluation collective (par un large public ou par les experts qui y sont habilités). Nul doute qu’un mécanisme de vote favoriserait l’émulation entre les contributeurs. Il stimulerait l’intelligence collective et l’effervescence créative. On peut imaginer que ce mécanisme puisse s’appliquer partout : sur les réseaux sociaux mais aussi dans les entreprises voire dans certaines sphères sociétales, réinventant ainsi une nouvelle forme de démocratie.

Les « smart contracts ». Ces codes sources informatiques s’auto-exécutent au moment précis où certaines conditions prédéfinies se trouvent réunies. Certains processus de cocréation peuvent ainsi être automatisés, les rendant plus fluides, plus rapides et plus fiables.

Un levier pour stimuler l’open innovation

En matière de cocréation basée sur la blockchain, il est possible d’imaginer plusieurs niveaux d’implication des individus :
-Une simple participation éditoriale sur le modèle de Wikipédia, mais avec une rémunération incitative : dans le cas de la plateforme Steem – le pendant blockchain de Reddit – chaque curateur de contenu se voit reversé une fraction des bénéfices, en fonction du niveau de partage du contenu en question. Dans le même registre, la start-up Wespr est une maison d’édition et une librairie décentralisées permettant de miser sur des écrivains qui se voient reversés des avances liées au volume d’extraits lus par les lecteurs.
– Une contribution ponctuelle à un projet : par exemple, le collectif OuiShare valorise les apports de ses membres à ses projets afin de renforcer le sentiment communautaire et d’augmenter l’implication de chacun.
– Un niveau plus ambitieux de cocréation : par exemple, la société Matryx propose un système de challenges scientifiques avec rétribution des chercheurs selon la qualité de leurs contributions.

La blockchain peut donc être un levier de cocréation à de multiples niveaux et dans de nombreux domaines. Dès lors, rien n’interdit d’envisager qu’elle initie de nouveaux systèmes et de nouveaux comportements.

Une solution aux limites actuelles de l’open innovation et de la cocréation consisterait à proposer à divers acteurs (entreprises, start-up, entrepreneurs et intrapreneurs, chercheurs, inventeurs, etc.) de pouvoir se connecter à une plateforme de confiance d’innovation collaborative. Celle-ci aurait des fonctionnalités classiques (inscription sécurisée, réseau social pour échanger, possibilité de lancer des challenges et de se regrouper pour les résoudre, matching entre offreurs et demandeurs d’innovation, etc.). Surtout, cette plateforme nouvelle génération pourrait être totalement novatrice grâce à la blockchain. Celle-ci apporterait une fonction « nudge », permettant aux divers acteurs de maîtriser leurs données personnelles, de se voir correctement attribuer leurs contributions et, ce faisant, d’être reconnus voire rétribuer de façon juste et équitable.

Les Scientifiques ont souvent la méthodique et classique habitude de devoir déterminer le contraire de ce qu’il viennent de découvrir, cette méthode s’adapte aussi à la prise de décision dans des domaines autres que les Sciences pures, comme le management..

La richesse de la contradiction permet de prendre du recul et de tester la solidité comme les limites de sa pensée.

Toute décision est censée être l’aboutissement d’une réflexion solitaire ou collective, de débats faisant intervenir de nombreux collaborateurs et conseillers, d’études et d’analyses faisant appel à des spécialistes ou à des experts, en général à tous ceux qui ont l’expérience, la compétence, les moyens et les méthodes pour servir une décision efficace. Or les décisions les plus importantes ne présentent, dans l’absolu, aucune garantie, car elles dépendent essentiellement de la compréhension par les décisionnaires des critères qui les influencent, de leurs conséquences à court et à long terme, des réactions internes et externes qu’elles vont susciter et d’une multitude d’éléments périphériques qui échappent à l’analyse de ceux qui proposent, conseillent ou décident.

Il serait fastidieux d’illustrer ce constat en dressant une liste qui se voudrait exhaustive des décisions stratégiques catastrophiques qui ont mis en grande difficulté des sociétés leaders sur leur marché, poussées en quelques années à réorienter ou à cesser leur activité (lire aussi la chronique : « Comment éviter qu’une erreur de décision ne mette en péril l’entreprise »). Mentionnons seulement trois exemples, certes connus, mais éclairants d’un point de vue historique :
– IBM, en sous-estimant l’intérêt du PC à la fin des années 1970, a laissé le marché de la micro-informatique se développer hors de son contrôle. Cette regrettable décision s’est doublée d’une décision plus grave encore, celle de demander à Microsoft de fournir le système d’exploitation de son PC ; ce qui a fait la fortune de Bill Gates et a plongé IBM dans une période de grands troubles (lire aussi l’article : « Les clés pour opérer un virage stratégique selon Virginia « Ginni » Rometty, P-DG d’IBM »).
– Dans les années 1980, Kodak a retardé – pour des raisons commerciales de court terme – son passage à la photographie numérique, technologie que la société avait pourtant mise au point. Une incroyable erreur qui a entraîné la faillite de l’entreprise.
– Nokia a perdu sa position de leader mondial dans la téléphonie mobile en voulant, pour faire face au lancement de l’iPhone d’Apple, en 2007, conserver et adapter son système d’exploitation Symbian au lieu de choisir la réponse immédiate la plus évidente, Android, déjà disponible sur le marché et fort d’un écosystème ouvert.

A chaque fois, il aurait suffi que ces sociétés prennent la décision exactement opposée à celle qu’elles ont prises pour conserver leur leadership et s’ouvrir à une nouvelle croissance sur un marché d’avenir. Et, à chaque fois, l’expérience, les meilleures compétences, les meilleurs ingénieurs et les plus gros moyens financiers se trouvaient du côté de ceux qui ont fait ces mauvais choix.

Conservatisme et myopie

Dans la majorité des cas, le raison est le même : ces décisions ont été prises par conservatisme, par réflexe de prolongation de l’existant, mais surtout à cause de l’aveuglement des leaders qui ont pensé que l’avenir s’inscrirait dans la continuité du passé et qu’en cas d’erreur, les liquidités dont ils disposaient leur permettraient de réagir en procédant aux évolutions et aux adaptations nécessaires, en rachetant des technologies ou des sociétés pouvant leur permettre de se remettre rapidement à niveau. L’histoire de beaucoup de ces grandes entreprises montre qu’elles ne rattrapent jamais vraiment le retard pris lorsque les innovations concurrentes sont des innovations de rupture, et lorsque des investisseurs donnent aux challengers les moyens d’accélérer leur décollage et de creuser l’écart, tant technologique qu’en termes d’image.

Dans son ouvrage « L’effet loyauté », Frederick Reichheld affirme que l’espérance de vie des grandes entreprises est d’une quarantaine d’année, même si certaines survivent à leurs erreurs en réduisant ou en redéfinissant leurs activités. A cause d’une vision à court terme ou par conservatisme, les décisionnaires à la tête des grandes entreprises peuvent rater le tournant technologique ou commercial qui déterminera le leadership d’un secteur d’activité pour les années à venir.

Cette forme de myopie des dirigeants des grands groupes atteint également le management intermédiaire pour des décisions moins importantes qui, cumulées, impactent le développement de ces groupes sur le long terme. Pourquoi, avec autant d’expérience, de compétences, de méthodes et de moyens, beaucoup de ces grandes sociétés prennent, dans certaines circonstances, des décisions exactement opposées à celles qu’il faudrait prendre ? Nous proposons quelques pistes de réflexion, dont certaines ne sont que le pendant négatif des qualités supposées de ces sociétés.

Culture d’entreprise et souplesse neuronale

Une entreprise, et en particulier une entreprise leader, doit à la fois inventer l’avenir et s’adapter aux événements qui influencent ou perturbent son parcours. Ces événements ne peuvent pas être considérés seulement comme des faits externes qui s’imposent à elles, ils sont aussi des réalités indissociables d’une perception construite collectivement à travers une culture d’entreprise qui permet, dans la majorité des cas, d’agir avec cohérence et en synergie, à travers des comportements et des réflexes façonnés au cours du temps.

Cette base consensuelle et cette vision partagée permettent certes de « cimenter » les processus décisionnels de l’entreprise, mais se révèlent aussi être un handicap dans les périodes de mutation ou de crise, lorsque l’entreprise doit trouver, face à des mouvements plus ou moins prévisibles, des réponses adaptées pour garder ses positions et reprendre l’initiative. D’autant que la caractéristique souvent sous-estimée de ces périodes de crise est que celles-ci évoluent lentement en début de phase puis s’accélèrent pour, parfois, aller bien au-delà de tous les scénarios négatifs prévisibles.

Dans ces cas-là, les cultures d’entreprise trop structurantes (lire aussi l’article : « La culture n’explique pas tout »), les processus de décisions trop collectifs et les chaînes hiérarchiques trop formelles poussent à un certain conservatisme qui limite le champ des décisions. Pour réagir, les dirigeants doivent donc retrouver de la souplesse « neuronale » afin de favoriser l’émergence de décisions innovantes. Dans les domaines clés, l’élaboration de scénarios opposés ou la mise en concurrence de groupes travaillant sur un même sujet avec des objectifs différents est un moyen d’ouvrir le champ des décisions possibles.

Leadership, crise et tempo

Dans ces périodes d’incertitude se révèle ou apparaît une catégorie à part, celle des leaders. Ces femmes et ces hommes occupent souvent un poste à la tête de l’entreprise ou se trouvent, en temps de crise, dans des fonctions clés qui leur donnent une position privilégiée. Les véritables leaders s’épanouissent dans le management de crise : ils ont le souci d’anticiper systématiquement les événements et sont plus tournés vers les solutions innovantes et dérangeantes que vers celles qui plaisent au plus grand nombre. Les véritables leaders ne recherchent pas le consensus car, pour eux, penser au-delà des habitudes est un réflexe, et penser exactement le contraire de ce que la majorité envisage une attitude dialectique de départ permettant de faire progresser les débats ou de convaincre.

Mais le rôle du leader ne s’arrête pas là. Son objectif ultime est de faire appliquer la décision prise dans le bon tempo (lire aussi la chronique : « Etre un bon leader, une question de tempo »). Le tempo ne s’invente pas, ne se décide pas. Il ne peut en général être impulsé que par celui qui est à la tête de la société, détenteur d’une autorité et d’une crédibilité fondées sur une réelle intuition du futur, sur l’obsession de maintenir la position de leader, de saisir les nouvelles opportunités et sur la volonté de renforcer les avantages concurrentiels de son entreprise. Le tempo, c’est coller au rythme du futur par anticipation.

Une chose et son contraire

En raison des mécanismes de l’attention sélective, le cerveau humain a des difficultés à traiter simultanément deux pensées. C’est pourquoi penser une chose et son contraire n’est possible que de manière consécutive. Comme l’enseigne la philosophie chinoise ancestrale, la pensée progresse en mobilisant le jeu interactif et successif des idées opposées, en générant des contradictions bien plus riches que l’affirmation d’idées monolithiques. Cela signifie que la contradiction, au cœur des forces de la nature, peut également être un jeu naturel – bien qu’à stimuler – pour notre cerveau.

Toute pensée extérieure contradictoire est en effet un bon moyen de tester la solidité de sa propre pensée et d’en évaluer les limites. Comme au jeu de go, les décideurs doivent agir en faisant des choix dans un environnement en mouvement, dans le cadre de forces contraires, d’actions et de réactions, de risques et d’opportunités qui nécessitent une compréhension de la dynamique créée par la décision.

En période de crise, vérifier systématiquement si les décisions exactement opposées à celles que l’on envisage de prendre ne sont pas meilleures est un réflexe de sagesse qui peut permettre de décider avec plus de recul. Un tel réflexe aurait pu être utile à IBM, Kodak, Nokia et des milliers d’autres…

Quel avenir en matière de cybersécurité ? La question est légitime au vu de l’explosion de la cybercriminalité dans le monde. Dans un contexte où la transformation digitale ne cesse de s’accélérer, trois scénarios peuvent être envisagés. Trois modèles qui oscillent entre attaque et défense.

Deux facteurs majeurs vont déterminer l’évolution de la problématique de la cybersécurité au cours des dix prochaines années : le degré d’accélération de la transformation digitale et l’évolution de l’environnement extérieur au cyberespace (coopération entre Etats, respect de l’Etat de droit, conjoncture économique et sociale, stratégies gouvernementales mises en œuvre, etc.). Trois scénarios peuvent être envisagés, caractérisés chacun par des rapports de force différents entre l’attaque et la défense.

Le Moyen-Age digital, entre Etats faibles et pouvoir des brigands

Dans ce scénario, les progrès technologiques sont faibles. Les efforts d’un point de vue défensif sont dépassés par l’accélération de la menace en matière de cybersécurité. Il y a une faible coopération entre les Etats. Certains d’entre eux sont corrompus ou peuvent même tomber sous la coupe des mafias, à l’image des narco-Etats d’Amérique latine. L’attaque est en position avantageuse par rapport à la défense.

Un tel rapport de forces provoque un effondrement généralisé de la confiance. Le point de rupture n’est pas atteint car les cybercriminels n’ont pas intérêt à provoquer un écroulement du cyberespace, qui signifierait leur propre ruine. Et pour cause, il n’y aurait plus de cibles à attaquer. L’apparition d’une situation de type « Cybermaggedon », caractérisée par la multiplication des cybercatastrophes, a ainsi peu de chance de se produire – sauf situation éventuelle d’escalade entre Etats nations, ce qui appartient à une logique géopolitique propre. Ici, les délinquants restent maîtres du jeu.

Les conséquences économiques sont très lourdes. Les investissements des entreprises en matière de cybersécurité sont élevés et deviennent une priorité absolue. La qualité de mise en œuvre de dispositifs de protection efficaces devient même un des avantages compétitifs les plus critiques pour les entreprises. Dans ce scénario, la coopération entre les entreprises est très faible.

Mais l’impact va bien au-delà de la défense de l’entreprise. Dans le scénario du Moyen-Age digital, il est impossible d’assurer aux clients une parfaite confiance concernant la protection des données et des risques cyberphysiques (impact sur les objets, les personnes, etc.). Or la confiance en matière de protection des données personnelles est actuellement, et de loin, le premier frein à l’utilisation d’Internet. Le développement des smart cities, la diffusion de nouvelles technologies de soins, l’éducation à distance, pour ne citer que quelques exemples, seraient menacés. C’est bien l’accélération de la transformation digitale qui se trouverait finalement remise en cause et, par ricochet, la croissance économique, la création d’emplois et le bien-être des populations.

Responsables et Alliés : quand l’union fait la force

Dans ce scénario, il n’y a pas d’avancées majeures en termes de rupture technologiques mais on constate un essor de la culture de la cybersécurité qui limite les dégâts les plus graves, dans une situation de retour à un renforcement de l’Etat de droit et de la coopération internationale, constituant un facteur exogène important pour la cybersécurité . Les entreprises parviennent à mieux décoder les attaques : objectifs, cibles visées, voire identification précise des attaquants. Il est ainsi possible d’apprécier le niveau de risque et de mesurer l’impact financier de ces assauts. Les sociétés qui ont réussi à mettre au point des solutions défensives peuvent même décider de les commercialiser.

Ce contexte nouveau favorise l’émergence d’un réseau sécurisé de cyberdéfense : il intègre les entreprises mais aussi l’ensemble des acteurs impliqués (entreprises, institutions publiques, centres de recherche universitaires, start-up, groupes de cybersécurité privés, etc.). Le WhiteNet, pendant du DarkNet, se développe et se consolide.

La principale caractéristique de ce scénario est, en effet, l’apparition d’une coopération constante et soutenue entre les Etats afin de lutter contre la cybercriminalité. Cette collaboration porte sur l’échange de données, l’acceptation de standards communs et de bonnes pratiques, etc. Au niveau national, l’évolution du risque cyberphysique est vue comme une menace critique sur la croissance et de nouvelles législations, plus agressives, voient le jour et sont efficacement mises en œuvre.

Le WhiteNet offre un socle pour le développement de nouveaux business model. Pour les entreprises, l’intégration à un réseau de cyberdéfense devient un avantage clé : elles peuvent monétiser leur savoir-faire en matière de lutte contre les cyberattaques. De nouveaux acteurs enrichissent l’écosystème : sociétés de cyberassurances, agences de notation des risques cyber, qui facilitent la monétisation, etc. Dans ce scénario, la cybersécurité génère des cercles vertueux multiples : elle est source de création de valeur.

Le risque de cybercatastrophe est faible en raison de l’existence du WhiteNet et de la coopération internationale. Cependant, la menace ne disparaît pas car il n’y a pas de risque zéro. Si la probabilité d’une cybercatastrophe est très faible, le danger est surtout d’ordre géopolitique, en particulier dans la relation avec les Etats qui ne coopèrent pas pleinement dans le WhiteNet. Le risque demeure conséquent en cas d’affrontements entre Etats nations : certains d’entre eux pourraient recourir aux cyberarmes.

La principale contrainte pour les entreprises réside dans la difficulté à recruter des talents en l’absence de réelles ruptures technologiques, telles que la diffusion large de la programmation en méthode formelle ou des percées sur la Loi de Moore, voire sur le calcul quantique, qui permettraient des ruptures en termes de capacités de calcul. Cependant la diffusion de l’intelligence artificielle devrait permettre à moyen terme de pallier certains problèmes de recrutement pour les tâches à basse ou moyenne valeur ajoutée.

La Révolution Défensive : une nouvelle donne

Dans ce scénario, on assiste à la conjonction de trois éléments favorables :

– L’essor conjoint des technologies de simulation et d’automatisation permet de rompre l’asymétrie d’information traditionnellement en faveur de l’attaque. Le rapport de forces est définitivement modifié au profit de la défense. Résultat, le développement du WhiteNet et des nouveaux business model qui y sont associés se renforce.

– Les progrès enregistrés ont pour effet d’attirer les talents vers le monde de la cybersécurité : la pénurie est résorbée. Cette accélération de la formation du capital humain permet à son tour d’améliorer en permanence les technologies et de garantir la pérennité des dispositifs de protection. Parallèlement, dans les entreprises, la fonction du responsable de la sécurité des systèmes informatiques (RSSI), ou CISO (Chief Information Security Officer), est mieux valorisée.

– Dans ce contexte, on assiste à un changement de doctrine dans la coopération internationale. Un climat de confiance se développe auprès des consommateurs et les Etats préfèrent développer une approche défensive. La sécurité collective augmente. Cette nouvelle attitude contribue, à son tour, à renforcer le nouveau rapport de force favorable à la défense. Le risque géopolitique n’est jamais nul mais il y a, pour la première fois, une influence du système technique clairement en faveur de la défense, ce qui réduit au minimum le risque de conflit.

La capacité de nuisance des groupes cybercriminels est fortement réduite et la rentabilité de leurs activités s’effondre. Par ailleurs, on assiste à une baisse globale du coût de la cybersécurité, qui permet de réallouer la valeur ajoutée à d’autres activités et de favoriser la croissance. Il y a un réel effet de création de valeur.

Dans ce scénario, les entreprises doivent donc demeurer vigilantes et adapter leur stratégie. Le dispositif de protection est externalisé et la cybersécurité devient une « utility », comme l’eau ou l’électricité. La mission du RSSI évolue : il supervise les services externalisés, tout en veillant à ce que la culture de la cybersécurité au sein de l’entreprise soit maintenue et développée. Des exercices fréquents sont organisés, la capacité de défense est régulièrement validée par le biais de « stress tests » systématiques à tous les niveaux (humain, organisation, process, etc.). L’entreprise est en tension permanente. La formation des managers est un autre volet fondamental de cette nouvelle stratégie.

Développer avant tout une société de confiance

Ces différents scénarios mettent en évidence les grands facteurs d’évolution en matière de cybersécurité, qui vont permettre de basculer dans un univers ou un autre. Ils montrent également l’importance des interactions entre de multiples éléments, un phénomène insuffisamment pris en compte dans les analyses.

L’évolution de l’environnement économique et social de la planète sera un élément décisif pour déterminer l’avenir de la cybersécurité. Au cours des dix prochaines années, il y aura toujours le risque d’une nouvelle crise économique qui provoquerait une nouvelle hausse du chômage et une accentuation des inégalités. Ce retournement de l’activité empêcherait une vraie répartition des fruits de la transformation digitale. Ce contexte serait favorable à la montée des extrémismes et à l’utilisation d’Internet comme outil de combat politique. La coopération entre Etats, mais également entre entreprises, s’en trouverait affectée et, par ricochet, le développement d’une société internationale de confiance.

La technologie en elle-même ne sera pas la seule réponse. Elle doit être intégrée à des stratégies plus globales d’approche défensive. Surtout, le changement ne pourra se concrétiser que si, parallèlement, se développe une société de confiance, tant au niveau international que national. Si les consommateurs ont le sentiment qu’une société hyperconnectée ne peut assurer la protection des données, les ruptures technologiques seront un coup d’épée dans l’eau.

Enfin, la coopération internationale n’est pas une panacée en soi. Le piège consisterait à développer une régulation excessive. Le travail en commun des Etats n’a de sens que si celui-ci a pour effet de créer un cadre suffisamment souple et protecteur pour que l’initiative privée puisse se développer dans un contexte sécurisé. Un excès de régulation pourrait, paradoxalement, nuire à la cybersécurité.

Dans tous les cas de figure, la meilleure arme défensive demeure la collaboration entre l’ensemble des acteurs impliqués dans le cadre du WhiteNet. Cet outil est à la fois une arme défensive efficace, une source de création de valeur et un moyen d’attraction des talents. Les entreprises ont un rôle majeur à jouer dans l’émergence de ce WhiteNet et dans l’élaboration d’une réponse à la cybercriminalité.

Comment être persuasif et obtenir ce que vous désirez en six leçons.

Le prix Nobel d’économie a été attribué, en 2017, à Richard Thaler, pour ses travaux en économie comportementale, qui décryptent notamment en quoi des mécanismes psychologiques et sociaux influencent les décisions des consommateurs ou des investisseurs. L’économiste américain de 72 ans s’inscrit ainsi également dans le champ de la psychologie sociale. Dans ce domaine, plus d’un siècle de recherches a abouti à des enseignements intéressants, largement présents dans l’œuvre de Richard Thaler et résumés en 6 principes d’influence par le psychologue américain Robert Cialdini.

1- Donnez ce que vous voulez recevoir

« Nous nous sentons obligés de rendre les services qui nous ont été rendus, explique Robert Cialdini. L’application : donnez ce que vous voulez recevoir. » C’est le principe de réciprocité. Si vous faites un geste envers l’autre, celui-ci sera plus enclin à en faire un autre en retour. Et plus le geste est perçu comme qualitatif, plus le retour est important. Ainsi, avant d’aborder un échange avec un interlocuteur, faites la listes des gestes qualitatifs que vous pourriez faire à son encontre. Et focalisez-vous sur ceux qui pourraient vous permettre d’obtenir un retour qui aille dans le sens de l’influence que vous souhaitez exercer sur lui.

2- Valorisez votre expertise

« Nous attendons des spécialistes qu’ils nous disent quoi faire. L’application : montrez votre expertise, ne supposez pas que votre propos est évident par lui-même. » Dès les années 1960, le psychologue Stanley Milgram avait réalisé une série d’expériences illustrant ce principe d’autorité : les participants n’hésitaient pas à électrocuter (fictivement mais ils l’ignoraient) des complices du chercheur car ils avaient l’aval d’une autorité médicale. En 2009, « Le jeu de la mort », un documentaire diffusé sur France 2, refit la même démonstration. Pour actionner ce levier, identifiez en quoi vous avez un statut d’autorité auprès de vos interlocuteurs, ou à défaut à quelle(s) personne(s) ou élément(s) faisant autorité vous pouvez vous référez.

3- Mettez en évidence les similitudes que vous avez avec les autres

« Plus nous apprécions les gens, plus nous sommes enclins à leur dire oui. L’application : mettez au jour les similitudes réelles avec les autres et délivrez des appréciations authentiques. » Robert Cialdini appelle tout simplement ce principe la « sympathie », et en délivre deux clés : les points communs, qui rapprochent, et les expressions positives, qui instaurent une dynamique d’échanges favorable. Dans cette optique, Jodi Glickman, conférencière et spécialiste de la réussite professionnelle, formule huit conseils faciles à appréhender : facilitez la vie des autres, anticipez les étapes des projets auxquels vous participez, allez à l’essentiel, partagez facilement les informations, engagez le dialogue seulement après avoir demandé à l’autre s’il en a le temps, félicitez facilement, partagez votre temps et votre expertise, assumez collectivement les échecs et reconnaissez individuellement les réussites.

4- Evoquez vos « avantages uniques »

« Plus une ressource est rare, plus nous la désirons. L’application : mettez en avant des avantages uniques et des informations exclusives. » L’or est le symbole même du métal précieux. Pourtant, il en est un autre, encore plus cher, le platine : 31 100 euros le kilo pour le premier contre 35 245 euros le kilogramme pour le second. Qu’est-ce qui explique cet écart ? Leur différence de volume de production : 2 500 tonnes par an pour le premier contre 200 tonnes pour le second. C’est le principe de rareté, valable pour les métaux comme pour la communication interpersonnelle. Ainsi, plus ce que vous proposez apparaît comme spécifique, unique ou exclusif aux yeux de vos interlocuteurs, plus cela vous donne de l’ascendant.

5- Utilisez la puissance de la recommandation par les pairs

« Nous utilisons les actions des autres pour déterminer notre propre comportement. L’application : utilisez la puissance de la recommandation par les pairs à chaque fois que celle-ci est disponible. » En 2009, le Trésor public anglais a mis en œuvre ce principe. Avec son arsenal habituel de relances et de pénalités, ses résultats atteignaient 57% de recouvrement. Grâce à l’ajout de messages précis soulignant que l’immense majorité des contribuables payaient à temps, ce taux est passé à 86 %. Inspirez-vous de cette réussite et utilisez l’exemples des autres pour aller dans le sens de vos messages.

6- Faites prendre des engagements

« Nous voulons que notre conduite soit cohérente avec nos valeurs. L’application : faites prendre des engagements clairs, publics et volontaires. » Robert Cialdini nomme ce principe la « cohérence dans l’engagement ». Nous préférons adopter, au fil du temps, des comportements successifs cohérents les uns avec les autres. Ainsi, pour inciter un interlocuteur à telle ou telle action, rappelez-lui ses actions antérieures de la même veine. Amenez-le également à exprimer des engagements clairs et formels, ce qui l’encouragera à les tenir.

 

Plutôt qu’une simple numérisation de leur offre, les entreprises doivent entamer un processus de transformation globale basé sur l’expérience client, une révision de leurs process internes et leurs collaborateurs.

Dans un monde secoué par la prolifération des nouvelles technologies (intelligence artificielle, Internet des objets, blockchain, réalité virtuelle, cloud…), par les Gafa (Google, Apple, Facebook, Amazon) et leurs cousins les Natu (Netflix, Airbnb, Tesla, Uber), par les start-up et leurs licornes, les entreprises doivent se réinventer et engager une transformation profonde. Beaucoup d’entre elles en ont conscience mais elles sont encore trop nombreuses, soit à se tromper sur le contour et l’ampleur de cette problématique et de ses enjeux, soit à faire un amalgame entre transformation digitale et innovation.

Les entreprises doivent ainsi se méfier d’une transformation digitale restreinte à la seule numérisation de l’offre, en lui préférant une transformation globale. La différence est importante et se fourvoyer dans la formulation de la problématique leur fera manquer le défi du digital et risquer d’être « disrupté ». Il ne faut pas non plus confondre la finalité et les moyens. La transformation digitale ne se réduit pas à développer une application mobile, à produire du contenu sur les réseaux sociaux et à embaucher un chief digital officer (CDO). Pour mener à bien une transformation globale, il est souhaitable de travailler sur trois axes en parallèle.

1. L’expérience client

Sur l’axe de la relation client, le défi principal est l’expérience client. Grâce aux outils numériques, les clients sont de véritables « consom’acteurs ». Ils peuvent s’informer sur les produits, comparer les prix (y compris dans les magasins), partager les bons plans, recommander, critiquer… De leur côté, les entreprises fournissent une multitude d’informations par le biais de leurs sites Web, les réseaux sociaux, leur service client, et plus récemment les chatbots. Cependant, contrairement aux start-up, qui changent la logique d’offre et de service en logique d’expérience client, trop peu d’entreprises savent écouter et nouer un dialogue avec ce dernier.
Dans ce nouveau monde, l’expérience client est un enjeu vital pour les entreprises et elles doivent l’intégrer dans leur organisation. C’est un facteur de différenciation concurrentielle. Les entreprises doivent supprimer les points de friction dans les parcours clients, les rendre simples et fluides. Elles doivent surtout allier le meilleur de l’humain et du digital, sésames d’une expérience réussie, pour se mettre en capacité d’enchanter le client en suscitant des émotions chez lui, levier puissant pour obtenir sa satisfaction et sa fidélité dans la durée (lire aussi la chronique : « Relation client, c’est l’émotion qui compte »).

2. Les process internes

C’est le deuxième axe de la transformation digitale. Le question des process internes n’est pas nouvelle : la numérisation des outils existe depuis longtemps, néanmoins les enjeux sont certainement encore plus importants aujourd’hui et peut-être différents. En mettant le client au cœur de la stratégie de l’entreprise, en revendiquant le souhait de le satisfaire et de répondre à ses attentes quel que soit le canal de communication, les deux défis majeurs que sont l’excellence opérationnelle et l’agilité émergent dans l’entreprise. L’excellence opérationnelle permet en effet de maximiser les performances en matière de productivité, de qualité des produits, de réduction des coûts, et plus généralement d’efficience. Elle est donc un levier puissant de compétitivité pour les entreprises, a fortiori dans un environnement extrêmement concurrentiel.
Par ailleurs, le monde dans lequel évoluent dorénavant les entreprises est caractérisé par l’inconstance des situations, leur imprévisibilité, leur complexité due au nombre croissant d’interactions, et parfois l’ambiguïté de certaines situations. Dans ce monde #Vuca, (volatility, uncertainty, complexity, ambiguity), les stratégies, les priorités et les projets changent vite ; être agile est fondamental pour les entreprises. Adopter les principes du lean start-up mais aussi simplifier son organisation pour la rendre plus efficace face à la complexité est essentiel pour atteindre performance et « time to market ». Les « dinosaures » doivent redevenir des souris capables de faire preuve d’agilité dans ce nouveau monde digital.

3. Les collaborateurs

Pour être en capacité d’évoluer et de réussir dans ce nouveau contexte, l’entreprise devra embarquer l’ensemble de ses collaborateurs, en impulsant une transformation culturelle profonde de son fonctionnement. La démarche doit promouvoir des valeurs et des comportements en adéquation avec les nouveaux défis de l’entreprise.
Il faudra aller au-delà du « cultural washing ». Fournir des tablettes aux salariés, recruter un chief happiness officer (CHO) ou encore passer en open space est loin d’être suffisant. C’est le cœur du réacteur de l’entreprise qu’il faut transformer, grâce à une autonomisation et une responsabilisation des salariés ainsi qu’ un management par la confiance. Il s’agit de basculer d’un état passif et méfiant, souvent généré par de longues années de réorganisations et de fusions-acquisitions successives, à un état de confiance. Sacré défi pour améliorer significativement l’engagement de ses salariés et ainsi sa performance.

L’innovation est un métier

Innovation et transformation digitale sont deux approches différentes. Elles sont distinctes et complémentaires, elles se nourrissent l’une et l’autre. Le digital permet de répondre plus efficacement aux nouveaux besoins, d’accroître le rythme de développement mais pas d’innover. La fonction de CDO a parfois fait disparaître la fonction de directeur de l’innovation au sein des entreprises. C’est une erreur. Là où la transformation digitale permettra à l’entreprise de devenir CIAS (connectée, intelligente, agile, sociale), l’innovation lui permettra de trouver de nouveaux territoires de croissance. La transformation digitale aboutit dans la majorité des cas à une digitalisation de l’existant, lorsque l’innovation vise à élaborer un nouveau produit, process ou service, à aborder un nouveau marché, à imaginer un nouveau modèle d’affaires etc.
Beaucoup trop d’entreprises se méprennent et multiplient les POCs (proof of concept), les hackathons, les meet-up avec des start-up sans avoir défini au préalable une stratégie d’innovation. L’entreprise doit avoir une vision claire de là où elle veut aller, des services qu’elle veut offrir, des innovations qu’elle doit mettre en œuvre pour se rendre incontournable aux yeux de ses clients et élaborer un processus spécifique pour ce métier si fragile. Innovation et transformation digitale sont ainsi complémentaires, elles servent un même objectif : toujours mieux servir et satisfaire les clients de manière rentable. Seule l’innovation lui permettra de créer de nouveaux business models, d’identifier de nouveaux territoires de croissance et d’aller nager dans des Océans bleus.

Inciter les consommateurs à penser aux bonnes expériences stimule les ventes.

La plupart des entreprises recourent aux enquêtes clients pour évaluer le taux de satisfaction, identifier les points à améliorer, ou tout simplement permettre aux clients mécontents de s’épancher. Cette approche se caractérise par un état d’esprit pessimiste, se concentrant sur les problèmes. « Le client cherche toujours ce qui ne va pas, il est conditionné pour cela », explique Sterling Bone, maître de conférences en marketing à la Jon M. Huntsman School of Business de l’université de l’Utah. En effet, la grande majorité des recherches relatives au service client traitent du « redressement du service » – comment réagir quand un client se plaint. Lors d’un cours d’études bibliques, à la fin des années 2000, Sterling Bone s’est mis à réfléchir au pouvoir de la gratitude, et il en est venu à se demander ce qu’il adviendrait si ce sentiment était intégré aux enquêtes de satisfaction. Plutôt que de demander aux clients ce qui s’est mal passé, pourquoi ne pas leur demander ce qui s’est bien passé ?

Depuis, Sterling Bone et ses collègues ont mené des recherches pour approfondir cette idée. Ils ont publié sept études qui, prises dans leur ensemble, montrent que les entreprises ne devraient pas considérer le processus de feed-back client seulement comme une possibilité d’écouter leur clientèle, mais aussi comme une occasion d’influencer subtilement sa perception. Il est apparu, de façon systématique, que solliciter le feed-back des clients en cherchant tout d’abord des compliments (en demandant, par exemple, ce qui s’est bien passé pendant la visite) augmentait le degré de satisfaction déclaré et entraînait une hausse de la probabilité d’un nouvel achat, du montant d’argent dépensé et de la fidélisation. Commencer une enquête par des « questions ouvertes et positives » semble être une façon simple et bon marché d’accroître la satisfaction et la consommation. « Les gens sont plus heureux lorsqu’ils se concentrent sur ce qui est positif, et pourtant les entreprises leur en donnent rarement l’occasion », commente Sterling Bone.

L’une de ces études, menée dans une enseigne américaine, montrait que les clients invités à formuler un compliment au début de l’enquête de satisfaction réalisaient 9% d’achats supplémentaires et dépensaient 8% de plus dans ces magasins durant l’année suivante que les clients répondant à la même enquête sans avoir été invités à formuler un compliment. Une autre étude, conduite dans une entreprise de logiciels B to B, a révélé que les utilisateurs d’un logiciel de démonstration à qui il avait été demandé, en début d’enquête, de décrire les fonctionnalités qu’ils appréciaient tout particulièrement ont dépensé 32% de plus dans les produits de la société en question, durant l’année suivante, que les utilisateurs de la version d’essai à qui cette question n’avait pas été posée. Dans ces deux études, les clients qui avaient été incités à formuler des compliments ont également atteint des scores plus élevés avec les outils traditionnels de mesure de la satisfaction. Et être ainsi invité à donner une opinion positive stimulait l’acte d’achat même chez les clients qui avaient fait état d’expériences médiocres. « Il est possible que les questions ouvertes et positives contribuent à redéfinir les expériences clients qui n’ont pas été extraordinaires », affirment les auteurs.

Les chercheurs donnent plusieurs explications possibles à ces résultats. Les psychologues savent que la mémoire est malléable ; demander aux clients de raconter des expériences positives contribue donc peut-être à renforcer le souvenir de ces expériences et à les rendre plus accessibles à l’avenir, améliorant ainsi, chez ces clients, la perception générale des événements. A moins qu’un autre effet psychologique ne soit aussi à l’œuvre : la dissonance cognitive – c’est-à-dire le malaise ressenti par des personnes ayant des croyances contradictoires – pourrait rendre les clients moins susceptibles d’avoir piètre opinion d’une marque après en avoir loué un des aspects positifs. « Nous faisons l’éloge de ce que nous aimons, et nous aimons ce dont nous faisons l’éloge », analyse Hilary Hendricks, titulaire d’un MBA de l’université Brigham Young et ayant participé aux recherches.

Une telle manipulation pose-t-elle un problème éthique ? Les chercheurs reconnaissent que la question mérite d’être examinée, mais ils apportent plusieurs éléments rassurants. Premièrement, disent-ils, des études antérieures montrent que les clients sont rarement conscients de la manipulation. « Il est donc probable que les clients perçoivent ces sollicitations comme étant sincères, si ce n’est flatteuses », écrivent-ils. Sterling Bone ajoute que le travail de recherche en psychologie sur les effets salutaires de la gratitude suggère qu’être incité à adresser des compliments pourrait stimuler le sentiment de bien-être chez les clients. Les chercheurs font enfin valoir que les entreprises devraient aborder cette technique moins comme un moyen de manipuler la perception que comme une manière d’établir des relations.

Les chercheurs citent plusieurs sociétés qui sollicitent déjà les retours positifs de leurs clients dans le cadre de leur programme Voix du client. Chez Subway, à proximité des caisses, des panneaux affichent : « Que pensez-vous de votre sandwich ? Pile-poil ! Parfait ! Super ! Dites-nous – Nous voulons savoir ! » Un réseau d’hôpitaux confessionnels invite ses patients à répondre à la question : « Quelle bénédiction avez-vous reçue de la part d’un employé de l’hôpital ? » La page contact de JetBlue Airways conduit à un lien où les clients peuvent « partager un compliment ». Lonnie Mayne, le président d’InMoment – une société spécialisée dans l’insight consommateur qui mobilise énormément ce type de recherche – affirme que ceux qui ont adopté cette tactique parlent d’un cercle vertueux d’appréciation mutuelle entre clients et employés. « Les clients ne sont pas les ennemis, assure-t-il. Mais si vous ne sollicitez que leurs critiques, c’est ce que vos employés entendront et ce qu’ils auront en tête lors de leur prochaine interaction avec eux.»

Lonnie Mayne précise aussi que les sociétés peuvent profiter des réponses positives pour améliorer la qualité, en déplaçant l’attention du « champ de mines » (les inévitables réclamations) vers les « mines d’or » (où la marque s’en sort bien). Néanmoins, prévient Kristen DeTienne, professeure à la Marriott School of Management de l’université Brigham Young et coauteure de plusieurs des sept études citées, il faut poursuivre les recherches pour savoir si solliciter un compliment après une expérience désastreuse (une erreur médicale, par exemple) ou une expérience très délicate ou rarement agréable ne risque pas d’être contre-productif et d’exaspérer les clients. « Peut-être n’avons-nous pas envie que l’on nous demande quels aspects d’un service funèbre nous ont “enchantés” », explique-t-elle.

Kristen DeTienne nous avertit aussi que, à trop insister pour obtenir un feed-back positif, on risque de dépasser les bornes. Elle évoque une équipe de Delta Air Lines basée dans l’Ontario, dont les membres distribuaient des prospectus rappelant aux passagers « Nous visons 5 » – demandant en substance une note de 5 sur 5 lors des enquêtes de satisfaction. Ce mécanisme prend une importance particulière dans le contexte des soins de santé, car la perception qu’ont les patients des soins prodigués intervient souvent dans la fixation des financements fédéraux. Les meilleures sociétés, explique Kristen DeTienne, avisent leurs employés que les tentatives d’orientation des réponses des clients sont un motif de licenciement immédiat.

En effet, les auteurs précisent que leur principale crainte au sujet de leurs recherches est que certains managers s’en servent pour gonfler le degré de satisfaction de leurs clients – un indicateur qui aide souvent à fixer le niveau de rémunération au mérite. Dans le cadre de leurs études, solliciter un compliment accroît de 15% les résultats du Net Promoter Score (un indicateur de la satisfaction des clients) et augmente jusqu’à 25% les intentions d’achat. Si certains managers reformulent des enquêtes entières pour mettre l’accent sur les expériences positives, leur entreprise pourrait mal interpréter cette hausse tronquée et la prendre pour une réelle amélioration du service. Les chercheurs recommandent aux sociétés de continuer à proposer leurs enquêtes initiales à un groupe témoin de clients de manière à ce que les tendances véritables ne soient pas occultées.

Enfin, les chercheurs notent que, pour parvenir à une amélioration durable, les bénéfices résultant des sollicitations de compliments doivent être couplés à des fondamentaux solides en matière de service. « Nous ne pensons pas que cela fonctionnera si l’entreprise n’est pas gérée convenablement, précise Kristen De- Tienne. Cette technique seule ne sauvera pas une entreprise en difficulté. »

Ils sont dévoués, increvables et de plus en plus efficaces : les chatbots sont devenus incontournables dans la relation client. Mais avant qu’ils ne maîtrisent les subtilités du langage de marque, il y a encore du chemin…

A l’heure du big data et de l’intelligence artificielle, l’art d’écrire et de parler se doit d’être à la hauteur de la sophistication des données collectées sur l’internaute. C’est ce que nous appelons le « language quality data ». Cet art passe par une modélisation du langage, qui doit refléter la ligne éditoriale de l’entreprise et de la marque. Il se doit de transmettre des valeurs et de désigner votre style, votre façon d’être avec vos clients.

Un enjeu d’autant plus important à l’heure du chatbot (« robot qui discute »), qui ouvre la voie au déploiement de nouveaux champs d’expression. Polyvalent, cet assistant virtuel séduisant et à la mode assume des tâches ciblées, répétitives et parfois fastidieuses mais étonnantes. Le chatbot informe, aiguille, vend, assiste, anime et divertit. Conçu au milieu des années 1960, il revient sur le devant de la scène, notamment via le développement des services de messagerie instantanée et des progrès en matière de machine learning (conception d’un système apprenant) et de « deep learning » – une méthode d’apprentissage automatique grâce à des réseaux de neurones artificiels (lire aussi l’article : « Comment les machines apprennent, et pourquoi vous y gagnez »).
Des agents dotés d’une faculté d’apprentissage

On peut distinguer deux grandes catégories de chatbots. La première correspond aux robots à programmation simple, qui repose sur des questions et des réponses prédéfinies par une base de données. La seconde comprend des programmes avec des algorithmes complexes reliés à l’intelligence artificielle. Capables de changer de sujet de conversation et dotés d’une grande faculté d’apprentissage et d’auto-évaluation, ces chatbots, en majorité accessibles via Facebook Messenger, se nourrissent des dialogues qui ont été tenus et les gardent en mémoire.
Ainsi conçu sur un modèle simple de questions-réponses, le chatbot de BlaBlaCar est spécialisé dans la vente : il vise à faciliter les recherches de trajets en covoiturage. S’il n’a pas de nom, il est en revanche réactif, facile à repérer et remplit très bien son rôle d’aiguilleur. La marque s’est ici concentrée sur l’efficacité : le ton du chatbot est neutre.

Elaboré pour trouver des billets de train aux prix les plus compétitifs, le VBot, agent de voyage virtuel de la SNCF, possède également de nombreuses qualités. Sa présentation est brève mais complète. Il détaille la procédure de chaque requête client et prend une posture d’assistant attentif et proactif : « Je m’occupe de trouver les meilleurs prix pour vos trajets en train ». Créateur d’une conversation naturelle et authentique, le Vbot recherche la connivence et la complicité avec l’internaute en alternant subtilement l’énonciation du « je » et du « vous ». Il emploie un style chaleureux et bienveillant : « Aidez-moi à progresser : vous ai-je surpris, fait rire ou énervé ? On se dit tout. » Il a même l’humilité de vous confier qu’il cherche à s’améliorer.
Beautybot, inventé par Sephora pour conseiller l’internaute dans le choix de ses cadeaux de Noël, tisse une relation encore plus aboutie avec le client. Il jongle entre des phrases courtes, interrogatives et exclamatives. Proactif, il utilise une grande variété de tournures, à la fois servicielles (« Je vais vous aider à… ») et conniventes (« Promis, ça reste entre nous »). Mais sa force principale réside dans sa capacité à offrir un produit correspondant au profil de la personne à qui l’on veut faire plaisir. Aussi bien sur la base d’informations objectives, « Quel âge a-t-elle ? », que subjectives ; « Pouvez-vous m’en dire un peu plus sur son style ? ».

Cette tendance à la personnalisation se confirme y compris dans des secteurs où le conseil nécessite d’être plus pointu. La foire aux vins 2017 a fait émerger plusieurs chatbots, tels que Balthus pour Lidl. Il se présente comme un sommelier virtuel à même de vous aider à choisir le vin que vous recherchez. Familier, Balthus s’exprime avec un ton chaleureux et aiguille le consommateur grâce à des questions sur les prix, le type de vin, les appellations, les mets prévus, ou l’occasion (« se faire plaisir », « épater ses amis »). La langue est naturelle, émaillée d’expressions informelles, d’interjections et d’emoji. Balthus et Beautybot partent des besoins de l’internaute, l’impliquent et le guident dans un parcours personnalisé, nourri par un dialogue adapté et spontané.
Dans l’immédiat, malgré leur inventivité, les chatbots peinent à s’extraire du registre des questions-réponses, structuré par une réflexion binaire. Il en résulte une certaine difficulté face aux aléas et aux questions inattendues. Et au-delà des limites techniques, les marques n’ont pas encore réellement accordé le ton du bot avec la langue exprimée sur leur site ou sur les réseaux sociaux. Et c’est dommage quand on veut à ce point personnaliser la relation. Toutefois, cette nouvelle interface de dialogue et d’expression se perfectionne d’heure en heure et offre de nouvelles formes de modélisation du langage (lire aussi la chronique : « Je flunche puis on se skype : comment les verbes de marques investissent notre langage »).

Des robots capables de rédiger seuls des comptes-rendus

Les logiciels d’intelligence artificielle développés par Yseop, utilisés dans le secteur de l’immobilier de bureau par exemple, vont jusqu’à écrire des comptes-rendus de façon autonome. Ces agents artificiels rédigent, grâce à un système de QCM bien pensé, des rapports qui en tromperaient plus d’un.
L’enjeu majeur de la modélisation du langage et de sa maîtrise par des bots suppose néanmoins, sur le fond, d’agrandir le champs de perception des aléas et, sur la forme, d’apprivoiser des nuances de ton. Les mots possèdent des sens multiples et le langage manie l’implicite. Il combine raison et émotion, et possède une dimension sensible (intonation, timbre ou ton et rythme), pour l’instant étrangère à la langue digitale. Dans son dernier livre, « La chute de l’empire humain », le P-DG de Roland Berger Charles-Edouard Bouée confirme d’ailleurs que « L’informatique intelligente peut s’approcher de la compréhension, mais être capable de pensées créatives nécessitera une capacité d’imagination ».

 

 

 

 

 

 

 

A force de se concentrer sur la technologie, on en oublie que le manager a un rôle clé. Et qu’il doit le garder.

Depuis l’annonce du phénomène « big data » au début des années 2010, promettant d’être la « nouvelle frontière pour l’innovation, la compétition, et la productivité » selon McKinsey, les entreprises ont de plus en plus de mal à garder le cap. Les vagues de révolution technologique se succèdent : cloud, big data, Internet des objets, machine learning et maintenant l’intelligence artificielle ; chacune mettant en péril les business model des entreprises tandis que les règles du jeu de la compétition ne cessent de changer.

Alors que l’intérêt au départ s’était surtout porté sur l’explosion du volume de données désormais à la disposition des entreprises, l’enjeu majeur a rapidement évolué vers la capacité des entreprises à générer de la valeur via l’analyse de ces données. En réponse au défi consistant à trouver les profils sur le marché ayant cette capacité à transformer ces données de plus en plus complexes et variées, un nouveau rôle, le « data scientist », est apparu comme l’un des métiers les plus porteurs du 21ème siècle. Sorte de mouton à cinq pattes à la confluence de l’informatique, des techniques avancées de modélisation et d’une connaissance approfondie du milieu de l’entreprise, tout le monde se l’arrache dans des domaines et secteurs aussi variés que le marketing, la finance, le conseil, la santé et la grande distribution, sans oublier les gouvernements eux-mêmes.

Toutefois, cet engouement pour ces nouveaux profils représente une réelle menace pour les entreprises qui tendent à penser que recruter une équipe de data scientists leur suffira pour « faire de la data » ou faire efficacement du big data . En effet, il y a un fort risque de « myopie organisationnelle » quant à la transformation radicale qu’engendre un fonctionnement en mode data, plaçant les données au cœur de la stratégie et des modèles d’affaire. Il s’agit d’une réelle mutation, d’un changement d’ADN, qui impactent l’intégralité des processus de l’entreprise et qui redéfinit même la manière de travailler, de communiquer et d’interagir. Une entreprise en mode data ou data-driven se voit dotée d’une capacité organisationnelle analytique qui englobe la détection, la génération, le stockage, le traitement et l’analyse des données. L’entreprise se métamorphose en une entreprise analytique ou quantitative.

Des data planners aux data stewards

Ceux qui ont saisi la portée et les implications d’une data-transformation ont commencé à recruter une armée de spécialistes autres que ces fameux data scientists, comme des chief data officers, véritables chefs d’orchestre de la donnée œuvrant au même niveau que les autres dirigeants de l’entreprise. Il existe aussi pléthore de nouveaux métiers dont le périmètre et les compétences associées tendent à varier d’une entreprise à une autre. Les data planners ont souvent la tâche d’interpréter les données consommateurs et de collaborer avec le planning stratégique. De plus en plus de data analysts sont, quant à eux, recrutés avec pour mission d’analyser les données et d’aider à faire évoluer la stratégie de l’entreprise, alors que d’autres les rattachent à la direction des systèmes d’information et les placent responsables de toutes les opérations réalisées sur les bases de données. Se mêlent à tout cela les nouveaux data stewards, qui sont en charge d’organiser et de gérer les données de l’entreprise, et les data miners dont le rôle est plus ou moins à la confluence de tous les autres métiers data.

Il est bien évidemment concevable que cette révolution data engendre l’émergence de nouveaux métiers. Il en a été de même lorsque, il y a de cela environ 50 ans, les ordinateurs ont commencé à envahir les entreprises. De nombreux métiers de l’informatique sont alors apparus. Cependant, au-delà de ces nouveaux rôles, la transformation engendrée par l’avènement de l’informatique a ébranlé le périmètre fonctionnel et les compétences de quasiment l’intégralité des métiers de l’entreprise. La raison est simple, le fait de basculer dans l’ère informatique avait modifié la manière de travailler, de communiquer et d’interagir tout en redéfinissant la stratégie et les business model. Il en est aujourd’hui de même pour la data-révolution.

Plutôt que d’essayer de créer de nouveaux métiers, il est urgent de redéfinir la fonction, les tâches et les compétences de chaque métier. Par exemple, les entreprises sont de plus en plus à la recherche de « data visualizers » aussi appelés « data visualization analysts », capables d’analyser de manière pertinente les données grâce à des techniques d’analyse visuelle. A-t-on vraiment besoin de ces nouveaux métiers ?

Un seul but, aider à la prise de décision

L’entreprise s’engageant sur le chemin du data-driven voit l’ensemble de ces processus se transformer, en particulier ses processus de décision. Les décisions deviennent elles aussi data-driven, c’est-à-dire qu’elles englobent une composante analytique basée sur le traitement de données internes ou externes. Il peut s’agir de données stockées dans des « data lakes » (ou lacs de données, qui sont de plus en plus utilisés par les entreprises pour le stockage de données), ou dans une base de données, qu’elles soient structurées ou non, voire un simple fichier tableur. De la même manière, l’analyse peut être particulièrement complexe, de l’ordre de la data science, en utilisant des techniques telles que le clustering, la classification, la régression logistique ou les forêts d’arbres décisionnels. Mais il peut tout aussi s’agir de techniques d’analyse visuelle ou bien de simples statistiques inférentielles et descriptives. Un processus de décision devient data-driven lorsqu’il incorpore une dimension analytique. Tous ces nouveaux rôles et métiers créés autour de la data semblent avoir pour mission commune d’analyser les données afin d’aider la prise de décision quelle qu’elle soit. Or, il semble que l’acteur principal dans toutes prises de décision soit implicitement omis : le manager.

Qu’ils soient rattachés au niveau opérationnel, middle ou stratégique, les managers ne disparaissent pas au dépend d’une armada de data scientists, de data analysts et autres data miners. A l’heure du data-driven, les managers eux-mêmes deviennent « analytiques ». Ils doivent se muer en des managers-scientifiques. En d’autres termes, ils doivent être capables d’intégrer les données et de les analyser en lien avec les problématiques qu’ils rencontrent et les décisions qui doivent être prises. Pour saisir la réalité qui se cache derrière des données de plus en plus complexes, véloces et volumineuses, les managers n’ont d’autre choix que d’ajouter une couche d’abstraction visuelle à leur prise de décision : la « data visualization » (ou analyse visuelle de données). Mais a-t-on vraiment besoin, pour cela, de recruter des « data visualizers » ou n’est-il pas plus pertinent de former les managers aux techniques d’analyse visuelle ?

Attention à ne pas créer de l’inertie

De la même manière, le fait de basculer dans l’ère de la data à travers le big data, le machine learning, l’Internet des objets ou l’intelligence artificielle, permet à l’entreprise, ainsi qu’aux managers, d’agir en temps réel, voire en mode préventif ou prédictif. Mais vouloir impliquer tous ces spécialistes de la data dans les processus de décisions risque de créer de la lourdeur et de l’inertie, compromettant le bénéfice du temps réel et du prédictif. Les compétences des managers scientifiques doivent se trouver à la confluence des sciences de gestion mais aussi de l’informatique (avec notamment la gestion des données, la programmation…) et des techniques avancées d’analyse et de modélisation statistiques. Se posent alors deux défis fondamentaux pour les entreprises. Il faut dans un premier temps transformer les managers actuels en managers scientifiques. Au-delà de la difficulté de modifier l’état d’esprit et le mode de fonctionnement des managers, l’évolution significative des compétences nécessaires incluant des notions plus techniques ou scientifiques est un problème délicat en matière de gestion des ressources humaines.

La deuxième question qui se pose est où trouver et recruter des managers qui seraient dotés de cette composante analytique ? Ce nouvel ADN semble résider à la croisée des programmes proposés par les écoles de commerce (et des cursus en gestion et management des universités) et de ceux dispensés par les écoles d’ingénieurs. Il est donc important, pour les entreprises, d’engager un dialogue avec ces organes de formation afin de redéfinir les compétences clés de chacun des métiers de l’entreprise. Par ailleurs, si les écoles de commerce, les universités et les écoles d’ingénieurs continuent de fonctionner en silo, le système éducatif ne sera pas en mesure de répondre de manière efficace aux demandes urgentes du marché. Il est même peut-être pertinent de repenser l’organisation du système éducatif actuel, ainsi que le rôle de ses différents acteurs. Si les managers deviennent des managers scientifiques, si tous les métiers de l’entreprises incorporent de plus en plus une composante analytique, et si de nouveaux métiers data apparaissent, il n’est pas du tout sûr que le fonctionnement actuel soit le plus approprié. C’est parce qu’elle a un impact à divers niveaux, et pas seulement dans la sphère des entreprises, que cette transformation data s’apparente à une vraie révolution sociétale.