Même si l’intelligence artificielle voit ses capacités croître à une vitesse considérable, l’humain doit rester le maître du jeu.

Peter Drucker a, un jour, qualifié les ordinateurs de « crétins ». Un compliment, en réalité, puisqu’au sens strict du terme ils ne méritent même pas cette épithète étant donné qu’ils n’ont ni conscience ni personnalité. En réalité, ce qu’il voulait dire, c’est qu’une machine ne peut qu’effectuer de façon aveugle et donc « stupide » les tâches pour lesquelles elle a été programmée. Cependant, les développements les plus récentes dans le domaine de l’intelligence artificielle (IA) remettent en cause cette remarque dédaigneuse : alors qu’ils sont de plus en plus puissants, complexes et connectés, les ordinateurs peuvent-ils toujours être considérés comme des idiots ? Ne finiront-ils pas plutôt par devenir plus performants et même par dominer leurs inventeurs, ainsi que le prédit le futurologue Ray Kurzweil ?

L’émergence des technologies cognitives interroge la notion même d’intelligence.

L’intelligence artificielle (IA) fait partie de ces concepts mobilisateurs dont la fonction, purement commerciale, est de répondre par un rêve à un désir ou à une peur. Peur ou désir, cela revient au même, car l’un et l’autre sont un discours sur un manque. Comme disait Jacques Lacan : « Le désir naît du manque et pas l’inverse. » Ce manque, nous l’avons tous en commun : c’est le sentiment de ne pas être assez puissant et de ne pas pouvoir contrôler notre environnement. Et c’est ce manque qui nous fait nous précipiter sur le premier rêve qui passe comme un papillon sur une lampe.

On ne peut en effet qu’être fasciné quand on assiste aux prouesses de systèmes comme Deep Blue ou Watson, capables de battre les meilleurs aux échecs ou au jeu de Go. Il y a dans ces performances une part importante de mise en scène qui a comme fonction de faire rêver. L’intelligence artificielle suscite un désir de puissance tout autant qu’une peur de sa propre puissance, tel que l’illustre le mythe du golem. Pour mémoire, ce mythe raconte comment un homme a réussi à donner vie à une statue d’argile et comment sa création, dépourvue de conscience, lui a échappé et a commencé à détruire le monde.

Intelligence et puissance cognitive

L’émergence du concept d’intelligence artificielle a ceci de positif qu’il nous oblige à réfléchir a ce qu’on met derrière le mot intelligence. Si l’intelligence est réduite à la puissance cognitive, alors on peut effectivement affirmer qu’il peut exister une intelligence artificielle. Dans ce cas, on peut parler – plus modestement et moins commercialement – d’un système de gestion automatisée des flux d’information (GAFI).

Mais l’intelligence humaine ne se limite pas à la puissance cognitive. L’intelligence est aussi une capacité à s’adapter en apprenant (lire aussi l’article : « Apprendre à apprendre »), c’est-à-dire être capable de modifier ses processus de gestion de l’information pour modifier les prises de décision. Là encore, la machine a conquis un espace jusque-là réservé à l’homme avec le « deep learning », un système capable de modifier ses propres processus d’une manière autonome. Mais il y a toujours quelque part un homme caché derrière la machine (lire aussi l’article : « Comment les machines apprennent (et pourquoi vous y gagnez) »). Même si le public est hypnotisé, il y a toujours, comme dans le « Turc mécanique » (un prétendu automate du XVIIIe siècle, doté de la faculté de jouer aux échecs, dans lequel était en réalité caché un joueur humain, NDLR), une intention humaine qui ne se montre pas.

Si la machine paraît autonome, elle ne s’autodétermine pas pour autant : l’autonomie de la machine est, quoi qu’il arrive, déterminée par la volonté d’un être humain. Autrement dit, le processus ne peut exister sans qu’un être humain ne le mette en marche par son intention. Une intention qui est déterminée par une certaine conscience de soi dans un environnement précis et par l’imagination d’une solution pour modifier la relation que l’individu entretient avec son environnement. C’est en partie ce qui fait la différence entre la machine et l’homme : si la machine sait gérer des flux d’information et modifier ses propres processus, elle dépend largement de l’être humain dans sa capacité réflexive et dans sa capacité à imaginer quelque chose, à le rendre cohérent avec le réel par confrontation à ce réel et par le biais d’ajustements successif. C’est sans doute cela qui caractérise l’intelligence humaine : la capacité à imaginer un réel et à produire les ajustements nécessaires à sa réalisation (lire aussi la chronique : « L’homme et l’intelligence artificielle : rivalité ou romance ? »).

Intelligence et biais

En outre, la notion d’intelligence artificielle sous-entend une forme d’objectivité rationnelle qu’il est nécessaire d’interroger. Par exemple, les systèmes de reconnaissance faciale sont très performants pour reconnaître les hommes blancs mais beaucoup moins pour reconnaître les femmes noires. La raison est simple : la programmation de la machine se fait en lui faisant avaler une quantité astronomique de données (des milliers de photos) et en laissant le système de deep learning généraliser des caractéristiques et produire des catégories. La façon dont on nourrit la machine influence donc ses modes de généralisation et de catégorisation. Si on ne lui montre que des hommes blancs, elle caractérisera à partir de ce qu’elle a appris. Aussi le fonctionnement de la gestion automatisée des flux d’information sera-t-il largement déterminé par l’intention (consciente ou non) de celui qui programmera la machine (lire aussi l’article : « Lutter contre la discrimination sur les plateformes »). L’objectivité n’est qu’illusion dès que l’humain introduit un biais.

A l’instar des machines de l’ère industrielle qui démultipliaient la force physique des hommes en l’augmentant par l’insertion d’un appareillage entre l’intention de l’homme et le réel, l’intelligence artificielle augmente la force intellectuelle et en démultiplie la puissance par l’insertion d’un appareillage entre l’intention de l’homme et le réel. Mais, de même que la machine en ce qui concerne la force physique, cela n’exclut pas les biais et les mésusages : cela ne fait qu’augmenter la force destructrice quand l’intention est destructrice. En outre, « augmenter » ne remplace pas. En ce sens, l’intelligence artificielle ne remplace pas l’intelligence humaine comme une prothèse remplace un membre. Elle tente de l’appareiller pour en augmenter la puissance ou pallier ses faiblesses, comme une orthèse.

Certes, une machine capable de gérer des milliards d’information représente un rêve de puissance. Mais réduire l’intelligence à notre capacité de gérer de l’information conduit à une conception mécaniste de l’intelligence. La puissance cognitive n’est un critère d’intelligence que dans les sociétés fascinée par le mental comme la notre. La puissance cognitive est au service de l’intelligence, mais elle n’est pas l’intelligence. Contrairement aux apparences, on ne pense pas avec sa tête (sa cognition). La cognition est un outil de formalisation qui sert à témoigner des résultats de la pratique de son intelligence d’une manière socialement communicable. Notre conception « mentale » de l’intelligence peut alors être vue comme une forme de perversion. Le moyen devient le but, l’instrument qu’est le mental n’est plus au service d’une intention, il porte la charge de l’intention : il prend le pouvoir. C’est ce qu’on observe dans l’usage des nouveaux outils comme les smartphones chez les plus immatures : le but devient l’outil, il n’y a plus d’autre but que d’utiliser l’outil.

Intelligence et conscience

Etre intelligent, c’est peut-être aussi « être en intelligence » avec son environnement humain et non humain. Mais c’est aussi être en intelligence avec soi-même. Avoir une conscience de soi et des autres telle qu’on est capable de percevoir les effets que l’on a sur les personnes et notre relation au monde avant que les conséquences nous reviennent en retour. Au-delà de la puissance cognitive qui peut en être l’instrument, l’intelligence est bien la capacité à être dans une interaction responsable avec soi-même et son environnement.

On peut être fasciné par le spectacle de ces robots humanoïdes capable d’interagir avec les humains en répondant à leur question. Ce qui est fascinant, c’est que nous avons l’impression qu’il répondent comme s’ils savaient que nous existions en tant qu’humain ; ce qui suppose qu’ils ont conscience qu’eux même existent. Mais le robot sait-il qu’il existe ?

Ce qui caractérise l’intelligence humaine, c’est la conscience que chacun d’entre nous a de sa propre existence, la capacité de chacun d’entre nous a être attentif aux autres, au monde et à lui-même. C’est cette attention qui va déterminer l’intelligence. Etre attentif, c’est faire le choix conscient de considérer tous les éléments de l’environnement, au-delà de ce que la situation me laisse voir, pour prendre une décision. Or on se souvient que le GAFI de Facebook a censuré le tableau de Courbet, « L’Origine du monde », ainsi que la photographie d’une fillette nue brûlée au napalm pendant la guerre du Vietnam. Cette censure est liée au fait que le GAFI répond à une règle antipédopornographie et supprime ce qu’il reconnaît comme y ressemblant. En ce sens, il n’est pas capable d’être attentif au contexte, de considérer l’environnement, l’intention du message et le projet du messager. Pour ce faire, il faudrait qu’il soit capable d’un regard critique sur sa perception, ce qui supposerait une conscience qu’il est un sujet regardant dont la perception pourrait être critiquée.

La question que nous pourrions poser à l’intelligence artificielle, si on la rencontre un jour dans la rue, pourrait être : « Comment sais-tu que tu existes ? » Tant que celle-ci ne pourra y répondre (sans avoir été programmée pour cela), nous pourrons nous demander s’il est vraiment question d’intelligence.

Même si l’offre et le contenu sont les mêmes, les consommateurs accordent plus de valeur aux produits physiques que numériques. Ce qui fait la différence : le sentiment de propriété.

Chaque jour, nous interagissons avec deux types de produits. Le premier est acquis et partagé instantanément, il est impalpable, résiste aux dégradations, il est facile à personnaliser et impossible à perdre. Même un enfant peut en porter des milliers à lui tout seul. Le deuxième nécessite qu’on se déplace pour l’acheter ou le partager, il est difficile à modifier, encombrant, on l’égare aisément et il peut être endommagé de plusieurs façons. Seuls quelques exemplaires de ce type de bien peuvent être rangés dans un seul sac. Malgré les nombreux avantages du premier type de biens – les produits numériques -, les entreprises constatent de façon répétée que les individus apprécient et sont prêts à payer beaucoup plus cher pour leurs équivalents physiques. Notre recherche vise à expliquer les raisons de ce comportement déroutant. La vie moderne a été transformée par la numérisation généralisée de nombreux biens de consommation, qu’il s’agisse de livres, de magazines, de journaux, de musiques, de films, de billets d’avion ou de calculatrices. Les photographies numériques, commercialisées pour la première fois en 1990, sont maintenant prises plus souvent que les tirages sur papier. Pourtant, malgré les nombreux avantages des biens numériques, leurs alternatives physiques semblent garder une plus grande force d’attraction. Les livres imprimés sont toujours le format prédominant, les ventes de Blu-ray et de DVD continuent de croître, tout comme la demande des tirages sur papier des photographies numériques que les gens possèdent déjà.
Nous avons commencé à explorer ce paradoxe par une belle journée d’été à Boston, en offrant aux touristes sur le Freedom Trail (« chemin de la Liberté ») une photo souvenir avec un acteur costumé en Paul Revere. Nous n’avons pas fait payer pour la photo, mais nous avons demandé à chaque touriste de faire, en échange, un don à l’association historique qui assure l’entretien d’Old North Church. Les participants ont été répartis à leur insu et de façon aléatoire entre deux groupes. Le premier a reçu une photo numérique instantanée immédiatement par e-mail, tandis que l’autre a reçu une image Polaroid encore en cours de développement. Alors que les touristes du premier groupe ont choisi de donner en moyenne 2,29 dollars, ceux du deuxième groupe ont, de façon surprenante, donné 3,39 dollars, soit 48 % de plus pour le Polaroid qu’ils pouvaient tenir entre leurs mains.

Les biens numériques ne favorisent pas l’appropriation

Notre recherche nous permet de constater que ces touristes ne sont pas des cas isolés. Malgré les nombreux avantages des biens numériques, la valeur attribuée à leurs équivalents physiques est plus importante. Lorsqu’un bien physique tel qu’un livre ou une photographie imprimé(e) ou encore un DVD est numérisé, il perd une partie de sa valeur aux yeux des acheteurs. Les expériences que nous avons menées suggèrent que le facteur clé de cette dépréciation n’est pas la valeur de revente du bien, ni combien il coûte, ni combien de temps il peut être utilisé, ou s’il est unique ou très répandu. Nous constatons que la principale différence réside dans le fait que les biens numériques ne favorisent pas le même sentiment de propriété que les biens physiques.

La caractéristique intrinsèque et unique des biens numériques, c’est-à-dire leur immatérialité, est aussi ce qui nuit à notre propension à nous les approprier. Comme nous ne pouvons pas les toucher, les posséder et les contrôler de la même manière que nous interagissons avec les biens physiques, notre instinct de propriété vis-à-vis des biens numériques est altéré. On n’a jamais vraiment l’impression de les posséder, et quand nous sentons que nous sommes propriétaires de quelque chose, nous en gonflons psychologiquement la valeur. Par conséquent, nous n’accordons pas aux produits numériques ce supplément de valeur que nous reconnaissons aux biens qui font partie de notre patrimoine.

L’Empire contre-attaque

Dans le cadre des expériences complémentaires que nous avons menées auprès de cobayes en ligne et d’étudiants en commerce, nous avons constaté que la tendance à moins valoriser les biens numériques par rapport aux biens physiques s’étend à une variété de produits, des films populaires aux romans en passant par les manuels scolaires. Nous avons observé le même effet, que nous mesurions la valeur en permettant aux participants de payer ce qu’ils voulaient pour les biens, en leur demandant de déclarer le maximum qu’ils étaient prêts à payer ou en mesurant la probabilité qu’ils achètent la version numérique ou physique d’un bien, quand les deux sont vendus au même prix. Une plus grande valeur a continué d’être attribuée aux biens physiques par rapport aux biens numériques, même lorsqu’on donnait aux individus des éléments sur les coûts de production estimés et les prix de vente au détail. La tendance s’est maintenue même dans le cas de marchandises n’ayant aucune valeur de revente. Des explications alternatives plausibles, comme le fait que les biens physiques durent plus longtemps ou sont plus agréables à utiliser que des biens numériques, ont également échoué à expliquer cette différence.

Seule une différence d’intensité du sentiment de propriété vis-à-vis des biens numériques et des biens physiques explique cette préférence pour le format physique. En effet, l’écart de valeur s’est amenuisé pour les biens que les participants louaient et avaient prévu de rendre. Les étudiants n’étaient pas disposés à payer un manuel sur papier, qu’ils redonneraient à la fin d’un cours, plus cher que sa version digitale.
Cette variation du sentiment de propriété nous permet également de savoir quand les gens attribueront autant de valeur aux biens numériques qu’aux biens physiques. Etant donné que la propriété implique un lien entre une personne et un objet, nous avons constaté que l’écart de valeur se creusait lorsque ce lien s’établissait facilement et qu’il disparaissait quand ce lien se formait avec difficulté. Les participants ont, par exemple, accordé à l’exemplaire physique de L’Empire contre-attaque une valeur supérieure à celle qu’ils ont attribuée à sa version numérique, seulement s’ils considéraient que la série Star Wars était une œuvre cinématographique avec laquelle ils s’identifiaient fortement. Les participants qui n’étaient pas des fans de Star Wars ont apprécié les copies physiques et numériques de la même façon.

Question de besoin de contrôle sur l’environnement

Nous pensons que la différence de sentiment de propriété que les gens ont vis-à-vis des biens numériques et des biens physiques peut être liée à l’impression qu’ils ont d’avoir un contrôle plus diffus sur les objets numériques. Les gens se sentent propriétaires d’un bien, dans la mesure où ils peuvent le toucher et le contrôler. Nous avons en effet constaté que les personnes qui n’ont que faiblement besoin de maîtriser leur environnement ne montraient aucune préférence pour les biens physiques par rapport aux biens numériques, alors que les personnes qui, au contraire, ont un fort besoin de contrôle déclaraient qu’ils préféraient nettement les biens physiques à leur version digitale. Les participants à l’une de nos expériences nous ont même expliqué combien ils seraient prêts à payer pour acquérir un livre de leur auteur favori, à quel point ils avaient hâte d’en devenir propriétaires et leur besoin de possession – ce qui donne une idée du degré de contrôle qu’une personne veut avoir sur son environnement. Nous avons constaté que les participants éprouvant un plus grand besoin de contrôle ont tendance à penser avoir un sentiment de propriété psychologique plus étendu sur des exemplaires physiques que numériques d’un livre, ce qui les amène naturellement à accorder plus de valeur au livre papier plutôt qu’à sa version numérique, y compris lorsque les estimations du prix de vente et des coûts de production ont été incluses dans le modèle statistique. Alors que le sentiment de propriété et l’évaluation des ouvrages physiques et numériques ne varient pas autant dans le cas des participants ayant moins un besoin de contrôle sur leur environnement.

Nos résultats permettent d’identifier la source de dépréciation due à la numérisation, et comment les biens peuvent être conçus pour récupérer cette valeur perdue. Les produits numériques peuvent être faits pour ressembler visuellement à leurs homologues physiques – en utilisant le skeuomorphisme – comme Apple qui offre la possibilité, dans son application iBooks, de présenter ses livres numériques sur une étagère en bois virtuelle.

La valeur d’un vol

Le sentiment de propriété peut être obtenu en augmentant le sentiment de contrôle des utilisateurs grâce aux interfaces tactiles et aux possibilités de personnalisation qui font des utilisateurs des acteurs de la production ou de la conception du produit. A cet égard, les conclusions auxquelles nous sommes parvenus laissent craindre des risques de friction dans l’adoption de dispositifs autonomes tels que les voitures sans chauffeur. Tout comme les puristes automobiles modernes rejettent les transmissions automatiques, qui sont techniquement supérieures mais leur offrent moins de contrôle que les transmissions manuelles, les gens peuvent accorder une valeur moindre aux voitures sans chauffeur, qui nécessitent peu ou pas d’implication de leur part. Ce manque d’interaction physique est susceptible d’atténuer leur sentiment de contrôle sur ces véhicules autonomes. Par conséquent, ils devraient être moins enclins à développer un sentiment de propriété vis-à-vis de ces machines autonomes, lesquelles ne bénéficieront pas de ce surplus de valeur accordé aux biens vis-à-vis desquels les gens ont développé un sentiment d’appropriation psychologique.

Enfin, nos résultats donnent matière à réfléchir en ce qui concerne la vision qu’ont les gens du vol de biens physiques et numériques. Comme la propriété perçue est altérée pour les biens numériques, ils peuvent ne pas penser que s’ils piratent un bien, ils causent le même dommage à leurs propriétaires que s’ils leur volaient des biens physiques comparables.
La numérisation du contenu nous libère – ainsi que l’environnement – du fardeau de l’accumulation d’objets matériels destinés à nous former et à nous divertir. Malgré le bien-être fortement accru que les biens numériques apportent aux consommateurs, nos préférences ne sont pas uniquement déterminées par l’utilité ou la pertinence de ces innovations. Notre recherche montre comment les nouvelles technologies peuvent ébranler l’architecture de la connaissance, et quels arrangements cognitifs l’esprit peut introduire au passage. 

Future menace ou véritable atout pour le manager, l’IA s’apprête à en bouleverser le rôle.
L’intelligence artificielle est au cœur de tous les débats. Les entreprises comme les gouvernements se dotent de moyens considérables pour rester dans la course face aux géants américains et chinois. La sortie du rapport Villani le 28 mars 2018 puis l’annonce d’un plan chiffré à 1,5 milliards d’euros par le gouvernement l’illustrent parfaitement. On peut déjà entrevoir les impacts de l’IA sur un certain nombre de produits ou de services (comme le diagnostic, la recherche…), et de métiers (salariés de centre d’appel, agents de nettoyage…). Mais qu’en est-il pour les métiers du management et du leadership (lire aussi la chronique : « Les nouveaux métiers de l’intelligence artificielle ») ? Selon le rapport McKinsey « Where machines could replace humans – and where they can’t (yet) », le management des hommes est le métier le moins susceptible d’être confié à des machines dans un avenir proche. Pourtant, il semble peu probable que les managers soient épargnés par la vague adaptative majeure générée par l’avènement de l’IA. Comme souvent pionnière dans le domaine du management, l’armée de l’air a intitulé son dernier colloque annuel « L’héroïsme à l’ère de IA ». Ce faisant, elle soulève des questions cruciales sur ce qui, à l’avenir, rendra encore l’humain préférable à la machine. A l’instar du monde militaire, ne devrions-nous pas nous demander dans quelle mesure le manager de demain ne sera pas, lui aussi, une machine ?

De l’humanité du manager
La réponse à cette question dépend peut-être du type de management dont on parle. Si nous parlons du modèle de management 2.0 du XXe siècle où le manager est encore essentiellement un relais de la hiérarchie, dont les missions principales sont le contrôle et le reporting, la question de sa valeur ajoutée face à l’IA se pose définitivement. Nous connaissons le niveau d’insatisfaction général : les collaborateurs français sont parmi les plus critiques d’Europe quant à leur relation avec leur manager. La plupart jugent l’exercice de l’entretien annuel stérile et non équitable. Bien que l’humanité des managers soit parfois critiquée dans les évaluations (manque d’objectivité ou de courage), son absence est également déplorée : la qualité de la relation humaine fait souvent défaut dans les rapports managériaux, qui sont jugés froids et impersonnels. Ainsi, dans un sens comme dans l’autre, l’humanité du manager pose problème. Et c’est la capacité de la machine à répondre à cette difficulté qui doit nous amener à réfléchir. Au vu des progrès de l’IA, une machine pourra très prochainement rappeler les règles, donner du feed-back sur les objectifs définis en amont et se montrer totalement objective dans son évaluation de fin d’année. Dans ces conditions, la machine pourrait très certainement, dans un avenir proche, supplanter le manager.

En revanche, si nous parlons du modèle managérial 3.0, bâti autour de la capacité du manager à renforcer les compétences de ses collaborateurs et à leur donner suffisamment d’autonomie et de sens pour qu’ils se sentent libres d’innover, alors le diagnostic est différent. Donner du sens et de l’autonomie passe forcément par une relation humaine de qualité suffisante. En d’autres termes, les managers qui répondent aux enjeux du XIXe siècle sont ceux qui investissent suffisamment la relation avec leurs collaborateurs, quitte à être mis au défi sur un plan émotionnel (lire aussi l’article : « Développez votre agilité émotionnelle »). Même si l’humanité de ces managers peut parfois les pénaliser (ils ressentent des émotions négatives, peuvent parfois se sentir perdus face aux défis humains qu’ils doivent relever…), c’est précisément pour cela qu’ils seront peu remplaçables par une machine. L’intelligence émotionnelle, qualité attendue chez les managers et dirigeants du XIXe siècle, est aussi ce qui leur permettra d’apporter une valeur ajoutée supérieure à celle d’une machine, aussi humanisée soit-elle.

Le manager augmenté
Alors quel avenir pour les managers et la machine ? L’IA peut se révéler un atout considérable si elle permet au manager de libérer un maximum de son attention pour la porter sur ses relations avec ses collaborateurs et sur sa propre réflexion stratégique. Dans ce cas-là, le manager est augmenté par la machine. L’IA peut donc être un atout pour se délester de certaines activités à faible valeur ajoutée et récupérer du temps de cerveau disponible pour d’autres activités plus stratégiques. Deux pistes d’utilisation de l’IA sont particulièrement intéressantes de ce point de vue :

– Automatiser les tâches à faible valeur humaine ajoutée – comme le reporting, la réponse à certains e-mails, la planification, l’organisation ou encore l’analyse de données et l’identification de tendances – pour dégager du temps et de la ressource attentionnelle pour se concentrer sur les projets clés tels que la prospective stratégique et le management des hommes.

– Remettre la relation humaine et la qualité du collectif au cœur du rôle managérial. Autrement dit, bâtir un cadre d’action collectif suffisamment solide et sécurisant pour les équipes en mettant en place des espaces de discussion et d’échange formels et informels. L’idée est aussi que le manager accompagne ses collaborateurs dans l’utilisation de l’IA afin qu’eux aussi puissent lever le nez du guidon et ainsi passer plus de temps auprès de leurs propres équipes à encourager l’innovation ou sur les projets stratégiques qu’ils ont à mener. L’exemplarité du manager en matière d’utilisation de l’IA, au service d’un management plus humain, sera clé.

L’arrivée de l’IA est inéluctable, et les managers ont tout intérêt à l’embrasser. Mais ils doivent définitivement adopter les compétences managériales 3.0, sous peine d’être facilement remplaçables par des machines. Si l’IA n’a pas encore bouleversé les codes managériaux, elle ne tardera pas à précipiter l’obsolescence des compétences managériales 2.0.

Plus de chroniques de : Tessa Melkonian

 

L’intelligence artificielle est sur toutes les lèvres et pour cause, elle va révolutionner l’expérience utilisateur et les pratiques commerciales.

Si les GAFA (Google, Apple, Facebook, Amazon) et les géants de la Tech ont tous leur intelligence artificielle (AlphaGo, Siri, chatbot Fair, Alexa), cette technologie touche désormais tous les secteurs : de la santé (secteur pourtant très traditionnel) au retail, en passant par l’agriculture. En 2016, le marché était estimé à 8 milliards d’euros selon l’organisme d’études International Data Corporation. Aujourd’hui, 38% des entreprises utilisent cette technologie et ce chiffre devrait grimper à 62 % en 2018 (d’après une étude de Narrative Science).

L’IA est donc partout, et en pleine croissance. Les montants investis ne cessent d’augmenter, passant de 611 à 774 millions d’euros entre 2015 et 2016, rien que pour l’Europe (selon une étude de Serena Capital). C’est pourquoi l’intelligence artificielle et la data sont souvent perçues comme la prochaine révolution industrielle.

Récemment, Alibaba a battu tous ses records de vente – atteignant jusqu’à 8 milliards de transaction en une heure – lors du Single Day en Chine, en utilisant notamment sa nouvelle intelligence artificielle, FashionAI. Cette machine dotée de capteurs est capable de reconnaître les vêtements essayés par ses clients en magasin. Elle conseille aux futurs acheteurs des produits complémentaires pour améliorer leur « look », le tout via un écran. Une application qui séduit les acheteurs et qui permet surtout d’augmenter les ventes.

L’intelligence artificielle suscite à la fois des craintes et de l’enthousiasme

L’intelligence artificielle est un sujet qui suscite de l’enthousiasme de nombreux patrons, comme celui de Facebook, Mark Zuckerberg, pour qui l’IA permettra de « créer des choses pour rendre le monde meilleur ». Mais elle peut aussi cristalliser les peurs, comme celles du P-DG de Tesla, Elon Musk, qui considère qu’elle représente « le plus grand risque auquel notre civilisation sera confrontée ». Tous néanmoins s’accordent pour dire qu’il s’agit d’un sujet stratégique pour les entreprises.

L’IA réunit en réalité toute une série de technologies et d’approches algorithmiques. Généralement, quand on parle d’IA aujourd’hui, on parle très souvent de la combinaison du traitement du langage naturel (Natural Language Processing, techniques de compréhension de langages « humains » par un ordinateur) et des techniques d’apprentissage automatique (Machine Learning). Le traitement du langage naturel regroupe l’ensemble des techniques qui permettent à un ordinateur d’analyser et de comprendre un langage sous la forme d’un texte ou d’une conversation. Ce qui peut s’avérer très complexe puisque le contexte, le ton ou un simple mot peuvent changer la signification d’une phrase du tout au tout. Cette technologie est, par exemple, à la base de tous les assistants vocaux (Alexa, Siri, Google Home etc), des chatbots, des assistants virtuels… Par ailleurs, les techniques d’apprentissage automatique (Machine Learning) permettent à un ordinateur d’apprendre petit à petit et de s’améliorer selon des mécanismes qui s’apparentent à du test and learn. En s’appuyant sur l’apprentissage automatique, les techniques de traitement du langage naturel peuvent s’améliorer au gré du temps et des usages.

Un petit robot humanoïde dans les magasins

En toute logique, l’expérience utilisateur et les pratiques commerciales devraient considérablement s’améliorer grâce à l’IA. En effet, la machine, par le biais du traitement du langage naturel (NLP), est capable de gérer des milliers de clients de façon automatisée, vingt-quatre heures sur vingt-quatre et sept jours sur sept, et dans un laps de temps quasi instantané. Prenons l’exemple de Sephora, dont le chatbot, KIK, est reconnu comme l’un des plus performants du marché. En posant des questions à ses clients, KIK les conseille sur leur maquillage de façon automatisée et performante. Afin d’être plus convivial et d’avoir une dimension humaine, ce chatbot utilise des émoticônes dans la conversation. L’interactivité est au cœur de l’expérience. Un autre exemple frappant en termes d’interactivité est celui de NAO, un petit robot humanoïde, mis en place par Darty dans ses magasins. Ce dernier renseigne ses clients, répond à leurs questions et présente les produits et les services disponibles en stock. C’est devenu un vrai assistant vendeur.

La relation avec le client est personnalisée et prend en compte le contexte. Ainsi, l’assistant virtuel d’Amazon, Alexa, prend les commandes vocales comme : « Commande-moi une Pizza ! », et répond aussi aux questions «Alexa, où est ma pizza ? ». Ce à quoi l’IA d’Amazon pourra répondre : « Elle arrive dans deux minutes ». Preuve du succès de l’IA : 20 % des clients de Domino’s pizza au Royaume-Uni utilisent Alexa pour effectuer leurs commandes et paiements.

Augmenter la satisfactions clients en réduisant les besoins en personnel

Les applications dans le secteur des services se sont généralisées et sont dorénavant de vraies sources de réduction de coûts ou de satisfaction clients. Dans le domaine de l’assurance, une entreprise a ainsi réussi à atteindre une précision de 90 % dans la pré-catégorisation de ses sinistres, et a ainsi pu faire gagner du temps à ses experts qui ont diminué leurs déplacements. Une entreprise de services a utilisé des techniques de NLP pour apporter des réponses d’une manière automatique aux e-mails de ses clients en les traitant selon le degré d’urgence du service à apporter. Les besoins en personnel ont été réduits d’environ 17 %, et le temps de traitement de 45 %, alors que la satisfaction clients elle a augmenté de 4 %. Même l’Etat a recours à l’IA pour automatiser certaines tâches comme en Italie où certains services publics ont pu augmenter leur rapidité de traitement de 30 %, tout en réduisant le nombre d’employés de 45 %. Autre exemple : un algorithme d’apprentissage automatique (Machine Learning) a permis d’améliorer la détection des fraudes à la sécurité sociale de 20 %.

Si les avantages liés à l’IA sont incontestables, les humains ne vont pas pour autant disparaître. Ils pourront s’émanciper des tâches à faible valeur ajoutée et se concentrer uniquement sur les 20 % de cas que les IA ne pourront pas traiter automatiquement. A priori, une situation gagnant-gagnant : d’un côté, les clients seront mieux servis et plus rapidement, de l’autre, les professionnels pourront se concentrer sur des tâches moins rébarbatives et ayant une vraie valeur ajoutée.

 Une expérience utilisateur plus rapide, plus fluide, plus personnalisée et donc plus pertinente

Pour que l’expérience utilisateur tienne toutes ses promesses, il est donc essentiel de conserver une dimension humaine. Les entreprises l’ont bien compris. D’ailleurs lorsque Rhizabot (l’IA de Rhiza utilisée par de nombreuses entreprises pour aider leurs commerciaux à conclure leurs ventes) ou Julie Desk (une IA qui organise la prise de rendez-vous par e-mail) ne savent pas traiter un problème, les machines renvoient immédiatement vers un humain. C’est l’association humain-machine qui est un mix gagnant. L’IA permet incontestablement une expérience utilisateur plus rapide, plus fluide, plus personnalisée et donc plus pertinente, à condition de garder une dimension humaine derrière la technologie. A condition aussi que l’hyper personnalisation rendue possible par la technologie fournisse une expérience suffisamment convaincante pour que nous acceptions de partager nos données personnelles : aujourd’hui, plus de la moitié des Français (54 %) restent encore méfiants quant à l’utilisation qui pourrait être faite des données qu’ils communiquent en s’enregistrant sur ces services en ligne (selon Accenture).

Après la data, qui accélère et rend plus pertinente la prise de décision et donc le service, c’est au tour de l’IA de permettre aux entreprises d’être plus compétitives en améliorant les performances sur leur chaîne de valeur. Mais là où la data était en général complètement invisible pour l’utilisateur, l’IA sera sans doute beaucoup plus utilisée comme interface. L’objectif est d’arriver à une expérience “sans accroc”, où la technologie se fait oublier tant elle est efficace. Nous sommes parvenus à concevoir des IA qui passent désormais le test de Turing (est-ce que lors d’une conversation, un être humain est capable d’identifier s’il parle à une machine ou à un autre humain ?) et on ne saura bientôt plus distinguer une IA d’un véritable être humain. Preuve que l’IA est prête pour être présente partout dans notre vie.

La technologie blockchain est un puissant levier de développement de l’open innovation.

La blockchain est une technologie de stockage et de transmission d’informations, transparente et sécurisée, fonctionnant sans organe central de contrôle. Par extension, une blockchain (ou chaîne de blocs, NDLR) est une base de données qui contient l’historique de tous les échanges effectués entre ses utilisateurs depuis sa création. Cette base de données est sécurisée et distribuée : elle est partagée par ses différents utilisateurs, sans intermédiaire, ce qui permet à chacun de vérifier la validité de la chaîne .

Si ses premières applications étaient limitées au domaine des fintechs, la blockchain trouve aujourd’hui de nouveaux usages dans de multiples secteurs : énergie, santé, logistique, propriété intellectuelle, etc. S’agissant de capital immatériel, il est un domaine qui semble particulièrement prometteur pour la blockchain, c’est celui de la cocréation et de l’open innovation.

Les limites de la cocréation

Ce domaine connaît en effet des freins qui en limitent actuellement l’efficacité :
– Une certaine réticence à utiliser les outils d’open innovation due au manque de confiance que peuvent ressentir les contributeurs vis-à-vis des plateformes actuelles de cocréation et d’open innovation, notamment en ce qui concerne leurs données personnelles.
– La difficulté à opérer une traçabilité des contributions : ne pas pouvoir affecter une paternité à celles-ci crée inévitablement une frustration, voire une démotivation des participants. Sans compter que si les participants créent de la valeur, il serait équitable qu’ils reçoivent une juste rétribution à hauteur de leurs apports.

Les promesses de la blockchain

Il semble donc nécessaire d’objectiver et d’enregistrer les contributions individuelles à l’ouvrage collectif. Les fonctionnalités au cœur de la technologie blockchain devraient apporter des solutions :
-En supprimant les intermédiaires et les tiers de confiance, une blockchain publique fait de tout individu un point nodal dans l’écosystème socio-économique concerné. Dans ce réseau de pair à pair, chacun peut librement s’exprimer et agir, et tous les contributeurs sont identifiés de façon certaine.
-En traçant les contributions de chacun, la blockchain permet de « rendre à César ce qui est à César ». Cette reconnaissance des mérites individuels est un levier important pour stimuler la participation et l’engagement.
-La transparence de la blockchain favorise les relations de confiance et lève les obstacles et les réticences à l’engagement des membres du réseau. Ce sentiment d’appartenance à une communauté démocratique stimule l’implication des individus, les interactions, les échanges et la volonté d’agir ensemble.

La blockchain compte un certain nombre de mécanismes et d’outils qui devraient s’avérer particulièrement pertinents dans des démarches de cocréation :

La notarisation. La traçabilité découle des propriétés mêmes de la blockchain, réputée immuable et incorruptible. En effet, une fois qu’une information est enregistrée dans la base de données, par consensus, elle y est inscrite de façon indélébile. Ce qui revêt une importance cruciale lorsque l’on traite d’identités, par exemple : contrats, diplômes, idées et faits peuvent être enregistrés de manière permanente. Aussi le MIT a-t-il commencé à émettre les diplômes qu’il délivre sur la blockchain grâce à un outil publié en open-source. Parallèlement, la start-up française BCDiploma propose d’authentifier les diplômes en les stockant directement sur la blockchain. Ce dispositif de notarisation électronique permet ainsi d’avoir accès à l’historique et à la nature de toutes les transactions. Il permet d’en connaître l’émetteur et le récepteur, ainsi que la nature des informations transmises. En transposant cet exemple au domaine de l’open innovation et de la cocréation, la blockchain peut être un puissant levier pour tracer l’origine et le parcours des idées créatives et des contributions des membres individuels d’un collectif, permettant de reconnaître – voire de rémunérer – les apports de chaque cocréateur.

Les « tokens ». Ces jetons sont des actifs numériques qui peuvent être échangés entre membres d’une blockchain, soit dans un but ludique, soit pour matérialiser la valeur des transactions qui y sont réalisées. Les tokens facilitent donc la mise en place d’un dispositif incitatif au sein d’une communauté de cocréateurs dont les apports, une fois évalués, se voient récompensés par des « tokens » dédiés. C’est la théorie du « nudge » de Richard H. Thaler, Prix Nobel d’économie 2017. En créant des conditions propices et en s’appuyant sur des théories crypto-économiques, nous pouvons espérer stimuler l’innovation : en favorisant certains types de recherche, en ouvrant un « financement inversé » où le chercheur serait rémunérer « à la découverte », en introduisant des gratifications pour les innovations provenant de multiples acteurs, etc.

L’évaluation par les pairs. Tout type de transaction peut être enregistré dans la blockchain, y compris des votes. De quoi hiérarchiser et valoriser les contributions individuelles en se basant sur leur évaluation collective (par un large public ou par les experts qui y sont habilités). Nul doute qu’un mécanisme de vote favoriserait l’émulation entre les contributeurs. Il stimulerait l’intelligence collective et l’effervescence créative. On peut imaginer que ce mécanisme puisse s’appliquer partout : sur les réseaux sociaux mais aussi dans les entreprises voire dans certaines sphères sociétales, réinventant ainsi une nouvelle forme de démocratie.

Les « smart contracts ». Ces codes sources informatiques s’auto-exécutent au moment précis où certaines conditions prédéfinies se trouvent réunies. Certains processus de cocréation peuvent ainsi être automatisés, les rendant plus fluides, plus rapides et plus fiables.

Un levier pour stimuler l’open innovation

En matière de cocréation basée sur la blockchain, il est possible d’imaginer plusieurs niveaux d’implication des individus :
-Une simple participation éditoriale sur le modèle de Wikipédia, mais avec une rémunération incitative : dans le cas de la plateforme Steem – le pendant blockchain de Reddit – chaque curateur de contenu se voit reversé une fraction des bénéfices, en fonction du niveau de partage du contenu en question. Dans le même registre, la start-up Wespr est une maison d’édition et une librairie décentralisées permettant de miser sur des écrivains qui se voient reversés des avances liées au volume d’extraits lus par les lecteurs.
– Une contribution ponctuelle à un projet : par exemple, le collectif OuiShare valorise les apports de ses membres à ses projets afin de renforcer le sentiment communautaire et d’augmenter l’implication de chacun.
– Un niveau plus ambitieux de cocréation : par exemple, la société Matryx propose un système de challenges scientifiques avec rétribution des chercheurs selon la qualité de leurs contributions.

La blockchain peut donc être un levier de cocréation à de multiples niveaux et dans de nombreux domaines. Dès lors, rien n’interdit d’envisager qu’elle initie de nouveaux systèmes et de nouveaux comportements.

Une solution aux limites actuelles de l’open innovation et de la cocréation consisterait à proposer à divers acteurs (entreprises, start-up, entrepreneurs et intrapreneurs, chercheurs, inventeurs, etc.) de pouvoir se connecter à une plateforme de confiance d’innovation collaborative. Celle-ci aurait des fonctionnalités classiques (inscription sécurisée, réseau social pour échanger, possibilité de lancer des challenges et de se regrouper pour les résoudre, matching entre offreurs et demandeurs d’innovation, etc.). Surtout, cette plateforme nouvelle génération pourrait être totalement novatrice grâce à la blockchain. Celle-ci apporterait une fonction « nudge », permettant aux divers acteurs de maîtriser leurs données personnelles, de se voir correctement attribuer leurs contributions et, ce faisant, d’être reconnus voire rétribuer de façon juste et équitable.

© Getty Images

La tendance à la décentralisation des modèles productifs touche de plus en plus de secteurs d’activité.

Outre la digitalisation et la « décarbonisation », le groupe Engie met l’accent sur un troisième angle stratégique: la décentralisation de la production d’énergie.

Le secteur de l’énergie connaît en effet de fortes mutations, avec un passage des grandes centrales de production d’électricité à de plus petites unités liées aux énergies renouvelables (unités de panneaux photovoltaïques, fermes éoliennes, centrales géothermiques, etc.), voire à une production directement sur les sites de consommation (bâtiments à énergie positive, par exemple).

Fort de son volontarisme stratégique, Engie tire les conséquences de cette transformation avec la vente de centrales à charbon ainsi que des acquisitions de plateformes locales, couplées à des nouvelles propositions de solutions énergétiques pour les collectivités, les entreprises et les particuliers. Un programme de rotation du portefeuille d’actifs de 15 milliards d’euros a ainsi été initié, selon cette logique, pour la période 2016-2018.

Ce passage de grands actifs de production à un réseau de petites unités est-il réservé au secteur de l’énergie ? Il semble que non. Plusieurs éléments indiquent une tendance forte – et commune à de nombreuses activités économiques – en faveur de modèles productifs de plus en plus déconcentrés.

Plus d’effets de systèmes

Les effets de système correspondent aux gains d’efficacité et d’efficience permis par des connexions de plus en plus fluides et rapides entre diverses unités, internes et externes à l’entreprise. Les nouveaux modèles économiques exigent des modes de production de plus en plus agiles et ouverts (lire aussi la chronique : « Organisation ouverte : ce qui fait la différence ») : propositions de valeur de plus en plus orientées vers des solutions personnalisées et des réponses rapides ; séries de plus en plus courtes ; accroissement de la commercialisation combinée d’équipements, de consommables, de logiciels ou encore de services, etc. Le besoin d’efficacité des connexions entre les partenaires d’un même système économique s’en trouve fortement renforcé.

L’usine du futur ne sera pas plus grande mais plus intégrée, plus connectée et plus proche des acteurs de son écosystème (clients, sous-traitants et fournisseurs). Les travaux de recherche sur l’industrie 4.0, ou « smart factory », corroborent cette orientation vers des dynamiques de réseau à des échelles plus locales.

Le très performant modèle de Plastic Omnium (leader mondial des pièces et modules de carrosserie et des systèmes à carburant pour l’automobile) déploie ainsi son activité dans pas moins de 124 usines et 23 centres de R&D. Une des clés de la réussite du groupe et de ses co-entreprises a été une logique constante d’implantation des unités de production à proximité des clients. La géographie « éclatée » de la R&D permet quant à elle de tirer profit d’une variété d’écosystèmes, notamment pour les partenariats universitaires (lire aussi l’article : « Le problème avec les écosystèmes du passé »).

Moins de barrières à l’entrée

Et la déconcentration des actifs au sein d’un groupe n’est pas la seule tendance. La fragmentation croissante des marchés et l’innovation dans les business models favorisent l’entrée de nouveaux acteurs économiques au sein des divers secteurs d’activité, entraînant de facto l’accroissement des unités productives.

L’industrie brassicole affiche, par exemple, une croissance accélérée des microbrasseries. La tendance sociologique du retour au terroir et les nouveaux élans entrepreneuriaux favorisent par ailleurs le phénomène. Le nombre de microbrasseries, en France, aurait doublé en cinq anspour atteindre 900 unités en 2016. Toutes ne survivent pas. Certaines sont ensuite intégrées au sein des grands groupes. Cependant, la dynamique persiste et est favorisée par le développement parallèle de circuits de commercialisation de proximité.

La diminution du nombre de barrières à la commercialisation est un phénomène global. Non seulement les grandes unités commerciales, comme les hypermarchés, ne sont plus en vogue, mais les nouvelles plateformes commerciales facilient l’accès pour les nouveaux entrants. Il est aujourd’hui plus facile de commercialiser des produits innovants ou de petites séries par le biais de nouveaux circuits ou de marketplaces comme Amazon, Alibaba et consorts. La barrière que constitue la capacité à négocier avec des centrales d’achat pour obtenir un hypothétique référencement peut être plus facilement contournée aujourd’hui.

Des boucles de valeur plus courtes

Une convergence s’opère de fait entre demande des marchés, nouveaux business models et révolution technologique, au profit de boucles économiques plus courtes et plus rapides. La logique rejoint, en outre, celle d’une économie circulaire plus en phase avec le développement durable : moins de stocks et de transport, des unités de production mieux insérées dans leur écosystème local, des sources d’énergie moins carbonées et plus déconcentrés, davantage de recyclage, etc.

Les modes de production associés à la fabrication additive, ou impression 3D, constituent un exemple convaincant. Appuyons-nous, pour l’illustrer, sur la logique de développement de Dagoma, fabricant d’imprimantes 3D à destination des particuliers. L’entreprise, créée en 2012, s’est donné comme credo de démocratiser cette technologie. Sous l’égide de ses deux fondateurs, c’est la communauté de clients qui va notamment contribuer aux améliorations et au développement des produits. Plus remarquable encore, le mode de production s’inscrit dans une logique d’autoréplication ou « RepRap » (réplication rapide) : 40% de la structure d’une imprimante est ainsi imprimée par… d’autres imprimantes. Le premier atelier, installé à Roubaix, regroupe ainsi un parc de 450 machines dédiées à la production d’autres imprimantes qui, elles, sont commercialisées. Plutôt que d’augmenter, en taille, l’actif de production, la logique est d’essaimer progressivement afin de préserver un mode de fonctionnement agile et de proximité avec les clients. Deux autres unités ont été créées à Bordeaux et à San Francisco. La dimension idéale d’une unité serait de 20 personnes pour la fabrication de 100 machines par jour.

Et le cas Dagoma illustre parfaitement ces nouveaux leviers économiques : effet de système avec la communauté de clients, innovation technologique et business model novateur, logique circulaire et de proximité… Et, surtout, un développement inscrit dans une déconcentration des actifs de production.

Les Scientifiques ont souvent la méthodique et classique habitude de devoir déterminer le contraire de ce qu’il viennent de découvrir, cette méthode s’adapte aussi à la prise de décision dans des domaines autres que les Sciences pures, comme le management..

La richesse de la contradiction permet de prendre du recul et de tester la solidité comme les limites de sa pensée.

Toute décision est censée être l’aboutissement d’une réflexion solitaire ou collective, de débats faisant intervenir de nombreux collaborateurs et conseillers, d’études et d’analyses faisant appel à des spécialistes ou à des experts, en général à tous ceux qui ont l’expérience, la compétence, les moyens et les méthodes pour servir une décision efficace. Or les décisions les plus importantes ne présentent, dans l’absolu, aucune garantie, car elles dépendent essentiellement de la compréhension par les décisionnaires des critères qui les influencent, de leurs conséquences à court et à long terme, des réactions internes et externes qu’elles vont susciter et d’une multitude d’éléments périphériques qui échappent à l’analyse de ceux qui proposent, conseillent ou décident.

Il serait fastidieux d’illustrer ce constat en dressant une liste qui se voudrait exhaustive des décisions stratégiques catastrophiques qui ont mis en grande difficulté des sociétés leaders sur leur marché, poussées en quelques années à réorienter ou à cesser leur activité (lire aussi la chronique : « Comment éviter qu’une erreur de décision ne mette en péril l’entreprise »). Mentionnons seulement trois exemples, certes connus, mais éclairants d’un point de vue historique :
– IBM, en sous-estimant l’intérêt du PC à la fin des années 1970, a laissé le marché de la micro-informatique se développer hors de son contrôle. Cette regrettable décision s’est doublée d’une décision plus grave encore, celle de demander à Microsoft de fournir le système d’exploitation de son PC ; ce qui a fait la fortune de Bill Gates et a plongé IBM dans une période de grands troubles (lire aussi l’article : « Les clés pour opérer un virage stratégique selon Virginia « Ginni » Rometty, P-DG d’IBM »).
– Dans les années 1980, Kodak a retardé – pour des raisons commerciales de court terme – son passage à la photographie numérique, technologie que la société avait pourtant mise au point. Une incroyable erreur qui a entraîné la faillite de l’entreprise.
– Nokia a perdu sa position de leader mondial dans la téléphonie mobile en voulant, pour faire face au lancement de l’iPhone d’Apple, en 2007, conserver et adapter son système d’exploitation Symbian au lieu de choisir la réponse immédiate la plus évidente, Android, déjà disponible sur le marché et fort d’un écosystème ouvert.

A chaque fois, il aurait suffi que ces sociétés prennent la décision exactement opposée à celle qu’elles ont prises pour conserver leur leadership et s’ouvrir à une nouvelle croissance sur un marché d’avenir. Et, à chaque fois, l’expérience, les meilleures compétences, les meilleurs ingénieurs et les plus gros moyens financiers se trouvaient du côté de ceux qui ont fait ces mauvais choix.

Conservatisme et myopie

Dans la majorité des cas, le raison est le même : ces décisions ont été prises par conservatisme, par réflexe de prolongation de l’existant, mais surtout à cause de l’aveuglement des leaders qui ont pensé que l’avenir s’inscrirait dans la continuité du passé et qu’en cas d’erreur, les liquidités dont ils disposaient leur permettraient de réagir en procédant aux évolutions et aux adaptations nécessaires, en rachetant des technologies ou des sociétés pouvant leur permettre de se remettre rapidement à niveau. L’histoire de beaucoup de ces grandes entreprises montre qu’elles ne rattrapent jamais vraiment le retard pris lorsque les innovations concurrentes sont des innovations de rupture, et lorsque des investisseurs donnent aux challengers les moyens d’accélérer leur décollage et de creuser l’écart, tant technologique qu’en termes d’image.

Dans son ouvrage « L’effet loyauté », Frederick Reichheld affirme que l’espérance de vie des grandes entreprises est d’une quarantaine d’année, même si certaines survivent à leurs erreurs en réduisant ou en redéfinissant leurs activités. A cause d’une vision à court terme ou par conservatisme, les décisionnaires à la tête des grandes entreprises peuvent rater le tournant technologique ou commercial qui déterminera le leadership d’un secteur d’activité pour les années à venir.

Cette forme de myopie des dirigeants des grands groupes atteint également le management intermédiaire pour des décisions moins importantes qui, cumulées, impactent le développement de ces groupes sur le long terme. Pourquoi, avec autant d’expérience, de compétences, de méthodes et de moyens, beaucoup de ces grandes sociétés prennent, dans certaines circonstances, des décisions exactement opposées à celles qu’il faudrait prendre ? Nous proposons quelques pistes de réflexion, dont certaines ne sont que le pendant négatif des qualités supposées de ces sociétés.

Culture d’entreprise et souplesse neuronale

Une entreprise, et en particulier une entreprise leader, doit à la fois inventer l’avenir et s’adapter aux événements qui influencent ou perturbent son parcours. Ces événements ne peuvent pas être considérés seulement comme des faits externes qui s’imposent à elles, ils sont aussi des réalités indissociables d’une perception construite collectivement à travers une culture d’entreprise qui permet, dans la majorité des cas, d’agir avec cohérence et en synergie, à travers des comportements et des réflexes façonnés au cours du temps.

Cette base consensuelle et cette vision partagée permettent certes de « cimenter » les processus décisionnels de l’entreprise, mais se révèlent aussi être un handicap dans les périodes de mutation ou de crise, lorsque l’entreprise doit trouver, face à des mouvements plus ou moins prévisibles, des réponses adaptées pour garder ses positions et reprendre l’initiative. D’autant que la caractéristique souvent sous-estimée de ces périodes de crise est que celles-ci évoluent lentement en début de phase puis s’accélèrent pour, parfois, aller bien au-delà de tous les scénarios négatifs prévisibles.

Dans ces cas-là, les cultures d’entreprise trop structurantes (lire aussi l’article : « La culture n’explique pas tout »), les processus de décisions trop collectifs et les chaînes hiérarchiques trop formelles poussent à un certain conservatisme qui limite le champ des décisions. Pour réagir, les dirigeants doivent donc retrouver de la souplesse « neuronale » afin de favoriser l’émergence de décisions innovantes. Dans les domaines clés, l’élaboration de scénarios opposés ou la mise en concurrence de groupes travaillant sur un même sujet avec des objectifs différents est un moyen d’ouvrir le champ des décisions possibles.

Leadership, crise et tempo

Dans ces périodes d’incertitude se révèle ou apparaît une catégorie à part, celle des leaders. Ces femmes et ces hommes occupent souvent un poste à la tête de l’entreprise ou se trouvent, en temps de crise, dans des fonctions clés qui leur donnent une position privilégiée. Les véritables leaders s’épanouissent dans le management de crise : ils ont le souci d’anticiper systématiquement les événements et sont plus tournés vers les solutions innovantes et dérangeantes que vers celles qui plaisent au plus grand nombre. Les véritables leaders ne recherchent pas le consensus car, pour eux, penser au-delà des habitudes est un réflexe, et penser exactement le contraire de ce que la majorité envisage une attitude dialectique de départ permettant de faire progresser les débats ou de convaincre.

Mais le rôle du leader ne s’arrête pas là. Son objectif ultime est de faire appliquer la décision prise dans le bon tempo (lire aussi la chronique : « Etre un bon leader, une question de tempo »). Le tempo ne s’invente pas, ne se décide pas. Il ne peut en général être impulsé que par celui qui est à la tête de la société, détenteur d’une autorité et d’une crédibilité fondées sur une réelle intuition du futur, sur l’obsession de maintenir la position de leader, de saisir les nouvelles opportunités et sur la volonté de renforcer les avantages concurrentiels de son entreprise. Le tempo, c’est coller au rythme du futur par anticipation.

Une chose et son contraire

En raison des mécanismes de l’attention sélective, le cerveau humain a des difficultés à traiter simultanément deux pensées. C’est pourquoi penser une chose et son contraire n’est possible que de manière consécutive. Comme l’enseigne la philosophie chinoise ancestrale, la pensée progresse en mobilisant le jeu interactif et successif des idées opposées, en générant des contradictions bien plus riches que l’affirmation d’idées monolithiques. Cela signifie que la contradiction, au cœur des forces de la nature, peut également être un jeu naturel – bien qu’à stimuler – pour notre cerveau.

Toute pensée extérieure contradictoire est en effet un bon moyen de tester la solidité de sa propre pensée et d’en évaluer les limites. Comme au jeu de go, les décideurs doivent agir en faisant des choix dans un environnement en mouvement, dans le cadre de forces contraires, d’actions et de réactions, de risques et d’opportunités qui nécessitent une compréhension de la dynamique créée par la décision.

En période de crise, vérifier systématiquement si les décisions exactement opposées à celles que l’on envisage de prendre ne sont pas meilleures est un réflexe de sagesse qui peut permettre de décider avec plus de recul. Un tel réflexe aurait pu être utile à IBM, Kodak, Nokia et des milliers d’autres…

Quel avenir en matière de cybersécurité ? La question est légitime au vu de l’explosion de la cybercriminalité dans le monde. Dans un contexte où la transformation digitale ne cesse de s’accélérer, trois scénarios peuvent être envisagés. Trois modèles qui oscillent entre attaque et défense.

Deux facteurs majeurs vont déterminer l’évolution de la problématique de la cybersécurité au cours des dix prochaines années : le degré d’accélération de la transformation digitale et l’évolution de l’environnement extérieur au cyberespace (coopération entre Etats, respect de l’Etat de droit, conjoncture économique et sociale, stratégies gouvernementales mises en œuvre, etc.). Trois scénarios peuvent être envisagés, caractérisés chacun par des rapports de force différents entre l’attaque et la défense.

Le Moyen-Age digital, entre Etats faibles et pouvoir des brigands

Dans ce scénario, les progrès technologiques sont faibles. Les efforts d’un point de vue défensif sont dépassés par l’accélération de la menace en matière de cybersécurité. Il y a une faible coopération entre les Etats. Certains d’entre eux sont corrompus ou peuvent même tomber sous la coupe des mafias, à l’image des narco-Etats d’Amérique latine. L’attaque est en position avantageuse par rapport à la défense.

Un tel rapport de forces provoque un effondrement généralisé de la confiance. Le point de rupture n’est pas atteint car les cybercriminels n’ont pas intérêt à provoquer un écroulement du cyberespace, qui signifierait leur propre ruine. Et pour cause, il n’y aurait plus de cibles à attaquer. L’apparition d’une situation de type « Cybermaggedon », caractérisée par la multiplication des cybercatastrophes, a ainsi peu de chance de se produire – sauf situation éventuelle d’escalade entre Etats nations, ce qui appartient à une logique géopolitique propre. Ici, les délinquants restent maîtres du jeu.

Les conséquences économiques sont très lourdes. Les investissements des entreprises en matière de cybersécurité sont élevés et deviennent une priorité absolue. La qualité de mise en œuvre de dispositifs de protection efficaces devient même un des avantages compétitifs les plus critiques pour les entreprises. Dans ce scénario, la coopération entre les entreprises est très faible.

Mais l’impact va bien au-delà de la défense de l’entreprise. Dans le scénario du Moyen-Age digital, il est impossible d’assurer aux clients une parfaite confiance concernant la protection des données et des risques cyberphysiques (impact sur les objets, les personnes, etc.). Or la confiance en matière de protection des données personnelles est actuellement, et de loin, le premier frein à l’utilisation d’Internet. Le développement des smart cities, la diffusion de nouvelles technologies de soins, l’éducation à distance, pour ne citer que quelques exemples, seraient menacés. C’est bien l’accélération de la transformation digitale qui se trouverait finalement remise en cause et, par ricochet, la croissance économique, la création d’emplois et le bien-être des populations.

Responsables et Alliés : quand l’union fait la force

Dans ce scénario, il n’y a pas d’avancées majeures en termes de rupture technologiques mais on constate un essor de la culture de la cybersécurité qui limite les dégâts les plus graves, dans une situation de retour à un renforcement de l’Etat de droit et de la coopération internationale, constituant un facteur exogène important pour la cybersécurité . Les entreprises parviennent à mieux décoder les attaques : objectifs, cibles visées, voire identification précise des attaquants. Il est ainsi possible d’apprécier le niveau de risque et de mesurer l’impact financier de ces assauts. Les sociétés qui ont réussi à mettre au point des solutions défensives peuvent même décider de les commercialiser.

Ce contexte nouveau favorise l’émergence d’un réseau sécurisé de cyberdéfense : il intègre les entreprises mais aussi l’ensemble des acteurs impliqués (entreprises, institutions publiques, centres de recherche universitaires, start-up, groupes de cybersécurité privés, etc.). Le WhiteNet, pendant du DarkNet, se développe et se consolide.

La principale caractéristique de ce scénario est, en effet, l’apparition d’une coopération constante et soutenue entre les Etats afin de lutter contre la cybercriminalité. Cette collaboration porte sur l’échange de données, l’acceptation de standards communs et de bonnes pratiques, etc. Au niveau national, l’évolution du risque cyberphysique est vue comme une menace critique sur la croissance et de nouvelles législations, plus agressives, voient le jour et sont efficacement mises en œuvre.

Le WhiteNet offre un socle pour le développement de nouveaux business model. Pour les entreprises, l’intégration à un réseau de cyberdéfense devient un avantage clé : elles peuvent monétiser leur savoir-faire en matière de lutte contre les cyberattaques. De nouveaux acteurs enrichissent l’écosystème : sociétés de cyberassurances, agences de notation des risques cyber, qui facilitent la monétisation, etc. Dans ce scénario, la cybersécurité génère des cercles vertueux multiples : elle est source de création de valeur.

Le risque de cybercatastrophe est faible en raison de l’existence du WhiteNet et de la coopération internationale. Cependant, la menace ne disparaît pas car il n’y a pas de risque zéro. Si la probabilité d’une cybercatastrophe est très faible, le danger est surtout d’ordre géopolitique, en particulier dans la relation avec les Etats qui ne coopèrent pas pleinement dans le WhiteNet. Le risque demeure conséquent en cas d’affrontements entre Etats nations : certains d’entre eux pourraient recourir aux cyberarmes.

La principale contrainte pour les entreprises réside dans la difficulté à recruter des talents en l’absence de réelles ruptures technologiques, telles que la diffusion large de la programmation en méthode formelle ou des percées sur la Loi de Moore, voire sur le calcul quantique, qui permettraient des ruptures en termes de capacités de calcul. Cependant la diffusion de l’intelligence artificielle devrait permettre à moyen terme de pallier certains problèmes de recrutement pour les tâches à basse ou moyenne valeur ajoutée.

La Révolution Défensive : une nouvelle donne

Dans ce scénario, on assiste à la conjonction de trois éléments favorables :

– L’essor conjoint des technologies de simulation et d’automatisation permet de rompre l’asymétrie d’information traditionnellement en faveur de l’attaque. Le rapport de forces est définitivement modifié au profit de la défense. Résultat, le développement du WhiteNet et des nouveaux business model qui y sont associés se renforce.

– Les progrès enregistrés ont pour effet d’attirer les talents vers le monde de la cybersécurité : la pénurie est résorbée. Cette accélération de la formation du capital humain permet à son tour d’améliorer en permanence les technologies et de garantir la pérennité des dispositifs de protection. Parallèlement, dans les entreprises, la fonction du responsable de la sécurité des systèmes informatiques (RSSI), ou CISO (Chief Information Security Officer), est mieux valorisée.

– Dans ce contexte, on assiste à un changement de doctrine dans la coopération internationale. Un climat de confiance se développe auprès des consommateurs et les Etats préfèrent développer une approche défensive. La sécurité collective augmente. Cette nouvelle attitude contribue, à son tour, à renforcer le nouveau rapport de force favorable à la défense. Le risque géopolitique n’est jamais nul mais il y a, pour la première fois, une influence du système technique clairement en faveur de la défense, ce qui réduit au minimum le risque de conflit.

La capacité de nuisance des groupes cybercriminels est fortement réduite et la rentabilité de leurs activités s’effondre. Par ailleurs, on assiste à une baisse globale du coût de la cybersécurité, qui permet de réallouer la valeur ajoutée à d’autres activités et de favoriser la croissance. Il y a un réel effet de création de valeur.

Dans ce scénario, les entreprises doivent donc demeurer vigilantes et adapter leur stratégie. Le dispositif de protection est externalisé et la cybersécurité devient une « utility », comme l’eau ou l’électricité. La mission du RSSI évolue : il supervise les services externalisés, tout en veillant à ce que la culture de la cybersécurité au sein de l’entreprise soit maintenue et développée. Des exercices fréquents sont organisés, la capacité de défense est régulièrement validée par le biais de « stress tests » systématiques à tous les niveaux (humain, organisation, process, etc.). L’entreprise est en tension permanente. La formation des managers est un autre volet fondamental de cette nouvelle stratégie.

Développer avant tout une société de confiance

Ces différents scénarios mettent en évidence les grands facteurs d’évolution en matière de cybersécurité, qui vont permettre de basculer dans un univers ou un autre. Ils montrent également l’importance des interactions entre de multiples éléments, un phénomène insuffisamment pris en compte dans les analyses.

L’évolution de l’environnement économique et social de la planète sera un élément décisif pour déterminer l’avenir de la cybersécurité. Au cours des dix prochaines années, il y aura toujours le risque d’une nouvelle crise économique qui provoquerait une nouvelle hausse du chômage et une accentuation des inégalités. Ce retournement de l’activité empêcherait une vraie répartition des fruits de la transformation digitale. Ce contexte serait favorable à la montée des extrémismes et à l’utilisation d’Internet comme outil de combat politique. La coopération entre Etats, mais également entre entreprises, s’en trouverait affectée et, par ricochet, le développement d’une société internationale de confiance.

La technologie en elle-même ne sera pas la seule réponse. Elle doit être intégrée à des stratégies plus globales d’approche défensive. Surtout, le changement ne pourra se concrétiser que si, parallèlement, se développe une société de confiance, tant au niveau international que national. Si les consommateurs ont le sentiment qu’une société hyperconnectée ne peut assurer la protection des données, les ruptures technologiques seront un coup d’épée dans l’eau.

Enfin, la coopération internationale n’est pas une panacée en soi. Le piège consisterait à développer une régulation excessive. Le travail en commun des Etats n’a de sens que si celui-ci a pour effet de créer un cadre suffisamment souple et protecteur pour que l’initiative privée puisse se développer dans un contexte sécurisé. Un excès de régulation pourrait, paradoxalement, nuire à la cybersécurité.

Dans tous les cas de figure, la meilleure arme défensive demeure la collaboration entre l’ensemble des acteurs impliqués dans le cadre du WhiteNet. Cet outil est à la fois une arme défensive efficace, une source de création de valeur et un moyen d’attraction des talents. Les entreprises ont un rôle majeur à jouer dans l’émergence de ce WhiteNet et dans l’élaboration d’une réponse à la cybercriminalité.

Comment être persuasif et obtenir ce que vous désirez en six leçons.

Le prix Nobel d’économie a été attribué, en 2017, à Richard Thaler, pour ses travaux en économie comportementale, qui décryptent notamment en quoi des mécanismes psychologiques et sociaux influencent les décisions des consommateurs ou des investisseurs. L’économiste américain de 72 ans s’inscrit ainsi également dans le champ de la psychologie sociale. Dans ce domaine, plus d’un siècle de recherches a abouti à des enseignements intéressants, largement présents dans l’œuvre de Richard Thaler et résumés en 6 principes d’influence par le psychologue américain Robert Cialdini.

1- Donnez ce que vous voulez recevoir

« Nous nous sentons obligés de rendre les services qui nous ont été rendus, explique Robert Cialdini. L’application : donnez ce que vous voulez recevoir. » C’est le principe de réciprocité. Si vous faites un geste envers l’autre, celui-ci sera plus enclin à en faire un autre en retour. Et plus le geste est perçu comme qualitatif, plus le retour est important. Ainsi, avant d’aborder un échange avec un interlocuteur, faites la listes des gestes qualitatifs que vous pourriez faire à son encontre. Et focalisez-vous sur ceux qui pourraient vous permettre d’obtenir un retour qui aille dans le sens de l’influence que vous souhaitez exercer sur lui.

2- Valorisez votre expertise

« Nous attendons des spécialistes qu’ils nous disent quoi faire. L’application : montrez votre expertise, ne supposez pas que votre propos est évident par lui-même. » Dès les années 1960, le psychologue Stanley Milgram avait réalisé une série d’expériences illustrant ce principe d’autorité : les participants n’hésitaient pas à électrocuter (fictivement mais ils l’ignoraient) des complices du chercheur car ils avaient l’aval d’une autorité médicale. En 2009, « Le jeu de la mort », un documentaire diffusé sur France 2, refit la même démonstration. Pour actionner ce levier, identifiez en quoi vous avez un statut d’autorité auprès de vos interlocuteurs, ou à défaut à quelle(s) personne(s) ou élément(s) faisant autorité vous pouvez vous référez.

3- Mettez en évidence les similitudes que vous avez avec les autres

« Plus nous apprécions les gens, plus nous sommes enclins à leur dire oui. L’application : mettez au jour les similitudes réelles avec les autres et délivrez des appréciations authentiques. » Robert Cialdini appelle tout simplement ce principe la « sympathie », et en délivre deux clés : les points communs, qui rapprochent, et les expressions positives, qui instaurent une dynamique d’échanges favorable. Dans cette optique, Jodi Glickman, conférencière et spécialiste de la réussite professionnelle, formule huit conseils faciles à appréhender : facilitez la vie des autres, anticipez les étapes des projets auxquels vous participez, allez à l’essentiel, partagez facilement les informations, engagez le dialogue seulement après avoir demandé à l’autre s’il en a le temps, félicitez facilement, partagez votre temps et votre expertise, assumez collectivement les échecs et reconnaissez individuellement les réussites.

4- Evoquez vos « avantages uniques »

« Plus une ressource est rare, plus nous la désirons. L’application : mettez en avant des avantages uniques et des informations exclusives. » L’or est le symbole même du métal précieux. Pourtant, il en est un autre, encore plus cher, le platine : 31 100 euros le kilo pour le premier contre 35 245 euros le kilogramme pour le second. Qu’est-ce qui explique cet écart ? Leur différence de volume de production : 2 500 tonnes par an pour le premier contre 200 tonnes pour le second. C’est le principe de rareté, valable pour les métaux comme pour la communication interpersonnelle. Ainsi, plus ce que vous proposez apparaît comme spécifique, unique ou exclusif aux yeux de vos interlocuteurs, plus cela vous donne de l’ascendant.

5- Utilisez la puissance de la recommandation par les pairs

« Nous utilisons les actions des autres pour déterminer notre propre comportement. L’application : utilisez la puissance de la recommandation par les pairs à chaque fois que celle-ci est disponible. » En 2009, le Trésor public anglais a mis en œuvre ce principe. Avec son arsenal habituel de relances et de pénalités, ses résultats atteignaient 57% de recouvrement. Grâce à l’ajout de messages précis soulignant que l’immense majorité des contribuables payaient à temps, ce taux est passé à 86 %. Inspirez-vous de cette réussite et utilisez l’exemples des autres pour aller dans le sens de vos messages.

6- Faites prendre des engagements

« Nous voulons que notre conduite soit cohérente avec nos valeurs. L’application : faites prendre des engagements clairs, publics et volontaires. » Robert Cialdini nomme ce principe la « cohérence dans l’engagement ». Nous préférons adopter, au fil du temps, des comportements successifs cohérents les uns avec les autres. Ainsi, pour inciter un interlocuteur à telle ou telle action, rappelez-lui ses actions antérieures de la même veine. Amenez-le également à exprimer des engagements clairs et formels, ce qui l’encouragera à les tenir.