Inquiets du réel ? Réveillons-nous !

InquietIl y a ceux qui ne peuvent plus se passer de ChatGPT, surtout les jeunes, pas seulement ceux qui veulent tricher à l’école, mais aussi tous ceux qui ont compris tout ce que cette IA générative peut leur permettre de faire, trouver des idées, traiter des textes, créer des images, etc.

Et puis il y a ceux qui n’ont jamais osé y toucher, ou même y voient un danger (pour la démocratie, pour la planète, pour la santé mentale, peu importe), ou alors qui considèrent qu’ils n’en tireront rien pour eux personnellement (oui, là on a affaire aux plus seniors d’entre nous).

Alors, quand vous rencontrez un dirigeant ou un manager d’une grande entreprise, qui a la responsabilité d’encadrement de plusieurs centaines de collaborateurs, y compris des jeunes forcément, vous vous demandez ce qu’il en pense.

C’était ma découverte de la semaine, en rencontrant plusieurs dirigeants.

Il y ceux qui s’en méfient ou qui en sont déjà les victimes avec leurs enfants :

« Je ne connais pas grand-chose à l’intelligence artificielle. Ce que je sais, c’est qu’avant, en tant que chef de famille, j’étais l’expert pour corriger les fautes d’orthographe de mes enfants ; aujourd’hui ils font ça avec ChatGPT. ChatGPT m’a tué ! ».

« J’ai vu un philosophe sur internet qui disait que l’IA n’était pas du tout intelligente. J’ai compris que cela provoquait plutôt un appauvrissement du cerveau. Je fais bien de m’en éloigner ».

Il faut dire que la littérature et le cinéma n’aident pas trop à valoriser l’IA, la plupart des romans sur le sujet étant dystopiques.

Nathan Devers, auteur en 2019 du roman « Les liens artificiels » sur le Metaverse, en donnait son interprétation dans Le Figaro du 11/02/2024 :

« Je pense que ce sont des inquiets du réel. (…). La littérature de l'IA est liée à l'absurdité du réel, des cassures qui n'ont rien à voir avec l'IA en tant que telle mais avec des passions, des dynamiques qui sont en nous. Le chapitre 4 du Peintre de la vie moderne est particulièrement éloquent. Il s'interroge sur la position de l'artiste quand il voit un phénomène moderne. Baudelaire donne l'exemple des robes noires qui étaient à la mode en son temps. Il dit qu'il ne faut jamais chercher l'expression du transitoire mais voir la passion éternelle qui se cache derrière la mode. C'est exactement le regard qu'il faut porter sur la vie du virtuel. Ce qui est à l'œuvre, ce sont des passions intemporelles : la peur de s'ennuyer avec l'addiction aux écrans, le narcissisme avec le selfie, la volonté de penser de manière communautariste avec Twitter, la mécanisation de nos esprits pour ChatGPT, etc. Ce serait une erreur de perception littéraire de croire que les phénomènes de la modernité (les écrans, l'IA, tous les autres) posent des questions nouvelles ». 

Mais il y a quand même une prise de conscience de plus en plus forte, qui résiste à ces passions intemporelles pour parler du concret, et cela rend plutôt optimiste pour l'avenir :

« J’ai passé une demi-journée à fouiller dans les statistiques d’accidents du travail pour aller en catégoriser les causes et préparer les plans d’actions. Je me demande si l’IA n’aurait pas pu m’aider ».

« J’ai encore 3.948 mails non lus dans ma boite mail aujourd’hui, et souvent ce sont des mails où je suis en copie ; je n’ai rien à faire, à part être informé, et y perdre du temps. Peut-être que l’IA pourrait m’aider à trier et à répondre dans tout ça, non ? ».

Pour ces dirigeants qui ont tout compris, mais ne savent pas trop par où commencer, il est de plus en plus urgent que nos entreprises prennent au sérieux l’acculturation, la formation, et l’aide à la mise en place des projets concrets qui vont permettre de vraiment bénéficier des avancées de l’intelligence artificielle générative et du machine Learning. Cela ne se fait pas en claquant des doigts ; les infrastructures, les algorithmes, ne se construiront pas tout seuls. L’écosystème de tous ceux qui peuvent contribuer s’élargit chaque jour.

C’est aussi le rôle des Think Tank comme « 4ème Révolution » de mettre en évidence les opportunités, et de créer les rencontres entre ceux qui s’y sont mis et les autres. Car la transmission est aujourd’hui non pas de haut en bas de la hiérarchie, mais entre pairs, de l’extérieur vers l’intérieur, de façon transversale, et aussi intergénérationnelle, les plus jeunes ayant plein de choses à apprendre aux seniors, qui eux-mêmes, pourront transmettre leurs savoirs et expériences dans des versions 3.0 grâce justement à ces technologies.

Pour tous ceux qui se sentent un peu trop « inquiets du réel » ou victimes sidérées de « passions intemporelles », ne nous laissons pas démoraliser par la littérature dystopique ; c’est le bon moment de se réveiller, ou d’accélérer.

Les pionniers montrent la voie, et ils sont de plus en plus nombreux.

Nous ne sommes pas seuls.


Le dataism va-t-il avoir raison de notre raison ?

PenserGrâce à la raison, et à la logique, on a pensé qu’il était possible de décider en toute connaissance de cause, grâce à la réflexion rationnelle. Mais cela a aussi été de plus en plus difficile.

Déjà, au XVIIème siècle, Balthasar Gracian dans ses maximes (« L’homme de cour ») l’avait remarqué :

« Il faut aujourd’hui plus de conditions pour faire un sage qu’il n’en fallut anciennement pour en faire sept : et il faut en ce temps plus d’habileté, pour traiter avec un seul homme, qu’il n’en fallait autrefois pour traiter avec tout un peuple ».

Jacques Birol, dans son ouvrage « 52 conseils éternels d’après les maximes de Balthasar Gracian » (2011), dont j’avais déjà parlé ICI, reprenait cette maxime pour nous convaincre que la rationalité pure ne permettait pas de décider correctement, et qu’il fallait faire entrer en ligne de compte les émotions, car elles seules nous permettent de vraiment décider dans l’incertain.

Mais voilà, ça, c’était avant. Avant l’IA générative, avant les « Big Data », avant ce qui a été appelé le « dataism ».

L’expression date de 2013, utilisée par David Brooks dans un article du New York Times.

En gros, il était déjà convaincu que grâce à la profusion des données et statistiques, on serait capable de prendre les meilleures décisions et de vivre mieux. L’intuition et les émotions seraient alors devenues d’un autre temps ; on n’en aurait presque plus besoin. Au revoir Balthasar Gracian et Jacques Birol. L’incertain n’existe plus : place au « dataism ».Nous allons pouvoir, grâce à la profusion des données, en extraire toutes les informations qui nous sont utiles, et que nous étions auparavant incapables de détecter.

Le concept a bien sûr été encore amplifié par Yuval Noah Harari dans son best-seller « Homo Deus » (publié pour la première fois en hébreu en 2015, puis traduit dans le monde entier) qui voit dans le « dataism » une nouvelle religion, la religion de la data, qui permettra d’accroître le bonheur de l’humanité, son immortalité (on parle maintenant non plus d’immortalité, mais, dans une conception transhumaniste du monde, d’ « amortalité », c’est-à-dire de conserver les données du cerveau et de la personne, au-delà de la mort du reste du corps lui-même, grâce à un « téléchargement de l’esprit ») et sa divinité. Car l’homme ainsi transformé devient un nouveau Dieu.

Dans cette vision « dataiste », l’homme est finalement considéré comme un jeu d’algorithmes qui peuvent être perfectionnés à l’infini, grâce à l’accès aux data. D’où l’idée, pour les plus acharnés, de donner accès aux data à tous pour le bienfait de l’humanité, données publiques comme données privées.

Le dataism a aussi ses martyrs comme Aaron Swarts, le premier hacker célèbre, parfois un peu oublié aujourd’hui.

Partisan de la liberté numérique et défenseur de la « culture libre » il se fait notamment connaître lors de ce qui a été appelé « L’affaire JSTOR » : En 2011, il est accusé d’avoir téléchargé illégalement la quasi-totalité du catalogue de JSTOR (agence d’archivage en ligne d’articles et publications scientifiques), soit 4,8 millions d’articles scientifiques, ce qui a fait s’effondrer les serveurs et bloquer l’accès aux réseaux par les chercheurs du MIT. Il est alors menacé de poursuites et de 35 ans de prison. A 26 ans, en janvier 2013, il se suicide par pendaison dans son appartement, un mois avant son procès pour « fraude électronique ».

Le développement du « dataism » n’et pas terminé. Il conduit aujourd’hui à considérer que ce sont les algorithmes « électro-biologiques », c'est à dire les algorithmes du vivant, qui mêlent la technologie et la biologie, qui domineront les humains « organiques ».

Les plus pessimistes (ou réalistes ?) voient dans ces évolutions une nouvelle classification des humains entre ceux qui auront accès à ces capacités techniques et les autres, le passage d’une catégorie à l’autre étant de plus en plus difficile, voire impossible.

Allons-nous vraiment perdre la capacité à penser en la confiant à des machines et au « dataism » ?

On peut essayer de se consoler en observant les comportements du passé.

Dans un journal de 1908, le Sunday Advertiser de Hawai, on pouvait lire :

« N’oubliez pas comment marcher
Le tramway, l’automobile et le chemin de fer ont rendu la locomotion si facile que les gens marchent rarement. Ils se rendent au magasin, au théâtre, à la boutique, au lieu de villégiature, de la campagne à la ville, d’une rue à l’autre, jusqu’à ce que la marche devienne presque un art perdu. Dans une génération ou deux, nous aurons oublié comment utiliser nos jambes. L’homme est par nature un animal qui marche".

Et pourtant nous n’avons toujours pas perdu l’usage de nos jambes.

Une bonne nouvelle pour notre cerveau et notre capacité à penser.

Il faudra juste, peut-être, apprendre à penser autrement grâce à l’intelligence artificielle et l’accès aux data.

Il est temps de s'y mettre alors, pour ne pas risquer d'être "déclassifié", ou "déclassé". 


L’intelligence artificielle va-t-elle tuer la littérature ? Ou la faire renaître ?

LittératureFace au développement de l’intelligence artificielle, ceux qui étaient dans des métiers de créativité, comme les artistes, les auteurs, pouvaient penser qu’ils n’étaient pas vraiment concernés.

Et voilà qu’on apprenait que Rie Kudan, auteur japonais récompensé par le prix Akutagawa (l’équivalent de notre prix Goncourt), a révélé avoir utilisé l’intelligence artificielle générative pour écrire « environ 5% de son livre ».

Et elle s’est justifiée en disant que cette aide de l’intelligence artificielle l’avait aidée à « libérer sa créativité ».

Mais face à cette utilisation de l’IA, d’autres prennent peur. Ainsi les scénaristes d’Hollywood s’étaient mis en grève pour protester contre les scénarios produits par l’IA. Ils ont fini par trouver un accord avec les plateformes et les studios pour augmenter leur rémunération tout en autorisant l’usage de l’IA pour les premières ébauches des scénarios, mais en garantissant leurs jobs.

Mais la tendance à produire des écrits et œuvres de fiction par l’IA générative ne semble qu’à ses débuts. Ainsi, Kindle Direct Publishing, la plateforme d’autoédition d’Amazon, reçoit des tas de livres chaque jour générés par l’intelligence artificielle. Pour réagir, Amazon a décidé de limiter à trois titres par jour le nombre de publications d’un même auteur et oblige maintenant les auteurs à préciser si une IA a été utilisée.

Alors les auteurs sont-ils condamnés à disparaître à cause de l’intelligence artificielle ?

Nathan Devers, qui avait écrit un roman sur l’emprise des réseaux sociaux et du metaverse, « Les liens artificiels » en 2022, à 24 ans, avance une autre hypothèse, plus optimiste, dans une interview pour Le Figaro du 15 février :

« Grâce aux défis que ChatGPT nous lance, nous allons être amenés à retrouver plus de singularité dans notre création littéraire. La littérature doit casser les habitudes de pensée, les visions toutes faites, les algorithmes idéologiques. Que l’IA fasse des merveilles renforce sa mission : rechercher l’imprévu. S’émanciper des attendus de l’époque. Si la littérature aspire à rester profondément humaine, elle doit s’émanciper des tutelles, des rouages anonymes que la société veut lui imposer. C’est là l’enjeu pour la littérature des prochaines décennies ».

Comme en d’autres temps et pour d’autres métiers, la littérature est confrontée au progrès de l’automatisation, et c’est en étant capable de se dépasser qu’elle survivra. Nathan Devers évoque la révolution industrielle du XIXème siècle, qui a mécanisé le travail manuel, mais n’a pas fait disparaître l’artisanat. Ou la photographie, qui n’a pas fait disparaître la peinture, mais au contraire a permis de sortir de la reproduction du réel et de faire émerger l’impressionnisme ou le surréalisme.

Alors, grâce aux défis de l’intelligence artificielle, allons-nous voir une nouvelle littérature encore meilleure ?

Rendez-vous dans les librairies !


Réputation régulée ?

ReputationPour faire respecter la loi, et considérant que la nature humaine est principalement animée par des intérêts égoïstes, un bon système inventé de longue date est celui de manipuler ces intérêts à travers des châtiments et des récompenses.

C’est comme ça qu’on enlève des points de permis aux mauvais conducteurs qui se sont faits surprendre par les radars en excès de vitesse (ça ne date que de juillet 1992 en France).

Mais ce système de points peut aussi jouer avec la réputation : on a des points sur TripAdvisor pour le restaurant, mais aussi dans des like sur les réseaux sociaux. C’est devenu universel. C’est la course aux « like ».

Quand on pense au phénomène, on pense bien sûr aussi à la Chine, qui a sophistiqué le système avec le mécanisme de crédit social.  On peut en retracer le développement dans la contribution de Séverine Arsène, du Medialab de Sciences Po, dans le recueil « Penser en Chine » sous la direction d’Anne Cheng.  

Cela date du début des années 2000, pour rendre plus efficace le « gouvernement par la loi », en codifiant les règles pour apporter plus de prévisibilité, de clarté et de confiance dans les relations sociales et économiques.

Et ce qui permet de construire ce gouvernement c’est bien sûr la disposition d’une masse importante de données sur les citoyens et aussi les entreprises. Il consiste donc à construire des barèmes pour permettre d’évaluer le « crédit » des résidents dans une ville (ce sont les municipalités qui ont mis en place ces systèmes de points). Ces barèmes peuvent comprendre des dizaines voire de centaines d’indicateurs issus des données. En fait, ces systèmes, paradoxalement, n’ont pas grand-chose à voir avec l’intelligence artificielle, mais sont construits à partir de données disponibles dans les administrations (Impôts, Transports, …), mettant en évidence des défauts de paiement, ou des infractions à la règlementation, qui font l’objet de sanctions. Ce qui est subtil, c’est l’établissement de « listes noires » sur les citoyens sanctionnés qui sont rendues publiques. Cela vaut aussi pour les entreprises. Les individus et entreprises sur liste noire peuvent alors faire l’objet de contrôles plus fréquents, se voir interdire certains emplois, voire être soumis à des restrictions concernant les dépenses somptuaires (acheter un billet d’avion, jouer au golf). Le fait de rendre ces listes publiques a pour but d’utiliser la réputation comme levier pour convaincre les citoyens de mieux respecter la loi.

Séverine Arsène cite le « Rapport d’analyse annuel sur les listes noires de personnes malhonnêtes » de 2018, produit par le Centre national chinois d’information sur le Crédit social public. Le système de sanctions a permis de mettre sur listes noires 3 594 000 entités (individus ou entreprises), dont un million a l’interdiction de participer à des appels d’offres. Du côté des tribunaux, ce sont 17,46 millions de personnes a qui il a été interdit de réserver des billets d’avion.

Le système est moins high-tech qu’il n’y paraît. Il n’utile pratiquement pas les technologies de Big Data, ou l’intelligence artificielle. Il utilise des données déjà collectées par les administrations dans le cours normal de leurs activités, qui peuvent quand même représenter des centaines de points de données pour un individu. L’intervention humaine, et non la machine, est partout : établissement des barèmes dans les systèmes de notes de crédit personnel, seuil de gravité des délits qui conduisent à l’inscription sur les listes noires. Les notes de crédit personnel sont donc établies à partir de barèmes très simples, et non par des algorithmes, comme nombreux le suspectent sans trop bien connaître le système.

Par ailleurs, des entreprises privées ont mis en place un « marché » du Crédit social, en proposant des services commerciaux et facultatifs de notes de crédit personnel, qui ressemblent à des programmes de fidélité et viennent ainsi compléter la fonction de signal exercée par les notes de crédit public (ça se rapproche de ce que l’on constate ailleurs dans le monde, y compris en France). Des entreprises privées ont aussi développé des solutions pour la gestion et la visualisation des données. Exemple d’une application qui permet de visualiser sur une carte les restaurants qui n’ont pas respecté la règlementation sur l’hygiène.

On peut évidemment se poser la question de savoir si ces systèmes encouragent vraiment les citoyens à corriger leurs comportements vis-à-vis de la loi. Séverine Arsène met en doute l’efficacité, considérant qu’une grande partie des délits sont d’ordre économique (non-paiement de factures, emprunts ou amendes) et que l’exclusion de nouvelles opportunités rend en fait encore plus difficile l’exécution des mesures demandées (sauf à considérer que le fait de ne pas payer les factures correspond exclusivement à une mauvaise volonté).

En fait, ce que l’on observe dans le monde des plateformes numériques et réseaux sociaux ressemble un peu, dans son principe, à ce régime chinois finalement. Comme le souligne l’auteur : « La prolifération des bases de données et la croissance exponentielle des capacités de calcul, le rôle croissant des sociétés privées dans la maîtrise de ces instruments, et le manque de contrôle démocratique sur leur capacité d’influence, constituent des tendances préoccupantes dont la Chine nous montre l’une des facettes possibles ».

Peut-être que ce qui se passe en Chine n’est que l’anticipation d’une voie que nous allons aussi connaître (que nous connaissons déjà ?), le marché privé prenant la place, avec les mêmes intentions, que le Crédit social public. Ou un mélange des deux.

De quoi nous interroger sur le rôle que la manipulation de la réputation va avoir sur l’autodiscipline et les comportements des citoyens et des consommateurs, mais aussi, bien sûr dans le domaine politique.

2024 va être passionnante, non ?


Mais non, la quatrième révolution ne va pas vous guillotiner, Madame !

PeurAAAvec l’intelligence artificielle et les nouvelles technologies dites exponentielles, on est maintenant dans ce que l’on appelle la quatrième révolution industrielle.

Lors d’un échange récent avec une dirigeante d’un grand groupe de services, celle-ci, à qui j’évoque cette « 4ème révolution », me rétorque : « 4ème révolution ! Cela fait peur. Vous voulez nous guillotiner ? ».

Oui, en 2023, la quatrième révolution n’est pas encore complètement familière, même à nos dirigeants, et fait même peur à certains. D’où l’intérêt, plus que jamais, de fréquenter les Think Tank qui créent les occasions et les rencontres, comme « 4ème Révolution », pour ne pas perdre pied.

On dira que cette année 2023 aura été l’année de l’intelligence artificielle. Ce concept est pourtant né il y a pas mal d’années, dans les années 50. Mais il est devenu très présent en 2023 avec l’essor de l’IA générative et ChatGPT, mis en ligne le 30 novembre 2022. Depuis, une compétition s’est engagée entre les entreprises installées et les start-up pour développer et créer les usages autour de ces technologies. Même les plus jeunes s’y mettent, et lancent leurs entreprises de formation et de mentoring en IA dès 16 ou 17 ans, tout contents d’inonder LinkedIn de leurs posts et découvertes.

Dans le supplément « Sciences et médecine » du Monde du 27 décembre, David Larousserie consacre un article pour rappeler tout ce qui s’est passé dans ce domaine en 2023 grâce à l’intelligence artificielle, comme par exemple l’identification de malformations cardiaques précoces sur un fœtus. C’est aussi en mai 2023 que Google et sa filiale DeepMind ont annoncé que les réponses de leur logiciel MedPalM-2 à des questions médicales étaient jugées meilleures, par des humains, que celles de vrais médecins. De quoi faire réfléchir sur le rôle des médecins et leur collaboration avec l’IA demain.

C’est encore DeepMind qui, en novembre, présentait un simulateur de la météo à dix jours plus rapide que les supercalculateurs actuels, et avec plus de précisions que le High Resolution Forecast (HRES), le système de simulation météorologique de référence de  l’industrie.

On constate aussi en 2023 combien la recherche en sciences et médecine a en partie échappé à la communauté scientifique pour se jouer dans les entreprises privées et les start-up. David Larousserie cite ce chiffre de 40% des exposés dans les conférences qui sont issus de laboratoires privés (le double de ce qu’ils étaient en 2012). De quoi faire réfléchir le monde académique sur son avenir, et le besoin de collaboration avec les entreprises privées.

Ce qui fait peur à certains, et qui enthousiasme d’autres, avec cette IA générative et ChatGPT, c’est qu’on ne comprend pas comment il fonctionne réellement. Il est construit pour apprendre à prédire le prochain mot d’une phrase, à partir d’une quantité gigantesque de textes qu’on lui présente. Mais alors comment fait-il pour induire les règles de l’arithmétique, du codage informatique, et à tout problème qu’on lui présente en langage courant ?Hugues Bersini, directeur du Laboratoire d’intelligence artificielle de l’Université libre de Bruxelles et membre de l’Académie royale de Belgique, y consacre une tribune dans ce même numéro du Monde (27/12) et le dit clairement : « Il devient inapproprié, même inconvenant, de s’obstiner à dire, comme on le lit trop souvent, que ChatGPT est incapable de raisonnement. Reconnaissons-le, il comprend et raisonne mais, malheureusement, d’où la naissance du malaise, d’une manière qui nous est, à nous, devenue parfaitement incompréhensible. Comment un prédicteur statistique du mot qui suit dans une phrase peut-il se retrouver à résoudre des problèmes logiques, mathématiques et informatiques d’une telle complexité ? ».

Ce qui permet cette « magie », c’est bien sûr la puissance de calcul à laquelle on a aujourd’hui accès.

Hugues Bersini : « Quelque chose de magique se produit dans ces milliards de paramètres, ces centaines de couches neuronales qui s’adaptent d’eux-mêmes pour composer ces gigantesques modèles de langage ».

Forcément cette magie attire les jeunes générations qui y voient, pleins d’optimisme, une façon de participer à la plus grande révolution de l’histoire de l’humanité, à un tournant dans l’histoire de l’humanité. Ce sont le genre de remarques que font les jeunes de San Francisco qui font l’objet de l’article de Corine Lesnes, dans ce même numéro du Monde.

Il s’agit d’un nouveau quartier de San Francisco, baptisé du surnom de « Cerebral Valley », où sont venus s’installer de nouveaux « techies » de l’IA, successeurs de ceux de la Silicon Valley. Et, alors que les géants de la Silicon Valley continuent à dégraisser, les start-up de l’IA recrutent. Terminé la bulle « dot.com », on est maintenant dans l’effervescence « dot.ai ».

Dans cette nouvelle ère, coder, qui était l’apanage des seigneurs de la tech il y a encore dix ans, est devenu sans importance. Avec les LLM (Large langage model), grands modèles de langage, « le concept entier de programmation d’ordinateurs va, à terme, être remplacé » souligne une des « techies » en question, Gloria Felicia (28 ans), créatrice d’entreprises de cette nouvelle génération. Elle a notamment fondé la start-up Menubites.ai, qui propose aux petits restaurants des photos embellies par l’IA pour leur permettre d’afficher les plats sur leur site internet sans passer par des photographes professionnels.

Elle est enthousiaste : « Pour la première fois, nous sommes confrontés au fait que les ordinateurs, sous une forme ou une autre, deviennent plus intelligents que la plupart des humains ».

Toute cette jeunesse évoquée dans l’article manifeste cette confiance dans l’avenir radieux et harmonieux promis aux humains. L’un d’eux prédit : « Les citoyens auront leur propre IA qui travaillera et gagnera de l’argent pour eux. Ils ne seront plus des consommateurs, mais des producteurs ».

Un autre : « Nous sommes face à quelque chose qui est plus grand que nous. C’est juste le début ».

Que cet optimisme puisse se propager et essaimer en 2024. On en aura besoin.

Mais non, la quatrième révolution ne va pas vous guillotiner, Madame !


Narcisse blessé par l'intelligence artificielle

NarcisseOn connaît Narcisse, qui, dans la mythologie grecque, adore admirer son reflet dans un lac, à tel point qu’il finit par tomber dedans et s’y noyer.

De là vient l’adjectif « narcissique », qui désigne une personne qui s’aime de manière démesurée, du moins en apparence.

C’est Freud, dans son « Introduction à la psychanalyse » (1916), qui parle alors de « blessure narcissique » pour évoquer les détériorations de l’amour que nous avons pour nous-mêmes.

 Freud évoque en fait l’humanité tout entière qui se serait vu infliger par la science trois blessures narcissiques, qui ont fait chavirer la conviction que l’Homme était au centre de l’Univers.

Première blessure : Non, nous dit Copernic, la terre n’est pas au centre de l’univers, mais ne forme qu’une parcelle insignifiante du système cosmique, dont nous pouvons à peine nous représenter la grandeur.

Deuxième blessure : Non, nous dit la recherche biologique, et Darwin, l’homme n’a pas une place privilégiée dans l’ordre de la création, et sa descendance animale démontre qu’il n’est qu’un animal parmi les autres.

Troisième blessure : C’est la psychanalyse, et donc Freud, qui nous montre que «Le Moi n’est pas maître dans sa propre maison », et que cette maison, autrement dit la psyché humaine, est régie par l’omnipotence de l’inconscient. Même si certains ont fait remarquer que la psychanalyse n'était peut-être pas tant une science que ça.

Mais on est peut-être confronté aujourd’hui à une quatrième blessure narcissique.

Quelle est donc cette quatrième blessure narcissique ?

C’est l’hypothèse de Catherine Malabou, philosophe experte de Hegel et des neurosciences : L’intelligence artificielle est la quatrième blessure narcissique de l’humanité, en venant challenger l’homme sur ce qu’il pensait exclusif de sa personnalité, son intelligence. L’intelligence artificielle est « la capture de l’intelligence par sa propre simulation ».

Elle exprime l’évolution de sa pensée dans les quelques lignes de la préface de l’édition 2021 de son ouvrage, « Métamorphoses de l’intelligence » :

« Il m’a fallu beaucoup de temps pour parvenir à appréhender lucidement mais avec une relative sérénité les métamorphoses de l’intelligence. A travers elles, je retrace mon propre parcours. J’ai moi aussi résisté au devenir artificiel. J’ai moi aussi longtemps opposé la plasticité du cerveau à la rigidité de la machine. Je reconnais aujourd’hui mes erreurs et pose un regard nouveau sur cette opposition qui, du même coup, tend à s’effacer ».

Pour elle, nous devons aujourd’hui accepter cette quatrième blessure narcissique et réinventer une nouvelle forme de confiance en la machine, pour créer les coopérations et accepter de perdre le contrôle, et passer à une « construction démocratique de l’intelligence collective » où la machine a aussi sa place.

Dans cette construction, la frontière historique que l’on mettait entre intelligence humaine et IA est en train de disparaître. Et il ne s’agit d’en avoir peur mais de trouver ces nouvelles coopérations.

Pour Catherine Malabou, Laurent Alexandre et Harari se trompent :

« Laurent Alexandre, Harari et son livre Homo Deus… Ces gens-là ne font qu’écrire et dire ce que la foule veut entendre. Or, je ne pense pas qu’on puisse écrire quoi que ce soit de pertinent à partir d’une sorte de peur. La peur n’est jamais un moteur intellectuel. Il vaut mieux essayer de comprendre la complexité plutôt que d’agiter les peurs. »

La 4ème révolution industrielle sera celle qui comprendra cette complexité.


Véhicules autonomes : un futur assombri par des cônes de chantier ?

SAFE-STREET-REBEL-CONESQuand on se prête à un exercice de prospective pour anticiper ce que pourrait être notre environnement contextuel à horizon dix ans, pour la société et nos entreprises, on n’échappe pas à une vision futuriste du développement des technologies, avec partout de l’intelligence artificielle, des robots, et bien sûr, des véhicules autonomes. Pour certains c’est un futur très désirable, source de progrès et d’innovations. Pour d’autres, les rebelles, en révolte contre la technologie, c’est une tendance à combattre.

On a déjà connu ça au XIXème siècle avec la révolte des Canuts, ouvriers tisseurs de soie, à Lyon, en 1831, qui ont cassé les machines à tisser en signe de protestation.  Ce sont quand même les machines qui ont gagné la bataille.

Mais ce style de révolte n’a pas disparu.

Prenez les voitures autonomes. Elles commencent à circuler, notamment en Chine qui est le premier pays à autoriser la circulation de voitures autonomes dans certaines de ses villes. Et la circulation de robots taxis sans conducteur est déjà une réalité à Pékin.

Mais à San Francisco, une parade a été trouvée par les rebelles pour empêcher les robots taxis de la compagnie Waymo et de Cruise de circuler.

Cela consiste à placer un cône de chantier sur leur toit, en signe de protestation contre la circulation de tels véhicules en ville.

Les rebelles agissent la nuit, en plaçant ces cônes sur les toits. Résultat : le véhicule allume ses feux de détresse et s’arrête en pleine voie. Et il faut l’intervention d’un technicien pour les faire redémarrer.

Pour le collectif Safe Street Rebel, pro-piéton et pro-vélo, il s’agit en fait de s’opposer à tout type de voitures, qui que soit le conducteur, autonome ou pas. Mais cette contestation des véhicules autonomes grandit. Ils sont aussi accusés par le chef des pompiers de San Francisco d’empêcher la circulation des véhicules d’urgence et des bus.

Et les rebelles ont encouragé les habitants à les suivre dans ces actions de blocage des véhicules et à faire de même, grâce à des tutoriels diffusés sur les réseaux sociaux.

La contestation porte aussi sur la revendication d’un « droit à la ville », afin de bloquer l’empiètement des entreprises sur la ville.

En Europe, la pénétration des voitures autonomes est encore en retard. La législation européenne n’autorise que les véhicules de niveau 3 (sur 5), c’est-à-dire avec un humain derrière le volant quand même : il n’a pas besoin de tenir le volant, mais seulement en cas d’absence de piétons sur la voie, et s’il circule à moins de 60 km/h.

Alors, l’horizon de ce niveau 5 de l’autonomie des véhicules n’est-il pas en train de reculer, voire de disparaître ?

Déjà, au niveau technique, les constructeurs eux-mêmes ont des doutes :

C’est Luca de Meo, Directeur Général de Renault, qui déclarait déjà en octobre dernier : « Le véhicule autonome de niveau 5, je pense que c’est une utopie. […] On travaille sur la voiture autonome mais je n’ai vraiment pas envie d’être le premier constructeur à en mettre une sur le marché… ».

Si maintenant ce sont les rebelles aux cônes de chantier qui s’y mettent, on devient moins optimistes.

Voilà de quoi construire des scénarios prospectifs différenciés.

La quatrième révolution industrielle n'est pas encore complètement écrite. A nous de l'imaginer et d'en être acteurs.


Sommes-nous déjà des chimpanzés ?

ChimpanzeC’est une expérience conçue en 1967 par Philippa Foot, philosophe britanno-américaine, connue pour ses travaux sur l’éthique. On l’appelle le « dilemme du tramway ».

Et c’est effectivement une expérience mettant à l’épreuve notre éthique et la morale. Il en existe des tas de versions. Le principe est le suivant : une personne peut effectuer un geste qui bénéficiera à un groupe de personnes A, mais, ce faisant, nuira à une personne B ; dans ces circonstances, est-il moral pour la personne d'effectuer ce geste ? 

Une version possible :  Un tramway lancé à pleine vitesse risque de tuer cinq personnes, que vous pouvez sauver en détournant le wagon de sa trajectoire. Sauf qu’il continuera alors sa course pour tuer cinquante personnes, 2 000 ans plus tard. Qui sauveriez-vous ? 

Certains ont une réponse évidente : Il faut sauver les cinquante personnes et sacrifier les cinq. On appelle ces personnes les « long-termistes ».Et elles sont, paraît-il, de plus en plus nombreuses, surtout dans le monde anglo-saxon.

Ils sont partisans d’une idéologie que l’on pourrait dire « à la Elon Musk », l’idée qu’il faut aujourd’hui coûte que coûte, quel que soit le prix, pérenniser la civilisation et l’humanité pour les millénaires à venir, plutôt que de s’attacher à la vie à court terme de la population actuelle. D’où les projets fous de conquête de l’espace, de biotechnologies, de transhumanisme et d’immortalité. Car, comme les humains du futur seront potentiellement bien plus nombreux que ceux d’aujourd’hui – on dit des milliards de fois plus nombreux – rien ne peut bien sûr égaler la valeur des actions visant à accroître leurs chances de survie et leur bien-être.

Le pape du mouvement, appelé « effective altruism » (EA) (altruisme efficace), est William MacAskill, philosophe de 36 ans, qui en est le fondateur à Oxford à la fin des années 2000, et auteur du best-seller sur le sujet (non traduit encore), « What we owe the future ». L’altruisme efficace vise à identifier les meilleurs moyens d’avoir un impact sur le monde au plus long terme possible (voir « Doing good better », autre ouvrage de MacAskill). Exemple : Comment lutter contre la faim dans le monde ? On aurait envie de dire qu’il faut s’engager dans des ONG ou devenir médecin. Eh non ! D’après les adeptes du mouvement, il vaut mieux faire fortune dans la finance ou la Tech et reverser un maximum de son revenu. Ainsi, si ça marche, vous sauverez beaucoup plus de vies, comme en est convaincu Bill Gates.

Même raisonnement pour le futur : il vaut mieux sauver mille vies, même futures, plutôt qu’une vie, même aujourd’hui. Cela vaut pour l’espace comme pour le temps. Un autre exemple évoqué par MacAskill : Vous ramassez une bouteille cassée dans la nature pour éviter qu’un enfant ne se blesse ; peu importe que ce soit un enfant déjà vivant ou un enfant à naître dans cent ans, la valeur de votre geste est la même. Et comme les humains du futur sont bien plus nombreux, il est normal de penser à eux en priorité.

Un petit calcul fait par MacAskill : depuis le début de l’humanité, il y a 300 000 ans, cent milliards d’humains ont foulé le sol de la planète. Si dans son ensemble, l’espèce humaine survit aussi longtemps que la moyenne des mammifères (environ un million d’années), cela signifie que 99,5% des individus vivront dans le futur.

En fait les long-termistes prolongent l’idée selon laquelle chaque génération à la responsabilité de penser aux suivantes en la radicalisant. Et de nombreux laboratoires de recherche et de Think tank, et donc des dizaines de millions de dollars, se sont engouffrés dans ces idées, comme le Future of Humanity Institute, à Oxford, fondé par Nick Bostrom, suédois et autre grande figure du long-termisme. Lui, son sujet, c’est l’étude des impacts de l’intelligence artificielle et des super-intelligences qui vont dépasser l’intelligence humaine.

Et c’est la raison du regain d’intérêt pour le courant long-termisme : l’humanité connaît aujourd’hui un moment charnière essentiel avec le développement des technologies, qui peuvent faire peser sur l’humanité des « risques existentiels » (expression de Nick Bostrom) comme une guerre nucléaire ou technologique, ou aussi une pandémie incontrôlable, et surtout le risque de créer une « super intelligence » qui ne pourrait plus être contrôlée. Encore MacAskill : « Une fois que l’intelligence artificielle dépassera de loin l’intelligence humaine, nous pourrions nous retrouver avec aussi peu de pouvoir sur notre avenir que les chimpanzés en ont sur le leur ».

Un autre collègue de MacAskill, Toby Ord, co-fondateur avec lui de « l’altruisme efficace », évalue, lui, le risque de catastrophe pour l’humanité, lors du siècle qui vient, à une chance sur six. Comme dans la roulette russe avec une balle dans un revolver qui en contient six.  

Et donc, comme les long-termistes évaluent que ce n’est plus qu’une question de temps avant que l’humanité génère une « Intelligence Artificielle Générale » (IAG), et que celle-ci pourrait menacer, en la dominant, l’espèce humaine tout entière, il est urgent de désengager une partie de l’argent que l’on investit aujourd’hui dans nos défis quotidiens pour les réemployer à la prévention de ces risques futurs. Car pour eux, pour éviter le risque, il nous faut encore investir dans les technologies mais pour pouvoir les contrôler plus efficacement, grâce à des formes de « boucliers ». En gros, guérir le mal par le mal. 

Et puis, un autre dada est la conquête de l’espace, la colonisation de Mars tant prisée par Elon Musk, pour permettre de sauver les générations futures, ce que Elon Musk appelle une « assurance-risque ».

Paradoxalement, du moins en apparence, ces long-termistes ne s’intéressent pas trop au changement climatique car, pour eux, celui-ci ne menace pas l’humanité tout entière (contrairement aux technologies), et entraînera des conséquences mineures au regard de l’existence de l’humanité. MacAskill a même suggéré que les êtres humains, ou du moins une partie d’entre eux, survivront à un changement climatique de 15°C. En gros, du moment que l’humanité survit, il n’y a pas lieu de trop s’inquiéter.

Tous ces long-termistes, les entreprises, les dirigeants, notamment ceux qui s’intéressent à la prospective et aux scénarios environnementaux du futur pour leurs stratégie, doivent-ils les prendre comme des doux dingues sans intérêt ou bien, au contraire, suivre de plus près leurs travaux et réflexions ?

Les ignorer complètement serait sûrement dangereux, car leur influence augmente, y compris dans les instances gouvernementales et institutions, y compris à l’ONU, qui prépare le Sommet de l’Avenir pour septembre 2024 en abordant ces sujets de vision à long terme.

Alors ?

Ce que ces visions long-termistes nous permettent, c’est déjà, d’un point de vue politique, d’étendre notre horizon en considérant les générations futures, et en investissant dans la prévention et l’anticipation des catastrophes plausibles.

D’un point de vue plus technique, cela incite aussi à envisager les investissements dans les technologies en gardant à l’esprit le souci de sûreté, de robustesse, et de maîtrise des systèmes que nous mettons en place. C'est d'ailleurs la mission d'un autre institut long-termiste, le Futur of Life Institute., qui est aussi l'un des signataires du manifeste qui demandait une "pause" dans le développement de l'intelligence artificielle. 

Et donc rester en alerte, pour nous éviter de finir comme des chimpanzés.

Malins comme un singe, mais pas trop…


Intelligence artificielle : Menace ?

IAmenaceCertains sont optimistes et volontaires pour considérer et faire savoir que les nouvelles technologies et l’intelligence artificielle, notamment ChatGPT, vont être facteur de progrès humain.

Et puis, il y a les sondages qui viennent nous doucher.

Le dernier sondage réalisé par l’institut Odoxa en avril dernier auprès d’un échantillon de 1005 personnes de plus de 18 ans est sans appel : A la question « Pour vous le développement de l’intelligence artificielle est-il plutôt une opportunité ou une menace ? », ils sont 67% à y voir plutôt une menace (soit 14 points de plus que la même question il y a deux mois). Alors que, par comparaison je lis dans le dernier ouvrage de Laurent Alexandre que "90% des chinois pensent que l'IA sera bonne pour la société" (il ne cite pas ses sources). 

Intéressant de lire les résultats de ceux qui y voient plutôt une opportunité (soit donc 32% de l’échantillon) par classe d’âge :

  • 18-24 ans : 50%
  • 25-34 : 42%
  • 35-49 : 33%
  • 50-64 : 27%
  • 65 et + : 21%

Plus on est jeune, plus on y voit des opportunités. Et passé 50 ans, ils ne sont plus que moins de 27% à y voir des opportunités.

Si on creuse un peu pour savoir sur quoi l’intelligence artificielle est plus particulièrement une menace, il n’y a pas de quoi être optimiste. Le développement de l’intelligence artificielle est une menace…

  • Pour l’emploi : 72%
  • La véracité de l’information : 71%
  • L’éducation : 65%

On ne peut qu’y lire ce sentiment d’être dépassé par l’intelligence artificielle et de ne pas pouvoir s’en sortir. 57% des répondants pensent d’ailleurs que l’intelligence artificielle dépassera un jour l’intelligence humaine.

Alors, pour se protéger, on va chercher les ministres et la loi qui règlemente : 82% des répondants souhaitent une règlementation des intelligences artificielles comme les agents conversationnels type ChatGPT, mais 64% sont pessimistes sur la capacité des Etats à le faire.

Les répondants au sondage Odoxa nous montrent l’ampleur des inquiétudes. Les agents conversationnels comme ChatGPT sont une menace :

  • Pour l’emploi : 75%
  • L’avenir de nos enfants : 73%
  • Pour l’éducation : 70%
  • Et même pour la santé, dans une moindre proportion : 55%

Il va y avoir du travail pour convaincre nos citoyens.

Au travail !

La quatrième révolution industrielle a besoin de militants et d'entrepreneurs. 

 


La pépiniériste et l'intelligence artificielle

PepinieristeSophie de Menthon recevait pour une conférence-déjeuner des membres d’ETHIC, au cercle de l’Interallié, Laurent Alexandre. Enarque, chirurgien , fondateur de Doctissimo, il est surtout connu aujourd’hui pour ses livres et conférences dédiés à l’intelligence artificielle. LaurentAlexandre

Il vient de faire paraître un nouvel opus de circonstance, « La guerre des intelligences à l’heure de ChatGPT ». Son message à l’assistance de ce déjeuner, conforme à son style provocateur, est simple et direct : Si vous ne vous mettez pas à ChatGPT et à l’Intelligence Artificielle dès ce soir, il ne faudra pas longtemps avant que vous ne serviez plus à rien. Dans cette assistance, comprenant de nombreux entrepreneurs et dirigeants plutôt seniors, ça fait mouche. Même Sophie de Menthon a dû dire, comme un aveu, «oui, oui, moi aussi je vais m’y mettre ».

Derrière la provocation, Laurent Alexandre met le projecteur sur un sujet qui nous concerne tous, et concerne toutes les entreprises : les nouvelles technologies et l’intelligence artificielle ont pénétré notre monde et nos façons de vivre, et ne vont plus nous lâcher. La guerre des intelligences, c’est celle entre les cerveaux des machines et les cerveaux des humains. Fabriquer une intelligence humaine avec l’éducation, l’école, les études, prend un temps fou et coûte cher (avec des ratés, tout le monde n’arrivant pas aux mêmes niveaux), alors que fabriquer une intelligence artificielle, avec de bons programmeurs, un bon jeu de données, et les bons outils, se fait aujourd’hui très rapidement, et progresse chaque jour pour être toujours plus performant et plus intelligent. Sans parler de la différence de rémunération entre celui qui développe les intelligences artificielles et le prof du collège ou du lycée.

Alors, nous devons nous habituer très vite à cohabiter et co-construire aves l’intelligence artificielle et ChatGPT 4.

Mais voilà, les dirigeants ont aussi parfois du mal à imaginer comment s’y prendre, voire en ont peur. Ma voisine lors de cette conférence, dirigeante d'entreprise  pépiniériste, me le disait : « Mais moi, je ne vois pas bien ce que l’intelligence artificielle peut vraiment m’apporter « .

Cet échange avec Laurent Alexandre, dans le style « Dépêchez-vous, sinon... », était utile (Merci Ethic, Merci Sophie), et le nombre de participants montrait bien que ça intéresse beaucoup de monde. Intéressant de constater aussi que nombreux ne sont pas très familiers du sujet, ni des implications concrètes pour eux. Et puis il ne suffit pas de les haranguer, il va falloir aussi convaincre, et aller un peu plus loin que la lecture du livre de Laurent Alexandre (qui a l’avantage d’être très accessible, pas du tout technique, mais avec l’inconvénient de ne pas donner toutes les réponses aux questions de ma voisine pépiniériste, qui risque de rester sur sa faim).

Alors comment devons-nous nous y prendre pour acquérir ce que Tsedal Neeley, un professeur d’Harvard, appelle un « digital mindset » ?

Ce qui bloque certains, c’est cette peur diffuse que ces technologies vont faire remplacer les hommes par les machines, et, comme le répète Laurent Alexandre, inspiré par Yuval Noah Harari et « Homo Deus », séparer la société entre les dieux et les plus nombreux, les « inutiles ». Ce qu’il appelle le vrai « grand remplacement », celui du grand remplacement cognitif de l’homme par l’IA.

Ce n’est pas ce que croit Laurent Alexandre, qui voit plutôt un scénario optimiste où l’homme va maîtriser ces technologies et saura collaborer avec elles. Reste à bosser, et pas que les jeunes.

Ce qui va bouger, et bouge déjà, avec les technologies, et qui est nécessaire pour avoir le « digital mindset » concerne trois domaines selon Tsedal Neeley :

  • La collaboration entre les hommes et entre les hommes et les machines. De nouvelles formes de collaboration sont à inventer et à mettre en œuvre. Ce qu’on appelle l’intelligence collective va devoir inviter un nouveau participant, la machine et l’IA.
  • Le traitement des données : comment exploiter les données, les collecter, les trier et leur faire dire les prévisions et analyses, voilà un champ entier de progrès et d’idées ( même pour les pépiniéristes) ;
  • Le changement : changer, transformer, améliorer, les projets ne manquent pas. Mais les technologies nous permettent d’aller plus vite, d’expérimenter, d’essayer et de recommencer ; toutes ces nouvelles façons font partie du « digital mindset ».

Dans les entreprises, le risque pour les dirigeants est de laisser les initiatives à leurs collaborateurs et de rester « au-dessus de la mêlée ». De quoi freiner les impulsions.

Au contraire, la première initiative est d’abord de se frotter aux nouvelles technologies personnellement, en allant directement au contact. Se prendre une journée en comité de direction, pour imaginer les impacts des technologies sur les métiers de l’entreprise, et échanger, entre générations, avec des start-up et entrepreneurs qui savent nager et inventer dans ce nouveau monde, ainsi que quelques experts bien choisis, voilà de quoi s’ouvrir et inventer des futurs inspirants.

Autre approche : imaginer les scénarios du futur dans un monde de technologies exponentielles et y tester notre stratégie, comme un tunnel pour tester la résistance d’un avion.

La plupart des dirigeants ont bien progressé avec les confinements, en découvrant comment utiliser Teams ou Zoom, dont ils n’avaient jamais entendu parlé, et qui sont devenus des habitudes courantes.

Avoir le « digital mindset » c’est continuer à apprendre et à expérimenter, régulièrement, dans un monde des données qui sont de plus en plus nombreuses à notre disposition.

Même les pépiniéristes…