Esprit, es-tu là?

EspritestulaNous sommes dans la quatrième révolution industrielle.

Déjà ?

Oui. La première, c’était celle de la vapeur et de la mécanisation ; la deuxième, celle de l’électricité, du pétrole et de l’acier ; la troisième celle du nucléaire et des technologies de l’information ; la quatrième est celle de l’internet, de la numérisation avec l’âge des « data », des algorithmes et de l’intelligence artificielle.

Pour les dirigeants et les entreprises, c’est un nouveau défi pour la transformation. On parle de transformation « digitale » pour copier le terme anglo-saxon, ou de transformation numérique quand on veut rester français. Mais c’est la même chose.

Ce qui change, c’est le besoin de s’adapter très vite, car ces nouvelles technologies progressent de manière exponentielle.

Alors, il y a les dirigeants qui ne suivent plus, comme celle-ci, qui, alors que je lui parlais des opportunités des nouvelles technologies pour la performance, me disait, avec compassion, « Mais Gilles, tout cela me paraît compliqué, voire trop compliqué ». Rien à faire, elle n’en voulait pas.

Il y aussi ceux qui n’ont pas changé leurs habitudes. Car les projets technologiques auxquels ils ont été habitués sont des projets de progiciels intégrés, pilotés avec une bonne équipe d’experts du Département informatique, des consultants en support, et des groupes d’utilisateurs pour concevoir les solutions.

Mais voilà, aujourd’hui, on parle de projets d’innovations, de transformation profonde des process avec les algorithmes et l’intelligence artificielle, et les groupes projet d’experts en mode commando plutôt centralisé ne sont plus les bonnes réponses.

Ce qu’il faut c’est la « démocratisation de la transformation », et le développement d’un « digital mindset ».

C’est le sujet du dossier dans le numéro de HBR de ce mois-ci, dont un article du CEO de Microsoft, Satya Nadella, qui reconnaît lui-même qu’il a fallu transformer Microsoft pour l’adapter à ce nouveau contexte. Ce qu’il lui a fallu construire, c’est ce qu’il appelle une « tech intensity » dans toute l’entreprise pour que les employés soient convaincus d’utiliser les technologies pour conduire les innovations digitales qui génèrent de réels résultats opérationnels. Car ce sont les entreprises qui savent investir dans les technologies et rendre accessibles à la plus large communauté de collaborateurs qui obtiennent cette « tech intensity » et la meilleure performance.

Car pour identifier les meilleures applications des nouvelles technologies dans les métiers et process de toute l’entreprise, une équipe de data scientists et des consultants ne suffisent plus. Les idées concrètes et réelles sont celles qui sont au plus près des opérations et des clients, et c’est à ce niveau qu’il faut aller. Oui, mais voilà, ces collaborateurs sont parfois loin ou ignorants des capacités des nouvelles technologies, et n’imaginent pas ce qu’ils pourraient en faire (« c’est trop compliqué, non ? »).

L’article de HBR auquel a contribué Satya Nadella donne les trois composantes de cette « tech intensity » qu’il s’agit de mettre en place :

1. Les capacités (capabilities)

Il s’agit de la culture de l’entreprise, qui se développe par les formations et la création d’équipes « Agile » pour tous les projets, et aussi par l’usage intensif des outils de « Low Code/ no-code » permettant aux équipes opérationnelles de développer eux-mêmes leurs solutions et de les tester.

2. Les technologies

Ce sont toutes les technologies qui permettent d’imaginer et de mettre en œuvre les transformations et qu’il convient de connaître de manière la plus large possible dans l’entreprise ( Machine Learning, Deep Learning, Real-time analytics…).

3. L’architecture

C’est le fondement du développement des solutions, reposant sur une gouvernance solide des données, la mise en œuvre de plateformes de données, pour donner la cohérence nécessaire à l’ensemble. C’est le job de ceux qui vont concevoir et pousser les investissements dans cette architecture.

Tout est dans le « comment ? ».

Deux professeurs de Harvard et l’Université de Californie, Tsedal Neeley et Paul Leonardi, donnent des réponses dans un autre article du dossier de HBR, en parlant de ce « Digital mindset ».

Car deux composantes sont à prendre à compte :

  • Est-ce que moi, en tant qu’employé ou manager, je suis confiant que je suis capable d’apprendre les nouvelles technologies et le monde du digital ?
  • Est-ce que je pense que la transformation digitale est importante, voir vitale, pour mon entreprise ?

Si je réponds non à ces deux questions, je suis dans le rejet, dans ce que les auteurs appellent « l’oppression ».

Si je pense que c’est important pour l’entreprise mais que je m’en sens incapable, je suis dans « la frustration » ( ça va se faire sans moi).

Si je pense que je suis capable mais que mon entreprise n’en a pas besoin, je suis dans « l’indifférence » (je ne dois pas être dans la bonne entreprise).

Et bien sûr, si je pense que c’est important pour mon entreprise et que je m’en sens capable, je suis dans « l’inspiration » (j’ai envie de contribuer et de créer plein de choses).

Alors pour faire bouger les oppressés et les frustrés dans un esprit digital, on fait comment ?

Les auteurs citent l’expérience d’Atos (encore une entreprise de la Tech) qui a mis en place des outils de formation pour tout le monde, avec un process de certification, mais que les employés pouvaient utiliser de manière volontaire, non imposée. L’idée était que, si la certification était volontaire, les employés seraient plus enclins à internaliser dans leurs propres pratiques ces compétences digitales, et à modifier leurs comportements au travail en conséquence. Un marketing pour encourager les volontaires s’est aussi mis en place.

Les auteurs rapportent que le résultat était là, puisqu’en trois ans plus de 70.000 employés ont été certifiés, comprenant que la croissance de l’entreprise avait besoin de cette « digital fluency », et que chacun pouvait y contribuer.

Autre exemple cité, celui de Philips, qui a mis en place une « infrastructure d’intelligence artificielle », qui permet aux employés de sélectionner les « leçons » qui les intéressent dans la base ainsi construite, comme des « playlists » qu’ils peuvent même partager avec leurs collègues, et « liker ». Cela facilite les connexions entre collègues ainsi qu’avec les nouveaux employés qui rejoignent ces communautés existantes, où ils trouvent des mentors pour s’initier.

A partir de ces exemples (il y en a d’autres dans l’article), les auteurs ne peuvent s’empêcher de nous donner six conseils pour créer un programme de formation des employés à cet esprit digital :

  1. Fixer un objectif de ce programme de formation pour toute l’entreprise (il faut bien le choisir et le formuler, bien sûr).
  2. Formaliser les opportunités d’apprentissage en incluant tous les rôles et fonctions de l’entreprise (c’est un programme global, et non réservé à une élite).
  3. Rendre accessible le programme à tout le monde, avec des accès adaptés à chaque niveau, pour ne perdre ou décourager personne (les outils virtuels y aident). Les rencontres et échanges, ainsi que les « Learning expéditions » peuvent aussi en faire partie.
  4. Motiver les employés à se former, avec des campagnes de promotion, des récompenses, des mesures incitatives.
  5. S’assurer que les managers comprennent bien ce qui est offert, pour qu’ils puissent guider et inspirer leurs collaborateurs.
  6. Encourager tous les employés à participer concrètement à des projets digitaux de l’entreprise, pour continuer à apprendre dans la vraie vie.

On comprend que ce genre de programme ne s’arrête jamais, car les technologies et leurs développements ne s’arrêtent pas non plus.

Esprit digital, es-tu là ?


Âge exponentiel

ExponentialJ’avais déjà évoqué ICI, à propos de l’ouvrage de Salim Ismail, " Exponential organizations" (une mise à jour est prévue cette année) ces entreprises qui ont une croissance exponentielle, et ce qui les caractérise.

Ce terme « exponentiel » est repris par Azeem Azhar, rédacteur de la newsletter « Exponential view », dans son livre « Exponential – How accelerating technology is leaving us behind and what to do about it », publié en 2021. Voilà une lecture appropriée pour éclairer 2022 et au-delà.

Car la thèse de l’auteur est que nous vivons un écart (« gap ») entre le monde des technologies (oui, exponentielles) et le monde « normal » auquel nous avons été habitué, celui de nos institutions, de nos humanités, des entreprises d’hier et d’aujourd’hui. Et que ce « gap » s’accroît, et a des conséquences sur nos modes de vies, le travail, et la géopolitique. Il appelle cela « l’âge exponentiel », et cela va au-delà des technologies. Nous y sommes.

Ce  »gap » pose deux problèmes majeurs.

Le premier est cette croyance ancrée que les technologies sont indépendantes de l’humanité, c’est-à-dire qu’elles seraient une force qui s’est créée d’elle-même, mais n’auraient pas de lien avec les structures de pouvoir des humains qui les ont créées. Dans cette vision, les technologies sont neutres, et ce sont les utilisateurs de ces technologies qui décident d’en faire du bien ou du mal. Elles sont des outils neutres. Azeem Azhar pense exactement l’inverse : les technologies ne sont pas neutres car elles sont créées par des hommes qui dirigent leurs inventions en fonction de leurs préférences et idéologies, et donc elles recréent un système de pouvoirs qui existe dans la société. C’est ainsi que nos smartphones ont un design adapté à la main d’un homme, moins à celle d’une femme (avec une hauteur moyenne de 14 cm le smartphone correspond bien à la moyenne des mains d’homme, mais est un peu trop grand pour les mains de femme, en moyenne plus petites, sans parler du problème de la taille des poches, obligeant les femmes à porter les téléphones dans leur sac à mains), et que de nombreux médicaments sont moins efficaces sur les personnes noires ou asiatiques. Et donc la technologie, et les technologies exponentielles, ne sont pas neutres et interagissent directement avec nos organisations sociales, politiques, économiques.

Le deuxième problème posé par les technologies est, selon l’auteur, plus insidieux. De nombreuses personnes qui ne sont pas dans le monde des technologies font assez peu d’efforts pour le comprendre. Et les deux cultures ont tendance à s’éloigner : la culture technologique se développe dans de multiples directions, alors que l’autre, celle des humanités et des sciences sociales, qui est celle des politiques et commentateurs, n’arrive plus à suivre ce qui se passe. En l’absence de dialogue entre les deux, il est difficile d’imaginer les bonnes solutions.

Face à ce « gap », les entreprises les plus technologiques sont devenues de plus en plus grandes, laissant derrière elles les entreprises plus traditionnelles. Les marchés sont devenus des « winner-takes-all », où les entreprises que Azeem Azhar appelle les entreprises « superstar » dominent, creusant l’écart avec les autres.

Comment cela s’est-il produit ? C’est l’objet de ce livre de Azeem Azhar, qui en recherche les causes et en liste les conséquences.

Il met en évidence les trois origines de ce développement exponentiel des superstars.  

Ce qui a permis l’essor de ces superstars c’est en priorité ce que l’on appelle « l’effet réseau », qui permet à tout nouveau membre du réseau d’augmenter la valeur du réseau lui-même. C’est ce qui fait le succès de Facebook, PayPal, Microsoft ou Google. La plupart des gens qui utilisent un réseau social utilisent Facebook parce que c’est là où tout le monde est. Même histoire avec la croissance de Microsoft. L’entreprise a dominé le marché des système d’exploitation pour ordinateurs personnels depuis les débuts de l’informatique. Dès l’an 2000, Microsoft détenait 90% du marché des ordinateurs personnels, et n’est jamais descendu depuis en-dessous de 75%. C’est ce pouvoir de l’effet réseau qui fait la réussite de Microsoft. En devenant leader, Microsoft est devenu le choix dominant des développeurs, et donc des utilisateurs qui pouvaient trouver plus de choix de software et de hardware. C’est cet effet qui rend plus difficile l’entrée des compétiteurs sur le marché. Autre conséquence de l’effet réseau, une fois que tout le monde utilise Windows, et échange des documents sur Excel et Word, il devient plus pratique à chacun de les utiliser aussi. Ainsi l’effet réseau commence avec le système d’exploitation, puis se transmet au traitement de textes et aux tableurs.

Avec cet effet réseau, on comprend qu’une fois qu’un leader s’est imposé, il devient quasi impossible de le déloger pour les compétiteurs, d’où cette expression de « winners-takes-all », car les clients eux-mêmes ont tout intérêt à rejoindre le plus grand réseau, car c’est dans celui-ci qu’ils tireront le plus de valeur.

Cet effet réseau ne date pas d’hier, mais un deuxième phénomène est venu l’accélérer avec internet : le développement des plateformes. Grâce au web, la possibilité de connexion entre acheteurs et vendeurs n’a jamais été aussi facile. Et là encore, les grandes entreprises exponentielles raflent la mise. Quelques chiffres pour mesurer l’ampleur du phénomène : eBay attire chaque année 185 millions d’acheteurs actifs, Alibaba 779 millions, Tik Tok 50 millions aux Etats-Unis (été 2020). Et à chaque fois l’offre est surabondante. Et ce modèle se déploie dans le monde entier.

Mais une troisième force, en plus de l’effet réseau et des plateformes, permet aux entreprises exponentielles d’être incontournables : c’est leur capacité à tirer de la valeur de ce que l’on appelle les « actifs intangibles ». C’est le moteur de recherche de Google, les données du réseau de Facebook, le design et l’identité de marque d’Apple, qui en font la plus grande valeur. Les chiffres parlent d’eux-mêmes : En 2019, tel que cité par Azeem Azhar, l’actif net comptable des cinq plus grosses entreprises de l’âge exponentiel – Apple, Google, Microsoft, Amazon, Tencent – représentait 172 milliards de dollars, alors que leur valorisation boursière était de 3,5 trillions (mille milliards) de dollars. En clair la valeur comptable ne représente que 6% de la valeur estimée par le marché, le reste étant ces fameux « actifs intangibles ».Et l’avantage, c’est que si le premier actif intangible créé peut coûter cher en développement, ensuite il peut être copié à l’infini sans coûts importants supplémentaires. C’est cette « économie de l’intangible » qui permet aux stars de l’âge exponentiel de dominer. Et cela continue. On vient de voir la capitalisation d’Apple passer les 3000 milliards, faisant d’Apple le premier groupe à atteindre une telle valeur, qui dépasse la richesse produite chaque année par le Royaume-Uni (environ 2.700 milliards de dollars). Aujourd’hui 55% du Nasdaq 100, qui est l’indice des 100 plus grandes valeurs technologiques américaines, est occupé par six valeurs « Gafam » ( Google, Apple, Facebook, Tesla, Amazon et Microsoft). Tesla a rejoint en 2020 le club des entreprises valant plus de 1000 milliards de dollars, valant à lui seul plus que les 10 premiers constructeurs automobiles de la planète, et se payant plus de 200 fois ses bénéfices (car il est maintenant bénéficiaire, ayant vendu en 2021 près d’un million de voitures électriques, deux fois plus qu’en 2020).

L’actif intangible qui booste le plus fort est bien sûr l’intelligence artificielle : c’est l’exploitation de la masse de données par les algorithmes qui démultiplie la valeur. C’est elle qui vous permet de vous voir proposer le produit, le film, la lecture, qui vous correspondent parfaitement, merci Amazon, Netflix et autres.

Tout cela n’est pas anodin ; l’émergence de ces superstars de l’âge exponentiel, avec l’effet réseau, les plateformes et les actifs intangibles, est venu bouleverser l’ensemble de l’économie mondiale.

Au siècle dernier, nous avions appris la théorie des rendements décroissants, nous convainquant que plus une entreprise grossissait, plus son taux de rentabilité diminuait. D’où la méfiance vis-à-vis des conglomérats trop gros, auxquels le marché demandait d’être découpés en morceaux autonomes, et y appliquaient ce qu’on appelait une « décote de conglomérat ». Ces superstar, que certains appellent aussi des « néo-conglomérats » ont fait mentir cette théorie, et n’ont pas cette décote par les marchés. Au moment où des entreprises « traditionnelles » General Electric, Toshiba ou J&J annoncent leur démantèlement, les superstar se développent verticalement en procédant à des acquisitions pour se renforcer. Amazon vient par exemple de monter au capital de Rivian, le constructeur de camions électriques qui s’est introduit en bourse en novembre. A la différences de leurs prédécesseurs, ces entreprises technologiques utilisent la même plateforme pour développer leurs activités. Ainsi tous les produits d’Apple partagent la même plateforme de développement. C’est cette démarche qui permet aussi à Amazon de fusionner les données utilisateurs de tous les produits, puis de les vendre ou de s’en servir pour faire de la publicité.

Les grandes entreprises d’hier misaient sur les économies d’échelle liées à l’offre (plus on produit, moins chaque produit coûte cher à fabriquer). Les entreprises plateformes modernes profitent des économies d’échelle liées à la demande, grâce justement à l’effet réseau ( tout nouvel utilisateur est plus intéressant que le précédent). Fondé en 1892, General Electric est restée la plus grosse entreprise mondiale cotée jusqu’en 2005. On peut imaginer que les entreprises plateformes vont faire encore mieux, et poursuivre ce que l’on constate : plus elles grossissent plus elles sont rentables. Ces entreprises ont aussi pour caractéristiques d’investir massivement en Recherche & Développement (avec des budgets bien supérieurs à ceux des Etats), se permettant ainsi de rentrer dans des marchés nouveaux à partir de zéro. C’est comme ça qu’Alphabet s’attaque au marché de la fusion nucléaire, mais aussi des voitures autonomes, ou la cyber sécurité.

Alors, si l’on admet que ces entreprises superstars vont continuer à occuper des positions dominantes, et bousculer l’économie mondiale, est-ce un problème ? Les législateurs et les Etats ont déjà commencé à répondre oui, pour éviter les abus de position dominante qui, en général, ne sont pas bons pour les consommateurs. Mais on ne semble pas en être là de façon évidente. Google et Amazon s’approchent d’une position de monopoles, mais les consommateurs, à première vue, ne semblent pas en pâtir. Ils bénéficient de produits et services toujours meilleurs et moins chers. Le problème est plutôt du côté des potentiels concurrents qui voudraient accéder au marché et s’en trouveraient empêchés. Autre problème : les taxes et impôts auxquels échappent ces entreprises, car la caractéristique des actifs intangibles est qu’ils peuvent facilement passer d’une frontière à l’autre pour optimiser les taxes.

Les propositions et idées ne manquent pas. Jean-Marc Daniel évoque dans Le Figaro de jeudi 6/01 une réduction de la durée des brevets, pour réduire la « rente innovation ». Mais il pense aussi que « le capitalisme va digérer cette nouvelle donne ».

On a aussi les propositions au niveau européen qui sont sur la table, comme la taxation des Gafam ou les règlements DMA (Digital Markets Act) et DSA (Digital Services Act), qui visent à réformer les règles de l’espace numérique et de la concurrence contre ces grands monopoles de la Tech (l’idée est de permettre un accès équitable aux plateformes). C’est pas gagné car les positions ne sont pas encore bien alignées, et déjà les propositions sont critiquées par les juristes. Tout cela en veillant à ne pas étouffer l’émergence de nouveaux acteurs de la Tech en Europe, qui a quand même pris pas mal de retard. Un bon sujet pour la Présidence de l’UE qui est tenue par la France depuis le 1er janvier, pour six mois.

En attendant les superstars de l’âge exponentiel continuent leur croissance.

Une chose sûre : elles nous condamnent à mettre au feu une partie de nos livres de management du XXème siècle, pour nous appeler à réinventer le nouveau monde exponentiel.

De quoi susciter la peur pour certains, l’audace pour d’autres.

A chacun de choisir et d’agir.


Indiana Jones est devenu un algorithme

IndianajonesIl est étourdissant d’imaginer tous les vestiges matériels de l’existence humaine depuis ses plus lointaines origines qui sont ensevelis dans notre planète, et tous ceux qui ne sont toujours pas découverts. Chaque jour, de nouvelles découvertes surgissent et nous ressuscitent l’histoire de ces individus disparus depuis longtemps et qui ont laissé quelque chose d’eux-mêmes pour nous.  C’est le travail de l’archéologie, qui est une science assez récente et n’est devenue réellement scientifique qu’ à partir du XIXème siècle, et même du XXème. En France c’est une loi de 1941, validée en 1945, qui a créé les services des Monuments Historiques. C’est en 1964 que sera créé le service de la recherche archéologique et des antiquités, qui deviendra le « Bureau des fouilles » (1966), puis la sous-direction de l’archéologie de la Direction du Patrimoine (1982), puis la sous-direction de l’archéologie du Ministère de la Culture (2010). L’archéologie est bien encapsulée dans les services, sous-directions et Directions des Ministères et de la machine d’Etat.

Mais à l’origine, les ancêtres des archéologues modernes, c’étaient les pilleurs de tombes, nombreux parmi les colonisateurs européens qui aimaient remplir les vitrines de leurs cabinets de travail de statues et de bijoux anciens subtilisés. Puis l’archéologie est devenue une discipline de plus en plus scientifique. Et depuis une décennie environ, on constate un mouvement des Etats visant à rapatrier les objets étrangers mal acquis dans leurs pays d’origine, comme récemment (le 9 novembre) l’acte de transfert de propriété de 26 œuvres restituées par la France au Bénin.

Le dernier numéro de l’édition française de « National Geographic » consacre un dossier spécial à cette « épopée de l’archéologie – 100 grandes découvertes qui éclairent l’histoire du monde ». De quoi parcourir toute l’histoire de l’humanité à travers ces vestiges.

Parmi ces découvertes, la plus ancienne correspond à des empreintes de pieds découvertes en Tanzanie, en 1978, à Laetoli, dans des cendres volcaniques, datées de 3,7 millions d’années. Ces empreintes seraient la preuve de la marche debout de ceux qui les ont laissées, même s’il y a des discussions pour savoir si ce sont celles d’ancêtres humains, ou celles de grands singes qui étaient capables de se déplacer en bipédie, sans certitude sur la distance ni sur le délai.

Celle aussi de ces deux randonneurs dans les Alpes, à la frontière entre l’Italie et l’Autriche, en 1991, qui découvrent un corps momifié dépassant de la glace, et qui correspond à un être humain âgé de 5300 ans. On l’appellera « Ötzi », du nom de la vallée de l’Ötzal, proche du lieu de sa mort. C’est le plus ancien être humain intact jamais découvert à ce jour. On a même pu reconstituer ce à quoi il devait ressembler, et identifier qu’il avait mangé du bouquetin, accompagné de petit épeautre et d’un peu de fougères avant de mourir.

Et aujourd’hui, grâce aux progrès scientifiques, et aux techniques avancées, on peut en apprendre encore plus. Ce qui avait auparavant peu de valeurs, comme des graines brûlées, des excréments, des résidus au fond d’un pot, nous révèle aujourd’hui des secrets sur ce que les hommes mangeaient, avec qui ils faisaient commerce, et où ils ont vécu.

La mer n’est plus non plus impénétrable, et les plongeurs, à l’aide de nouveaux outils technologiques, ont accès à des épaves de navires marchands datant de temps anciens, ou à celle du Titanic qui n’a pas encore révélé toutes ses richesses, et peuvent aussi explorer les fresques des grottes comme la grotte Cosquer, qui, aujourd’hui, avec le réchauffement climatique et la montée des eaux en Méditerranée, commencent à être menacées, et font l’objet de nouvelles recherches pour y effectuer des cartographies au laser 3D, permettant de cartographier la cavité de la grotte avec une résolution de 0,1 mm.

Et puis l’Intelligence Artificielle vient aussi révolutionner le travail de nos archéologues d’aujourd’hui et permet de découvrir de nouveaux scoops sur notre histoire.

Des chercheurs de l’Université de Groningen ont ainsi, en avril 2021, révélé que les manuscrits de la Mer Morte ont été écrits par deux scribes différents, grâce aux algorithmes de l’intelligence artificielle qui ont analysé les manuscrits et identifié de minuscules variations de traits d’encre.

C’est aussi l’intelligence artificielle qui permet aujourd’hui de reconstituer les cranes et squelettes issus de fouilles, grâce à l’apprentissage profond et ce que l’on appelle les réseaux de neurones à convolution (CNN) pour l’analyse des images.

Des chercheurs israéliens se sont aussi servis d’algorithmes de traitement automatique du langage (NLP – Natural Langage Processing) pour restaurer des écrits babyloniens sur des tablettes d’argile en identifiant les mots manquants sur les parties endommagées.

L’intelligence artificielle va-t-elle remplacer Indiana Jones ? Ou Indiana Jones devenir un archéologue augmenté ?

Allons- nous tous être augmentés comme lui dans nos entreprises ?

L'archéologie nous ouvre peut-être la voie.


Comparologie

ComparaisonLa société dite de consommation, celle que l’on connaît depuis l’après-guerre, peut être vue comme une lutte permanente entre le consommateur qui exerce sa liberté, libre de ses actes et d’acheter ce qu’il veut, et l’entreprise qui, grâce à la publicité, tente de le ramener dans le droit chemin, et de le convaincre, grâce à différentes stratégies, de s’abandonner à telle marque, et de tirer parti de toutes les faveurs qu’elle peut lui apporter.

Or, aujourd’hui, grâce aux nouvelles technologies, et particulièrement l’intelligence artificielle, nous disposons d’une nouvelle faculté, celle de pouvoir comparer, à tout instant, toute chose avec toute autre. C’est ce que nous rappelle Eric Sadin dans son opus critique sur « l’intelligence artificielle ou l’enjeu du siècle », au sous-titre éloquent, « Anatomie d’un antihumanisme radical ». De quoi prendre un peu de hauteur sur ces technologies qui continuent à la fois à nous fasciner, mais aussi parfois à nous faire peur. C’est le propre de cette « quatrième révolution » que nous n’avons pas fini de découvrir.

Et cette « comparologie » sévit partout.

La comparaison, c’est justement le principe de l’intelligence artificielle qui, grâce à des algorithmes, peut effectuer à grande vitesse des mises en comparaison entre les volumes de données traitées et un modèle déterminé afin d’évaluer leur niveau de similitude.

Alors, pour le consommateur, il est possible de tout comparer grâce à tous les sites comparateurs de prix qui ont été créés depuis 2010. On compare les assurances, les hôtels, les voyages, les billets d’avion, les locations de voitures, tout.

Mais cela concerne bien sûr aussi les entreprises. Ainsi Inditex, leader mondial de la confection textile, propriétaire notamment de Zara, compare en permanence les références de nombreuses marques et les comportements des personnes à l’échelle mondiale afin d’ajuster la conception de ses produits en fonction des tendances du moment.

On peut aussi comparer les tendances grâce à des sites comme Product Hunt ou Betalist, Hype Urls, Launching Next...Tout un business « qui cartonne ». 

La comparaison sévit aussi au sein des entreprises, avec des systèmes qui viennent mesurer les performances du personnel en observant les usages des ordinateurs, le port des capteurs, pour étudier les gestes et cadences. Il s’agit moins de comparer les personnes entre elles que de comparer les comportements à des normes de référence, et ainsi d’estimer la faculté des employés à s’ajuster à ces modèles et normes. C’est ce genre d’approche qui permet aussi aux banques d’investissements de détecter les fraudes et les futurs probables Jérôme Kerviel. 

C’est le retour, sous une forme « I.A », du « benchmarking », qui consiste à se comparer « aux meilleurs » pour ainsi mettre en œuvre des procédés qui sont supposés conduire aux meilleurs résultats. Le « benchmark » est l’étalon de mesure que les employés doivent adopter et dont il sera possible de juger, grâce aux systèmes mis en place, de leurs aptitudes à s’y conformer.

Cette « comparologie » concerne aussi les acteurs économiques qui sont encouragés à faire jouer la concurrence pour choisir le meilleur territoire pour leur implantation, et choisir le lieu estimé le plus avantageux. C’est le but du programme « Doing Business «  de la Banque Mondiale qui fournit une base de données détaillée des mesures objectives du droit dans 183 pays. Il y a même une carte du monde, la Terre étant représentée comme un espace de compétition entre les législations.

La « comparologie » déborde du cadre commercial, et concerne toute notre existence. Il y a aussi les sites pour choisir un itinéraire, un restaurant, une rencontre amoureuse, une rencontre professionnelle, avec ce principe où l’on peut faire défiler les « profils ». Le comble du système comparatif.

Tout cela peut sembler anodin, et signe de progrès. Eric Sadin y voit, pour sa part, le signe que nous sommes entrés dans une « anthropologie du comparatif », stade ultime de l’utilitarisme qui trouve sa forme achevée dans tous nos assistants numériques personnels, machines sophistiquées pour tout comparer en vue de « notre meilleur intérêt ».

Pour lui, nous vivons « un nouvel âge de la concurrence » qui « n’oppose plus seulement les entreprises ou les individus entre eux, mais met tout corps organique et bien matériel en vis-à-vis de tous les autres afin de pouvoir en tirer le meilleur avantage. Chaque substance se trouvant réduite à une valeur objectivée, et ne valant plus en elle-même et par elle-même mais seulement en fonction de ses attributs évalués ».

C’est alors toute la société qui se soumet à ces impératifs. Elle devient un lieu où l’on noue et dénoue les alliances, selon les propositions des systèmes de comparaisons. On peut changer d’ami comme de voiture. Pour l’auteur cette « comparologie intégrale » porte le risque de « bafouer l’estime de soi et la dignité humaine ». Il cite Kant ( dans « les fondements de la métaphysique des mœurs » - 1785) : « Dans le règne des fins tout a un prix ou une dignité. Ce qui a un prix peut être aussi bien remplacé par quelque chose d’autre, à titre d’équivalent ; au contraire, ce qui est supérieur à tout prix, ce qui par suite n’admet pas d’équivalent, c’est ce qui a une dignité ».

Dans cette société que décrit Eric Sadin, chacun se sent « utile » au moment où il est choisi, après avoir été comparé, et ne se sent vivant qu’au moment où il compare lui-même avant de choisir. C’est la civilisation qui « réduit chacun de nous à une unité indifférenciée ».

Je recevais le mois dernier, lors d’une conférence au collège des Bernardins avec PMP, Gaël Perdriau, vice-Président de LR et maire de Saint-Etienne. Il me rappelait une tribune qu’il avait publiée dans Le Monde en Avril 2021, où il déplorait que la classe politique soit devenue « séduite par le mirage de l’efficacité absolue », où « l’utilitarisme a supplanté toute vision collective, faisant de la société le lieu de la concurrence directe entre les individus ». Pour lui c’est cet « affrontement entre l’Homo economicus et le citoyen favorise la lente montée de la violence des rapports sociaux au moment même où la crédibilité de la parole publique ne cesse de reculer. Comment pourrait-il en être autrement puisqu’autrui n’est plus un semblable mais un ennemi ». PerdriauGM2

Il proposait de remplacer ce qu’il appelait « la société de la concurrence » par « la société de l’émulation », pour que « la comparaison avec autrui cesse d’être un combat à mort ».

Décidément, peut-être faut-il se méfier un peu plus des comparaisons un peu trop guidées par nos machines, et retrouver le sens de la dignité humaine.

Un programme kantien.

(crédit photo : Serge Loyauté-Peduzzi)


Qui gouverne et transforme la ville ?

VillenumeriqueC’était hier, c’était il y a longtemps… Question de perspective et de mesure du temps : C’est en 2007 qu’Apple lance son smartphone, et cet appareil va changer beaucoup de choses dans nos vies. Cet appareil va permettre de connecter en permanence les individus à internet, et donc permettre d’accéder à des services et à des informations en déplacement.

2008, c’est l’année à partir de laquelle on a estimé que plus de la moitié de la population mondiale vit dans des villes.

Et ces années sont donc un tournant dans la façon dont on va gérer et transformer les villes.

Et deux positions cohabitent dans la façon d’apprécier l’impact du numérique sur nos vies dans la ville : pour certains c’est un vecteur de progrès majeur, qui nous permet de résoudre des problèmes, de rendre le monde plus efficient, de proposer de nouveaux services. Alors que pour d’autres, c’est un risque pour la société, qui renforce la précarisation des individus, la surveillance généralisée, la marchandisation des services, la bureaucratisation des gouvernements.

Des auteurs, sociologues et chercheurs en sciences sociales, sous la direction d’Antoine Courmont et Patrick Le Galès, dans leur livre « Gouverner la ville numérique », en proposent une mise en perspective utile.

Leur conviction, c’est que les données sont au cœur de la transformation des villes. L’utilisation de données pour la gestion et la construction d’outils et d’instruments de pilotage ne date pas d’hier, ni de 2007-2008, mais on constate qu’il y a eu un changement de dimension avec ce qu’on appelle les « Big data ». Avec ce phénomène de multiplication des données en très grand nombre, celles-ci deviennent une ressource économique. Elles fournissent des traces enregistrant nos pratiques individuelles et circulent au sein et entre les organisations. Antoine Courmont et Patrick Le Galès y voient ce qu’ils appellent une transformation des relations entre les acteurs de la gouvernance urbaine.

Ce qu’ils appellent la gouvernance, c’est « un processus de coordination d’acteurs, de groupes sociaux, d’institutions, pour atteindre des buts discutés et définis collectivement, et donc agréger des acteurs, donner une direction à la société et exercer une forme de contrainte ».

En posant le sujet de la gouvernance comme un jeu d’acteurs multiples, les auteurs s’écartent donc d’une vision traditionnelle de l’action publique, qui donnait un rôle prééminent aux gouvernants et aux élites dans l’organisation et le pilotage de la société, dans une approche que l’on pourrait dire « top – down ». Dans leur approche, les élus et la régulation politique ne sont qu’un facteur parmi d’autres, au point de se voir reprocher de sembler minimiser le rôle primordial de ceux qu’on appelle les « politiques « .

Car ce qu’elles mettent en évidence, c’est le fait que d’innombrables actions des individus produisent aussi des transformations des villes, formelles ou informelles, qui échappent au gouvernement et aux élus.

On pense bien sûr aux développement des plateformes comme Airbnb, Uber ou Waze, qui influencent directement les pratiques urbaines, en dehors de toute régulation politique. Waze va diriger les déplacements de chaque individu, contrairement à une régulation centralisée qui réorganise la circulation de manière collective en ouvrant ou fermant les voies de circulation pour tous. Au point de créer des conflits et mésaventures, comme celle restée célèbre en 2017, en Californie : Alors que la région est frappée par des incendies dramatiques, les routes qui restent sécurisées se trouvent encombrées, alors que les routes en zones dangereuses sont vides et interdites à la circulation ; Mais l’algorithme de Waze va justement proposer aux automobilistes des itinéraires qui vont les mener sur ces routes dangereuses, à proximité directe des incendies, car l’algorithme calcule le parcours à partir des données du trafic pour optimiser la durée du trajet en temps réel, sans intégrer, dans ce cas précis, des préoccupations relevant de la sécurité.

Les moteurs de recherche et les réseaux sociaux ont aussi leur influence, en modifiant la mise en scène de la vie urbaine et les interactions sociales. Ils permettent de créer des communautés virtuelles qui organisent la vie nocturne urbaine. On l’a vu encore récemment en France avec les regroupements de foules importantes pour faire la fête dans des lieux parisiens extérieurs publics, après le déconfinement, en prenant de cours les policiers.

Dans l’espace urbain, le numérique peut aussi être facteur de cloisonnement des interactions, de polarisation accrue, de dépendance. Les interactions dépendant aussi des questions de sécurité, on a vu de nombreux investissements numériques dans les villes sur ces questions de sécurité. On parle moins de « smart city », qui n’a pas toujours convaincu, mais de « safe city ». Ce sont les acteurs privés du numérique qui apportent les solutions, et notamment les firmes chinoises comme ZTE et Huawei, qui intègrent les caméras de surveillance, la reconnaissance faciale, analyses de données en temps réel, caméras embarquées dans des drones de surveillance, solutions intégrées au sein de plateformes et algorithmes de profilage. Les technologies permettent maintenant de mettre en place des systèmes de « gestion urbaine prédictive », qui dirige le déploiement des patrouilles de police dans le temps et l’espace en fonction du repérage anticipé des « points chauds ». Là encore, ce sont des entreprises privées qui ont mis au point les solutions et offrent leurs services, avec un marketing sophistiqué, aux gouvernements et collectivités.

L’entreprise célèbre pour avoir commercialisé la solution à la police de Los Angeles est Predpol. Mais la police de Los Angeles a arrêté ce programme en avril 2020, officiellement pour des raisons de contraintes budgétaires liées au Covid, mais aussi parce qu’elle avait subi des critiques d’activistes reprochant au programme et aux algorithmes des biais qui stigmatisaient les communautés noires et latino-américaines. Par contre, la ville de Séoul a mis en œuvre une solution similaire, toujours opérationnelle. En France, ces solutions ne sont pas encore utilisées, mais des expérimentations sont à l’étude.

Ainsi, pour des usages de régulation des flux, la RATP a obtenu l’autorisation de la CNIL pour expérimenter un système de mesure de l’affluence sur les quais de la ligne 14 de la station Gare de Lyon à l’aide de caméras dopées à l’intelligence artificielle, avec l’objectif de fluidifier la fréquentation de la ligne. L’idée est de partager un taux de saturation pour informer les voyageurs sur des écrans à disposition, et proposer des solutions alternatives.

Avec le développement du numérique urbain, le discours globalisateur et centralisateur cède du pouvoir à un réseau d’acteurs associatifs et des habitants qui créent ensemble des biens communs, élaborent de nouvelles solutions, délibèrent, refont du politique en dehors des institutions. Le mouvement de l’économie sociale et solidaire se renforce par les réseaux sociaux et les initiatives solidaires locales. Il appelle à des systèmes ouverts, décentralisés, gratuits, horizontaux, et à des initiatives citoyennes et démocratiques.

Comme le disent les auteurs, les technologies numériques peuvent faire penser à « Big Brother is watching you », mais elles permettent aussi aux citoyens de s’organiser sans les autorités « officielles ».

De quoi débattre sur comment gouverner et transformer, aujourd’hui et demain, les villes de plus en plus numériques. 


Les data vont-elles tuer les managers et les consultants ?

WorkerIl y a maintenant environ trente ans, parler d’automatisation et de systèmes d’informations, c’était parler des ERP (Enterprise Resource Planning), en français les PGI ( Progiciel de Gestion Intégrée), permettant de gérer l’ensemble des processus de l’entreprise. SAP, ORACLE et autres BAAN en étaient les rois, et les consultants ont développés des practices puissantes pour s’imposer comme maîtres d’ouvrages ou maîtres d’œuvre de tels progiciels. D’où aussi ce rapprochement entre les entreprises de Conseil et les leaders de ces technologies. Ainsi se sont déployées des entreprises comme Accenture, Cap Gemini, et même IBM, qui a racheté l’activité de Conseil de Pwc, à l’époque, 2002, pour un prix considéré comme modique de 3,5 milliards de dollars, tout cela dans un contexte où les nouvelles législations interdisent aux entreprises d’audit d’exercer des activités de Consulting pour les mêmes clients. C’était le début, pour le Métier du Conseil, du divorce de l’Audit et du mariage avec les Technologies.

Ces systèmes ont amené avec eux des gains de productivité et d’efficience dans les entreprises. Les emplois touchés ont été essentiellement des emplois de tâches administratives, et des emplois d’exécution. On a reconfiguré les processus, éliminant les gaspillages, avec des approches méthodologiques anciennes, inspirées de Toyota, de Lean Management. C’était aussi l’époque des BPR (Business Process Reengineering), dont les gourous étaient Michael Hammer et James Champy, où il ne s’agissait plus d’amélioration continue et de Lean, mais de tout casser pour tout refaire. Tout le monde s’y mettait, y compris les consultants bien sûr, en lisant comme une bible « Reengineering the Corporation » des deux auteurs (  best-seller des années 90). La méthode du consultant et du manager lui-même ne changeait pas trop : interviews, analyses, réunions pour décrire et imaginer les processus (un bon « brown paper » et formalisation du « As Is » et du « To Be »), plans d’actions, tout ça restait à peu près identique. L’expertise consistait à maîtriser ces types d’analyses et de diagnostic par processus. C’est l’expertise humaine qui créait la valeur et la façon de gérer ce changement, on disait plutôt « Transformation », le mot allait faire fureur dans les comités de Direction. On ne comptait plus les « programmes de transformation ». Et ça dure encore. Même Emmanuel Macron avait présenté son programme en 2017 comme un programme de transformation de la France (c’était avant la Covid…).

Mais voilà que nous connaissons une nouvelle vague aujourd’hui, depuis une dizaine d’années, et qui enfle de manière exponentielle. Il ne s’agit plus des processus de base et des tâches administratives, mais maintenant des activités des travailleurs intellectuels, en imitant les capacités qu’ils utilisent dans l’exécution de leurs activités professionnelles. Et l’on cherche alors, grâce à de nouvelles technologies et en repensant les processus, à obtenir un produit fini (par exemple un rapport d’activité, un diagnostic, une décision) engendrant le moins d’intervention humaine possible. Et ainsi augmenter la vitesse des processus (plus besoin de ces réunions où l’on discute pour analyser et décider trop longuement), réduire les coûts, améliorer la conformité et la qualité, faire moins ou plus du tout d’erreurs, et aussi optimiser les résultats des décisions. In fine l’objectif est d’améliorer aussi la satisfaction des clients et des collaborateurs en augmentant les revenus. On appelle cet ensemble de technologies « l’automatisation intelligente », qui se concentre donc sur l’automatisation du travail effectué par les travailleurs intellectuels, dont le principal capital est la connaissance. Cela concerne tous les travailleurs dont le métier est de penser pour vivre. Cela concerne par exemple les programmeurs, mais aussi les médecins, les pharmaciens, les ingénieurs, les architectes, les avocats, les scientifiques, les designers, les experts-comptables. Et on comprend assez vite que cela va sûrement concerner aussi les consultants eux-mêmes. Une nouvelle révolution est en marche.

Cette « automatisation intelligente » ( on va dire l’AI, à ne pas confondre avec l’IA – Intelligence Artificielle- qui n’est qu’une des composantes de l’AI), devient le nouveau « buzz word » pour désigner tout ce qui va permettre de créer des « travailleurs numériques » (programmes d’automatisation) qui permettent d’imiter les actions effectuées par les travailleurs intellectuels. Cela concerne toutes les tâches qui utilisent nos capacités humaines : voir, entendre, parler, lire, comprendre, agir, réagir et apprendre. L’AI est cette combinaison de technologies qui reproduisent des capacités humaines pour effectuer des processus au nom des travailleurs humains. Il ne s’agit pas de complètement remplacer l’humain, mais de créer une nouvelle main d’œuvre numérique qui va pouvoir s’associer avec l’humain. On parlera aussi d’ « hyper-automatisation ». Le terme a été placé en première place en 2019, par le Gartner Group, des 10 meilleures tendances technologiques stratégiques.

Ce nouveau monde est, bien sûr, permis aussi par l’abondance des données générées et disponibles dans nos systèmes d’informations, les réseaux sociaux, le web, et aussi celles récupérées par les objets connectés. A chaque seconde, nous générons des données qui sont toutes stockées quelque part, parfois contre notre gré. C’est pourquoi l’Automatisation Intelligente va créer cette possibilité d’analyser des millions de points de données en quelques minutes et de générer des informations à partir d’eux ( par exemple pour identifier les comportements des clients ayant un impact direct sur les revenus).

L’idée est de créer des processus métier sans contact (donc nécessitant une interaction ou une intervention humaine réduites au minimum, voire complètement supprimée). C’est la perfection ultime de ces systèmes, qu’on appelle « straight-through processes ».

Si la tête nous tourne, submergé par toutes les implications d’une telle révolution, le livre de Pascal Bornet, co-écrit avec Jan Barkin et Jochen Wirtz, « Automatisation Intelligente – Bienvenue dans le monde de l’hyper-automatisation », est sûrement une boussole de référence pour nous aider à comprendre et surtout à ne pas se laisser dépasser par cette nouvelle vague, qui va changer nos vies, et aussi, comme le croient les auteurs, très optimistes, «  rendre notre monde plus humain », paradoxalement, car il s'agit en fait de "sortir le robot de l'humain" c'est à dire de sortir de l'humain tout ce qu'on peut faire faire à la machine pour garder à 100% ce que l'humain sait mieux faire que la machine. 

Le livre permet de parcourir toutes les technologies et leurs usages pour la vision, l’exécution, le langage, penser et apprendre. Et d’imaginer que le travailleur de 2020, avec son ordinateur et son téléphone, sera bientôt à trouver dans les musées, comme le montre l’image en tête de cet article, et reproduite dans le livre.

Car toutes les technologies évoquées ne sont pas de la science-fiction, mais déjà disponibles et utilisables, qui plus est économiquement attractives, car disponibles à un coût raisonnable au regard du retour sur investissement, généralement de moins d’un an.

Pour « Voir », qui correspond aux yeux de la main d’œuvre numérique, nous avons les technologies de reconnaissance optique des caractères (OCR), la reconnaissance intelligente des caractères ( ICR), l’analyse d’images et de vidéos, et la biométrie. Tout cela pour capturer et traiter les documents, et générer des informations à partir d’images et de vidéos et en discernant les identités.

Pour l’ »Exécution », c’est-à-dire les mains et les jambes de la main d’œuvre numérique, nous avons tout ce qui permet le workflow intelligent, les plateforme low-code (qui permettent aux utilisateurs professionnels de développer leurs propres programmes en utilisant un environnement de développement visuel et intuitif), l’automatisation des processus robotiques (appelée RPA, Robotic Automatisation Process, elle couvre toutes les actions qu’une personne peut faire sur un ordinateur à l’aide d’une souris ou d’un clavier, et qui peut être remplacé par ce type de « software robot »).

Pour le « langage », qui correspond aux oreilles et à la bouche de la main d’œuvre numérique, et permet aux machines de lire, parler, écrire, interagir, interpréter et tirer un sens du langage humain, la technologie principale est le traitement du langage naturel (NLP, pour Natural Language Processing), mais aussi la génération automatique de textes (GAT, ou NLG, pour Natural Language Generation). C’est ce qui permet d’élaborer des chatbots intelligents, de gérer des données non structurées, d’analyser les sentiments et des données vocales.

Pour « penser et apprendre », qui correspond au cerveau de la main d’œuvre numérique, on a les technologies qui permettent de créer des informations pour soutenir la prise de décision. Cela comprend l’analyse mais aussi la prédiction. C’est aussi la possibilité de déclencher des actions automatiques (si la machine détecte un comportement frauduleux, elle envoie un message automatique au gestionnaire du client pour lui réclamer une enquête). Les technologies concernées comprennent la gestion du big data, le machine learning, et la visualisation des données. Les décisions peuvent être prises directement par la machine (machine learning) ou par des humains aidés par la machine (visualisation des données).

C’est sûr qu’il va falloir un changement des états d’esprit et des habitudes pour travailler avec les yeux, les mains, les jambes, les oreilles, la bouche et le cerveau de ces nouveaux collègues que sont ces « travailleurs numériques », qui voient, sentent, comprennent et décident plus vite et mieux que nous en certaines circonstances. Les managers, chefs de projets et les consultants vont devoir revoir leurs pratiques. Probablement que les nouvelles générations apprendront plus vite. Et les plus expérimentés, ceux qui sont dans un rôle de « counsellor » inspiré, sauront manager et apporter un service, une écoute active, et une capacité à comprendre, sur démultipliés grâce à ces équipes mixtes de travailleurs humains et de travailleurs numériques. Ce sont sûrement les « experts » habitués à leurs ordinateurs, aux analyses limitées à leur propre intuition ou expertise (« j’ai déjà vu le même problème ailleurs, je connais »), qui ont ancré les habitudes de conduire leurs entretiens, brainstorming et ateliers avec du papier et des crayons, quelques tableurs et Google Search, qui vont avoir le plus besoin de se remettre en cause, au risque de s’acheminer vers le musée, car trop lents, trop chers, et moins pertinents dans leurs méthodes de travail.

Il y a de quoi avoir peur de l’avenir, souhaiter que le monde d’avant dure encore un petit peu, pour ne pas perdre pied et la face. Il y a aussi de quoi être excité et avoir envie de passer au plus vite dans ce nouveau monde, d’être capable de monter des projets encore plus ambitieux et encore plus utiles pour les progrès et le bien-être de l’humanité.

A chacun de choisir son camp. Mais on risque très bientôt de n’avoir plus vraiment le choix.


La bonne copine

GOODOn connaît les discours, les appels au secours, les alertes, sur la dévastation généralisée des écosystèmes, l'épuisement des ressources naturelles, le réchauffement climatique.

Au point pour certains de remettre en cause la course à la croissance at au progrès. La sortie de Camille Etienne, militante écologiste de 22 ans et porte-parole du mouvement "On est prêts", lors de l'Université du Medef (rebaptisée Renaissance des Entrepreneurs de France) fin août 2020, qui a osé affirmer qu'il faudrait  "oser réinventer tout ça; peut-être travailler moins, avec un peu plus de sens", a fait le tour des réseaux sociaux, et fait glousser les patrons présents à l'hippodrome de Longchamps pour y assister.

Bien sûr, pour d'autres, comme Emmanuel Macron, revenir en arrière, ce serait revenir à la lampe à huile et au modèle Amish, contre la 5G. Dans Le Monde du 25 septembre, une tribune est signée par quatre anciens conseillers politiques et juristes du numérique, se présentant astucieusement comme "amish du numérique" pour poser la question également :

" Alors que certains considèrent que toute innovation technologique est bonne par essence, nous nous demandons : est-ce que cette innovation va nous aider à mieux vivre ensemble ou bien est-ce qu'elle risque de nous désunir ? ". 

Un autre récit émerge depuis quelques années, et se répand aujourd'hui dans le monde des entreprises, qui se veut radicalement plus rassurant : Il annonce que, grâce justement à des progrès technologiques fulgurants, l'espèce humaine pourra bientôt connaître l'abondance, vivre longtemps et en bonne santé (la mort de la mort), et même conquérir l'espace pour s'y installer. ce futur heureux est celui désigné par le terme de "transhumanisme"

Un chapitre du livre de recueil d'articles "Collapsus", de Laurent Testot et Laurent Aillet, rédigé par Gabriel Dorthe, universitaire suisse auteur d'une thèse sur le sujet que l'on peut trouver en intégralité ICI, vient nous rappeler que ce terme de "transhumanisme" a été employé dans les années 50 par le biologiste Julian Huxley, frère du romancier Aldous Huxley (oui, l'auteur du "Meilleur des mondes" que l'on relit beaucoup en ce moment), qui anticipait le développement des biotechnologies qui permettrait à l'humanité de prendre en charge sa propre évolution. L'ouvrage a pour titre singulier " New bottles for new wine". Il faudra ensuite plusieurs décennies pour imposer la forme en "-isme" du concept. C'est en 1998 qu'est fondée la "World Tranhumanist Association" (WTA), par deux philosophes, le Suédois Nick Bostrom et l'Anglais David Pearce, rebaptisée en 2002 "Humanity+". Des associations du même type se créent alors à travers le monde, dont celle française, fondée en 2010, l'Association française transhumaniste Technoprog ( AFT). 

Une charte "Déclaration transhumaniste" a même été rédigée en 1998 par la WTA, remaniée plusieurs fois, la dernière en 2012, que l'on trouvera ICI

Cette déclaration pose dans son article 1 que " L'humanité sera profondément affectée par la science et la technologie dans l'avenir. Nous envisageons la possibilité d'élargir le potentiel humain en surmontant le vieillissement, les lacunes cognitives, la souffrance involontaire, et notre isolement sur la planète Terre". 

 Elle en appelle ensuite à délibérer, en tant que citoyens, sur l'administration des conséquences des progrès envisagés, et à choisir les éléments à promouvoir. 

Cela n'empêche pas, encore un peu aujourd'hui, certains critiques de présenter ces "transhumanistes" comme de doux dingues, ou, pire, des milliardaires aux idées fumeuses qui voudraient servir leurs intérêts d'investisseurs. Un hebdomadaire s'en prenait cette semaine à des investisseurs comme Xavier Niel qui investit dans des nouvelles formes d'alimentation sans viande, avec des steaks conçus en laboratoires ("L'agriculture cellulaire") ou dans l'entreprise MotifIngredients, avec Jeff Bezos et Bill Gates, qui a pour objectif de fabriquer des alternatives de laboratoires à la viande, aux œufs ou au lait, les soupçonnant de soutenir les antispécistes et le référendum sur les animaux pour nous détourner plus vite de l'agriculture traditionnelle.

Le débat n'est pas fini, et est nourri cette semaine par un dossier du Monde de ce week-end (daté de Dimanche 27/09), "L'entreprise va-t-elle sauver le monde ?", présenté par Nicolas Santolaria, et dont j'ai repris l'image d'illustration pour ce post. Il évoque ces entreprises qui se désignent comme "Good" : Ce sont ces entreprises dont "le projet, les produits et les services s'inscrivent dans des objectifs d'accroissement du bien commun, en retenant quatre thématiques : la réduction de l'émission des gaz à effet de serre, l'éducation, la réduction des inégalités er la santé" (selon la définition d'un rapport de PwC sur le sujet). On est un cran en-dessous des visions transhumanistes, mais le projet relève du même genre d'optimisme. Ce "Good" désigne bien, comme le souligne avec un peu d'ironie Nicolas Santolaria, " une approche proactive, presque chevaleresque, du bien commun, soudain devenu le cœur incandescent du capitalisme." Cela a pris de l'ampleur avec ce mouvement d'entrepreneurs "Tech for Good France". 

Bon, le dossier donne aussi la parole aux sceptiques, comme le sociologue Marc Audétat, coauteur de l'ouvrage " Sciences et technologies émergentes : pourquoi tant de promesses ?" : " C'est marrant, ce terme, "la tech". C'est comme si on assimilait la technologie à une bonne copine, qui vous amène des solutions. On a beaucoup eu, ces dernières années, le sentiment d'une innovation sans progrès. L'intelligence artificielle, la disruption façon Uber, les GAFA ont fini par être perçus de façon très pessimiste, prédatrice et négative. Regardez la série "Black Mirror" : la technologie y incarne le méchant. Le "Good" est donc une réponse à ce climat délétère. En mariant la marchandise et le bien, cette nouvelle mythologie suscite des émotions positives qui permettent aux entreprises de s'insérer sur des marchés porteurs. C'est aussi une réponse à l'impuissance que l'on ressent tous, un discours éthique qui ne mange pas de pain et auquel les gens pourront adhérer facilement."

Alors, cette bonne copine va-t-elle sauver le monde, nous libérer et élargir notre potentiel humain, au point de surmonter le vieillissement, les lacunes cognitives et la souffrance ? 

Question de foi, ou de confiance.


Saint Thomas n'y croit plus

SaintthomasSaint Thomas serait bien malheureux aujourd'hui. Lui qui ne croyait que ce qu'il voyait, il serait bien en peine de faire la différence entre les vérités et les fake news, y compris parmi les vidéos qui peuvent être contrefaites avec l'intelligence artificielle. On a la souvenir de cette vidéo "deepfake" de Barack Obama lui faisant dire les pires horreurs, et qui était un fake total.

C'est sur cette technologie que part le roman de Sabri Louatah, "404" qui est une science fiction, une dystopie, située dans un temps pas si lointain, en 2022. A cette date, les vidéos "deepfake" sont de mieux en mieux simulées grâce à l'intelligence artificielle et au deep learning, l'auteur les appelle des "mirages". Au point qu'on n'arrive plus à distinguer les vraies des fausses vidéos qui circulent sur les réseaux sociaux. Terminée la preuve par l'image. Saint Thomas est K.O. Le roman relate par exemple le récit d'une mère qui a perdu son enfant et qui refabrique grâce aux fausses vidéos permises par Facebook , et fabriquées à partir du stock de vidéos qu'elle possède de son enfant, des vidéos de cet enfant disparu en le faisant vieillir et grandir à l'image. 

L'auteur imagine qu'un nouvelle application de streaming est créée, il l'appelle "404", qui empêche d'éditer et d'enregistrer les flux vidéos , empêchant ainsi toute fabrication de "mirage" à partir de toute vidéo sur 404. C'est donc une vidéo inviolable, et non reproductible. Drôle d'application, qui ne serait finalement que l'équivalent de "la télévision avant le magnétoscope". Cela s'appelle "404" en rappel du message d'erreur 404 quand on n'accède pas au site demandé. 

Mais cette application va se révéler monstrueuse, car elle va offrir à ceux qui sont attirés par elle "le plaisir de se montrer sans conséquences", et donc de débiter les pires horreurs, ou les images les plus crues. On peut donc, en se connectant sur cette plateforme, "entendre ce que les gens disent quand ils savent que leurs paroles s'envoleront pour toujours"; car les vidéos sur 404 ne peuvent être vues qu'en direct, et non enregistrées; et donc on ne tiendra pas rigueur à ceux qui se lâcheront en propos racistes ou misogynes. Ainsi, au lieu de se sentir épié, surveillés ou policés sur Facebook, avec 404, on se sent libre. Ce que souhaite l'auteur de cette application 404 part d'un bon sentiment : il s'agit de libérer les gens de la "fréquentation du faux".

Mais, malgré ces bons sentiments, cette géniale idée de géniale application va tourner au cauchemar. L'application devient le lieu de rassemblement du communautarisme. Avec des "agoras" de débats de cette communauté des arabes vivant en France. L'auteur va jusqu'à imaginer qu'une région de France, l'Allier, au centre de l'hexagone, où les Français arabes se sont réfugiés, et où l'application "404" est lancée en priorité, comme un prototype, finit par envisager de demander son indépendance. 

Ce roman dystopique oblige à imaginer les conséquences du "règne du faux" que nous connaissons déjà aujourd'hui, et les pertes d'identité qui en découlent. Et nous rappelle aussi que les bonnes intentions peuvent parfois mal tourner.

Et pour troubler encore un peu Saint Thomas, la vidéo du fake Obama :


Six millions de prédictions de comportement humain par seconde : Gouvernance algorithmique

ALGOSAvec le développement des systèmes qui traitent et analysent des masses de données, peut-on penser que la gestion de nos villes va substituer une gouvernance algorithmique à la gouvernance démocratique par des élus ? C’est la thèse de Shoshana Zuboff, auteur de « The age of surveillance capitalism : the fight for a human future at the new frontier of power ». Ce capitalisme de surveillance dont elle parle, c’est cette capacité à capter l’expérience humaine et d’en faire une matière première pour la transformer, grâce aux algorithmes d’intelligence artificielle, en prévisions comportementales qui pourront être monnayables sur un nouveau marché. C’est ce que font Google et Facebook avec les données fournies sur leurs plateformes. C’est Facebook qui a annoncé dans un memo de 2018, que son « IA Hub », qui traite quotidiennement des milliards de données est capable de produire « 6 millions de prédictions de comportement humain par seconde ». Whaou !

Alors, pour nos villes, à l’heure des élections municipales, comment ça marche ? C’est une filiale de Alphabet, holding de Google, Sidewalk Labs, qui installe des kiosques wifi gratuits dans les grandes villes, qui a proposé à la ville de Toronto de gérer son front de mer, dans une zone de la ville partiellement abandonnée  : cela consiste à s’approprier les données de tout ce qui s’y passe, et de gérer ces « urban data ». Ainsi tout ce qui se passe dans les appartements, les voitures, dans la rue, dans un café, que cela implique des êtres humains ou des machines, ou même des animaux, devient une « donnée urbaine » que l’on peut utiliser ; et rares sont ceux qui, comme Google, ou Amazon, sont capables de les traiter de manière efficace. L’objectif de Sidewalk Labs était d’en faire « le quartier le plus innovant du monde ». Après pas mal de discussions et résistances des locaux, plus la crise du covid-19, ce projet a finalement été abandonné par Google en mai dernier. Pour le moment. La ville du futur va encore attendre un peu, mais pas trop longtemps, à en croire Shoshana Zuboff. Et le CEO de Sidewalk Labs, Daniel L. Doctoroff, a lui-même déclaré que «  la crise sanitaire actuelle nous rend encore plus convaincus de l’importance de réimaginer les villes du futur ».

Car les progrès de l'intelligence artificielle ne s'arrêtent pas. Dans Le Figaro du 18 juin, Yann Le Cun, responsable de la recherche en intelligence artificielle chez Facebook et professeur à l'Université de New York donne sa vision des progrès à venir :

" La prochaine grande évolution de l'I.A consistera à la doter, grâce à l'apprentissage non supervisé, du sens commun. C'est ce qui permet à un bébé de comprendre dès le deuxième ou troisième essai qu'un objet tombe quand il le lâche. Nous y parviendrons à un horizon indéterminé, peut-être dans cinq ou vingt ans. Pour cela, il faut faire grossir la taille des réseaux neuronaux. Si cela marche, la machine pourra apprendre comment fonctionne le monde en regardant simplement des videos".

Dans une ville gouvernée par les algorithmes, les citoyens n’ont plus besoin de se réunir, ou les élus de délibérer, pour savoir comment vivre ensemble. Ce sont les algorithmes qui peuvent définir, et de manière optimale, par exemple le niveau de bruit acceptable. On passe ainsi à un nouveau modèle de société où, pour résoudre les problèmes, on ne table pas sur la démocratie et l’égalité, mais sur un savoir asymétrique et un pouvoir instrumental qui peut dicter l’harmonie à la société. C’est du moins ainsi que le présente Shoshana Zuboff ; on sent bien qu’elle n’aime pas trop ça.

Alors, entre Doctoroff et Zuboff, va-t-on devoir choisir son camp ?

Les prédictions sont ouvertes…Il doit bien exister un algorithme quelque part parmi les millions de prédictions produites pendant les secondes et minutes qu’il nous a fallu pour lire cet article.

Et les prochains maires de nos villes seront des machines qui regardent des videos...


Singularitariens

SingularityLe perfectionnement continu des technologies numériques, et en particulier de l’intelligence artificielle, auquel nous assistons depuis le développement de l’internet, a fait émerger un concept original : la singularité.

La singularité, c’est cette période située dans le futur, très proche selon certains observateurs et chercheurs, pendant laquelle le rythme du changement technologique sera si rapide, et ses impacts tellement profonds, que la vie humaine en sera profondément et de manière irréversible, transformée. C’est un moment où l’accélération des technologies sera telle que les humains ne pourront plus l’assimiler et devront trouver de nouveaux modes de coopérations entre l’homme et les machines. C’est comme un point où les humains seront incapables de penser et comprendre suffisamment vite les changements pour rester dans la course.

Ceux qui ont compris et anticipent ce moment et toutes les transformations qu’il va falloir opérer dans nos organisations et dans notre vie elle-même, sont ceux qui s’appellent eux-mêmes les « singularitariens ». Ils ont compris les transformations qui s’annoncent et ont réfléchi à leurs implications pour eux, pour leur vie, et pour la vie de tous.

Le plus célèbre est sûrement Raymond Kurzweil, auteur de nombreux ouvrages sur le sujet, qui a été employé par Google en 2012 et devenu directeur de l’ingénierie pour conduire des projets sur l’apprentissage automatisé et le traitement automatique des langues.

L’idée de départ des singularitariens, c’est que la vitesse de changement de la technologie créée par les humains s’accélère et que la puissance de cette technologie se répand à une vitesse exponentielle. Or la perception de cette croissance exponentielle est difficile pour les humains habitués à voir le monde et son développement dans un mode plutôt linéaire. Avec le mode exponentiel, les technologies commencent leur développement presque imperceptiblement, et explosent ensuite rapidement, sans que l’on ne l’ait anticipé. Car la pensée humaine est extrêmement lente par rapport à la vitesse des machines. Les transactions réalisées par le cerveau humain sont plus lentes de plusieurs millions que les circuits électroniques contemporains. Ce qui rend notre capacité à processer de nouvelles informations très limitée par rapport à la croissance exponentielle des données et bases de données produites par les humains.

La Singularité est ce qui va nous permettre de dépasser ces limites de notre corps et de notre cerveau biologiques, grâce aux machines. Et ainsi de reprendre le pouvoir sur notre destin. Au point d’avoir dans les mains du pouvoir sur notre mortalité. D’ici la fin du XXIème siècle, la part non biologique de notre intelligence, celle aidée ou remplacée par les machines, sera des trillions de trillions plus importante que celle produite par l’intelligence humaine non aidée.

Pour comprendre et vivre en avance de phase ces transformations, le livre de référence de Ray Kurzweil reste «  The singularity is near », pourtant écrit en 2005, il y a 14 ans déjà.

Nous avons eu depuis la création de la « Singularity University » créée en 2008 par Raymond Kurzweil et Peter Diamandis, dont j’avais déjà parlé ici de son ouvrage « Abondance ».

Dans la vision « post-Singularity », on ne verra plus de différence entre l’humain et la machine, ou entre la réalité humaine et la réalité virtuelle. Nous sommes maintenant dans une époque où les humains travaillent avec des technologies de plus en plus avancées, pour eux-mêmes créer des technologies de nouvelle génération. Au point qu’au temps de la Singularité on ne distinguera plus la différence entre l’humain et la technologie. Non pas parce que les humains deviendront des machines, mais parce que les machines se comporteront comme des humains.

Reste à imaginer nos organisations et nos modes de fonctionnement dans cette ère de la singularité.

L’imagination, humaine, est aux commandes.