Le capitalisme est-il foutu ?

CapitalismeAvec le réchauffement climatique, mais aussi les crises que nous connaissons, le capitalisme est souvent accusé du pire, au point de considérer que pour aller mieux, il faudrait se débarrasser de ce capitalisme que l’on se plaît à caractériser d’ « à bout de souffle ». Cela fait au moins le bonheur des auteurs et éditeurs qui reprennent ce discours, ainsi que les politiques qui vont pêcher les voix avec ce type de slogan.

Pour les entrepreneurs et dirigeants ou managers d’entreprises, ces discours n’ont pas d’intérêt.

Mais on peut aussi les considérer comme un scénario à envisager si les mouvements qui emportent ces idées venaient à s’imposer. Et les équilibres des votes pour les élections européennes pourraient en donner un avant-goût.

Le capitalisme, c’est quoi en fait ? Pour faire simple, on peut dire que c’est un mode d’organisation économique qui repose sur la séparation du capital et du travail. On peut dire qu’il introduit une séparation entre la propriété des moyens de production (le capitaliste) et le travailleur (qui reçoit un salaire). Cette économie s’oppose à celle de l’économie primitive qui reposait sur la chasse, la pêche, le troc, mais aussi à l’économie féodale, dans laquelle c’est le seigneur qui possède les moyens de production, transmis héréditairement, et aussi la force de travail qui est serve. Tout cela change avec la première révolution industrielle (lire Luc Boltanski dans « le nouvel esprit du capitalisme »), qui met en place un « capitalisme de l’autonomie », où domine la figure du bourgeois, entrepreneur calculateur avisé, à la fois émancipateur (vis-à-vis des anciennes hiérarchies qui pesaient sur les sociétés traditionnelles) et conservateur (il érige le travail en morale).

Puis, toujours selon Luc Boltanski, on passe au capitalisme de la grande entreprise, entre 1930 et 1960, qui va reposer sur l’organisation rationnelle du travail, le fordisme, le gigantisme, la planification. Et avec les années 1990, on est passé dans l’ère du « capitalisme dématérialisé de réseau ». On s’est libéré du modèle de l’organisation fonctionnelle et des hiérarchies (enfin, peut-être pas encore partout), pour passer à l’entreprise réactive, flexible, agile. C’est le moment du développement de la sous-traitance et de l’externalisation. Le succès, c’est d’augmenter son réseau, de mobiliser un grand nombre de connexions dans différents réseaux.

Je retrouve ICI un entretien avec Olivier Besancenot, chantre de cet anticapitalisme, qui éclaire l’intention : « Pour nous, l’anticapitalisme est la volonté d’en finir avec la société actuelle, et d’en bâtir une nouvelle. Aujourd’hui, il y a une dictature du capital sur l’économie et la société : tout se transforme en marchandise. Or, nous ne pensons pas que le capitalisme puisse être moralisé, ni réformé. A nos yeux, la mondialisation libérale n’est pas un moment particulier du capitalisme, lequel pourrait changer de visage. Après les années de croissance exceptionnelle de l’après-guerre, le marché s’est trouvé saturé, et le taux de profit a eu tendance à diminuer. Pour maintenir le taux de profit à niveau constant, les entreprises ont bloqué l’évolution des salaires et amputé les acquis sociaux. D’autre part, on a vu se développer les marchés financiers, qui offrent la possibilité de faire de l’argent avec de l’argent. La financiarisation de l’économie est inscrite dans le patrimoine génétique du capitalisme, car la spéculation tend à y supplanter l’investissement dans l’économie réelle. Ni les mots, ni les lois ne pourront empêcher ces dérives là, et l'on ne peut espérer que les capitalistes se tirent volontairement une balle dans le pied ».

En clair, si on ne casse pas tout, c'est foutu.

Le capitalisme est-il foutu?

Car pour se sortir de cette situation, le message des anticapitalistes est clair : la révolution. Olivier Besancenot le dit clairement dans cet entretien : « La révolution ? C’est possible ! Quantitativement, il n’y a jamais eu sur Terre, dans l’histoire du capitalisme, autant d’exploités…Notre problème est simplement de revaloriser la force du nombre ».

Oui, c'est bien là "le problème", qui n'est pas si simple.  C'est la bonne formule de Karl Marx : "Prolétaires de tous les pays, unissez-vous !", formule qui figure dans l'épitaphe inscrite sur sa tombe.

Ce qui perce bien aujourd’hui c’est la version écologique de l’anticapitalisme. Cela remonte loin, à Thomas R. Malthus, qui, en 1798, expliquait dans son « Essai sur le principe de population » que les ressources terrestres, à l’accroissement arithmétique, ne suffiraient bientôt plus à nourrir la population humaine, qui croît de manière géométrique. Mais c’est justement le XIXème siècle, et le développement du capitalisme, avec les avancées des sciences et de la mécanisation, qui va donner tort à Malthus. C’est le commerce mondial et le développement des rendements agricoles qui vont sauver l’histoire. Mais on va alors parler des désastres et dommages faits à la nature par cette expansion. Au point qu’au XXème siècle, cette critique environnementaliste va gagner en force, dénonçant une attitude de prédateurs et de consommateurs face à la nature.

Cela se matérialise encore mieux avec la fondation du Club de Rome, en avril 1968, par des économistes, industriels et universitaires, qui décident de recenser les effets du capitalisme sur la planète. C’est le fameux rapport Meadows, « Halte à la croissance ? » (Avec un point d’interrogation, mais bon..). Leur conclusion est sans appel : L’humanité devrait connaître un effondrement général de son niveau de vie avant 2100. C’est de là que se développe ce mouvement de ceux qui prônent la décroissance, encore vif aujourd’hui.

Mais un autre mouvement a aussi émergé, moins médiatisé peut-être, celui des défenseurs de « l’écologie industrielle ». Ce mouvement s’est créé aux Etats Unis autour de Suren Erkman, un ingénieur suisse. Son idée est de réorganiser le tissu industriel et urbain comme un écosystème. Tout ensemble d’entreprises, tout quartier urbain, comme un système naturel, fait circuler certaines quantités de matières, d’énergie, de déchets, de gaz, d’êtres vivants, dont nous pouvons analyser le « métabolisme » - les flux, les stocks, les pertes, les dégradations. Aux hommes et aux politiques de s’ingénier pour que ce système polluant devienne un écosystème : qu’il récupère ses dépenses d’énergie, recycle ses déperditions, réutilise ses déchets, protège les espèces. Ce faisant, on repense l’entreprise comme la ville à l’image d’une chaîne alimentaire, en réinstallant usines, immeubles et ateliers au cœur d’un grand recyclage naturel. Regardez la communication de Groupes comme Suez, ou Veolia, ils sont à fond là-dedans. Y aurait-il une alternative au ralentissement de la course à la croissance dans cette construction (capitaliste) d’un nouvel environnement ?

Oui, si la révolution anticapitaliste gagne du terrain, le capitalisme et ses entrepreneurs n’ont pas dit leur dernier mot.

De quoi bâtir les scénarios alternatifs du futur.


Sommes-nous condamnés à obéir longtemps à ChatGPT ?

ObeirSommes-nous libres ?

Oui, bien sûr, dans nos systèmes démocratiques, on n’est pas en dictature. On a la possibilité de se déplacer, de s’exprimer, d’entreprendre. De nombreux pays ne permettent pas l’équivalent. Alors, de quoi se plaindre ?

En fait, il s’agit de cette impression d’être manipulés par les médias, par la publicité, par les réseaux sociaux (mais, oui). On suit le mouvement de la pensée conforme, et ceux qui s’en écartent sont considérés comme des originaux et des marginaux dont on se méfie.

La difficulté, c’est de vraiment considérer que l’on pense et agit pour soi-même, du plus profond de son être intérieur, à l’abri du conditionnement social.

Une citation de Nietzsche, dans « Par-delà le bien et le mal », offre une voie pour une libération qu’il considère comme véritable, et nous fait réfléchir par son côté paradoxal :

« Choisis un maître, peu importe lequel, et obéis longtemps. Sinon tu périras et tu perdras toute estime de toi-même ».

Car, en effet, on ne trouve pas de liberté véritable dans une absence de toute contrainte, ou dans l’absence d’obéissance, mais plutôt en se fixant des règles de conduite.

Le mot important de Nietzsche, c’est « choisis » : C’est en faisant des choix pour soi-même que l’on prend les décisions qui nous font avancer et sortir de l’hésitation. Si vous avez vu comme moi le film « Anatomie d’une chute » vous avez remarqué cette scène où l’accompagnatrice du petit garçon lui dit que c’est en décidant que l’on choisit. Et le petit garçon qui hésite dans la compréhension de la situation, où sa mère est accusée de crime, choisit son attitude, et va livrer un témoignage décisif au tribunal.

Mais faire un choix personnel n’est pas chose facile ; on se croit toujours influencé. Cela exige sûrement l’effort de se délier de tous les conditionnements qui nous influencent.

C’est pourquoi un deuxième mot est important dans cette citation de Nietzsche qui nous incite à obéir « longtemps ».

Cela parle de la façon dont nous donnons un sens à la vie, et quelle forme nous lui donnons. C’est une aventure du temps long. Et pour être sûr de nos choix, il est aussi nécessaire de trouver une zone de prise de distance (de recul, ou de hauteur), de calme en soi-même, avant de s’y lancer. (Le petit garçon du film prend le temps de se forger son choix).

Cela fait penser aux initiatives chamaniques qui demandent aux jeunes gens de partir en forêt à la recherche de leur animal tutélaire, donc d’eux-mêmes). J’ai souvenir d’un séminaire organisé pour une assemblée de dirigeants, au musée du Quai Branly, où chacun était allé en quête d’une statue, ou d’un totem, dans le musée, pour y retrouver « son ombre ». L’un d’eux était revenu en racontant sa rencontre avec une statue onirique de ce qu’il avait interprété comme « un homme qui pleure «  (il nous en montrait la photo ), et révélé à ses collègues, avec émotion, comment il se sentait aussi pleurer intérieurement.

Mais voilà, à l’ère des nouvelles technologies, de l’intelligence artificielle et de ChatGPT, n’est-ce pas justement ChatGPT qui devient notre maître ? Il fut un temps, pas si lointain, où c’était Google qui était notre maître : une question, une interrogation, on demande à Google pour avoir la réponse. Maintenant, on demande à ChatGPT, qui répond à tout, qui donne les solutions, qui trie nos mails, et nous propose même les réponses à faire aux messages reçus. N’est-ce pas le risque de déléguer à la machine, à extérioriser, toute notre réflexion ? Julien Gobin, dans son livre « L’individu, fin de parcours – Le piège de l’intelligence artificielle », met en évidence ce phénomène, où la technologie se substitue à notre capacité de décision et nous fait perdre notre liberté par cette « perte d’autonomie cognitive liée à la disparition progressive de l’usage de la faculté de décision ».

Il cite à l’appui de ces réflexions Gaspard Koenig (dans « la fin de l’individu »:

«  Nous ne sommes pas dotés à la naissance de libre arbitre, comme si une fée s’était penchée sur le berceau de l’espèce humaine ; contrairement à la formule malheureuse de notre déclaration des droits de l’homme, nous ne sommes pas « nés libres ». En revanche, nous pouvons cultiver et fortifier notre arbitre libre. C’est la clé de notre responsabilité, ni donnée (biologiquement) ni présupposée (intellectuellement), mais objet d’une lente élaboration. Plus nos circuits de décision sont complexes, plus notre capacité réflexive est mobilisée, plus notre acte, aussi insignifiant soit-il, reflète qui nous sommes. En revanche, moins nous délibérons, moins nous nous contrôlons nous-mêmes".

Alors, allons nous être coincés à obéir longtemps à ChatGPT ?

Au risque d’ailleurs de réduire l’usage de notre cerveau. Julien Gobin fait remarquer que, déjà, en trois mille ans, la taille du cerveau humain a diminué de près de 10%, passant en moyenne de 1 500 cm3 à 1 250 cm3, grâce (ou à cause) des structures sociales ayant fait émerger la communication, le partage de connaissances, et l’intelligence collective, qui permettent à l’homme de ne plus faire tout tout seul.

De même, comme il y a toujours une moitié pleine dans un verre à moitié vide, Julien Gobin garde espoir, en identifiant un avenir moins sombre, quoique :

« De toute évidence, le cloud humain qui s’annonce réduira encore la taille de notre cerveau tout en optimisant son usage. La disparition de certaines tâches encombrantes autrefois consacrées au maintien d’une autonomie devenue obsolète sera largement compensée par le développement d’une intelligence collective à laquelle contribueront les intelligences artificielles. Les augmentations du cerveau humain qui auront lieu se concentreront alors sur les facultés de spécialisation et d’interactions avec le réseau, plutôt que sur celles lui assurant une autonomie physique ou cognitive devenue illusoire. Autant d’externalisations et de mutualisations qui enfermeront pour toujours l’individu de jadis, si fier de son autonomie, dans la vitrine d’un Museum d’histoire naturelle. Le plafond civilisationnel pourra enfin sauter ».

ChatGPT va-t-il nous permettre de développer l’intelligence collective et la coopération, en faisant sauter le plafond civilisationnel ?

Qui sera notre nouveau maître, à qui nous obéirons…longtemps ?


Le dataism va-t-il avoir raison de notre raison ?

PenserGrâce à la raison, et à la logique, on a pensé qu’il était possible de décider en toute connaissance de cause, grâce à la réflexion rationnelle. Mais cela a aussi été de plus en plus difficile.

Déjà, au XVIIème siècle, Balthasar Gracian dans ses maximes (« L’homme de cour ») l’avait remarqué :

« Il faut aujourd’hui plus de conditions pour faire un sage qu’il n’en fallut anciennement pour en faire sept : et il faut en ce temps plus d’habileté, pour traiter avec un seul homme, qu’il n’en fallait autrefois pour traiter avec tout un peuple ».

Jacques Birol, dans son ouvrage « 52 conseils éternels d’après les maximes de Balthasar Gracian » (2011), dont j’avais déjà parlé ICI, reprenait cette maxime pour nous convaincre que la rationalité pure ne permettait pas de décider correctement, et qu’il fallait faire entrer en ligne de compte les émotions, car elles seules nous permettent de vraiment décider dans l’incertain.

Mais voilà, ça, c’était avant. Avant l’IA générative, avant les « Big Data », avant ce qui a été appelé le « dataism ».

L’expression date de 2013, utilisée par David Brooks dans un article du New York Times.

En gros, il était déjà convaincu que grâce à la profusion des données et statistiques, on serait capable de prendre les meilleures décisions et de vivre mieux. L’intuition et les émotions seraient alors devenues d’un autre temps ; on n’en aurait presque plus besoin. Au revoir Balthasar Gracian et Jacques Birol. L’incertain n’existe plus : place au « dataism ».Nous allons pouvoir, grâce à la profusion des données, en extraire toutes les informations qui nous sont utiles, et que nous étions auparavant incapables de détecter.

Le concept a bien sûr été encore amplifié par Yuval Noah Harari dans son best-seller « Homo Deus » (publié pour la première fois en hébreu en 2015, puis traduit dans le monde entier) qui voit dans le « dataism » une nouvelle religion, la religion de la data, qui permettra d’accroître le bonheur de l’humanité, son immortalité (on parle maintenant non plus d’immortalité, mais, dans une conception transhumaniste du monde, d’ « amortalité », c’est-à-dire de conserver les données du cerveau et de la personne, au-delà de la mort du reste du corps lui-même, grâce à un « téléchargement de l’esprit ») et sa divinité. Car l’homme ainsi transformé devient un nouveau Dieu.

Dans cette vision « dataiste », l’homme est finalement considéré comme un jeu d’algorithmes qui peuvent être perfectionnés à l’infini, grâce à l’accès aux data. D’où l’idée, pour les plus acharnés, de donner accès aux data à tous pour le bienfait de l’humanité, données publiques comme données privées.

Le dataism a aussi ses martyrs comme Aaron Swarts, le premier hacker célèbre, parfois un peu oublié aujourd’hui.

Partisan de la liberté numérique et défenseur de la « culture libre » il se fait notamment connaître lors de ce qui a été appelé « L’affaire JSTOR » : En 2011, il est accusé d’avoir téléchargé illégalement la quasi-totalité du catalogue de JSTOR (agence d’archivage en ligne d’articles et publications scientifiques), soit 4,8 millions d’articles scientifiques, ce qui a fait s’effondrer les serveurs et bloquer l’accès aux réseaux par les chercheurs du MIT. Il est alors menacé de poursuites et de 35 ans de prison. A 26 ans, en janvier 2013, il se suicide par pendaison dans son appartement, un mois avant son procès pour « fraude électronique ».

Le développement du « dataism » n’et pas terminé. Il conduit aujourd’hui à considérer que ce sont les algorithmes « électro-biologiques », c'est à dire les algorithmes du vivant, qui mêlent la technologie et la biologie, qui domineront les humains « organiques ».

Les plus pessimistes (ou réalistes ?) voient dans ces évolutions une nouvelle classification des humains entre ceux qui auront accès à ces capacités techniques et les autres, le passage d’une catégorie à l’autre étant de plus en plus difficile, voire impossible.

Allons-nous vraiment perdre la capacité à penser en la confiant à des machines et au « dataism » ?

On peut essayer de se consoler en observant les comportements du passé.

Dans un journal de 1908, le Sunday Advertiser de Hawai, on pouvait lire :

« N’oubliez pas comment marcher
Le tramway, l’automobile et le chemin de fer ont rendu la locomotion si facile que les gens marchent rarement. Ils se rendent au magasin, au théâtre, à la boutique, au lieu de villégiature, de la campagne à la ville, d’une rue à l’autre, jusqu’à ce que la marche devienne presque un art perdu. Dans une génération ou deux, nous aurons oublié comment utiliser nos jambes. L’homme est par nature un animal qui marche".

Et pourtant nous n’avons toujours pas perdu l’usage de nos jambes.

Une bonne nouvelle pour notre cerveau et notre capacité à penser.

Il faudra juste, peut-être, apprendre à penser autrement grâce à l’intelligence artificielle et l’accès aux data.

Il est temps de s'y mettre alors, pour ne pas risquer d'être "déclassifié", ou "déclassé". 


Un horizon de la raison

AronAvec l’anniversaire de sa mort, il y a quarante ans, plusieurs médias ont reparlé de lui. Cela m’a inspiré de ressortir ses Mémoires (780 pages !) de ma bibliothèque, publiées en août 1983. Intéressant d’y revenir aujourd’hui.

Lui, c’est Raymond Aron, intellectuel qui a parcouru le XXème siècle et qui livre dans ces « Mémoires » une sorte de bilan de ses réflexions de philosophe politique sur le monde moderne, comme un « spectateur engagé » (titre d’un autre de ses livres).

C’est presque un testament, car il décède deux mois après, le 17 octobre 1983 : Il vient de témoigner au palais de justice de Paris en faveur de son ami Bertrand de Jouvenel, penseur politique qui avait été brièvement rallié au parti fasciste de Jacques Doriot, avant de s’engager dans la Résistance, et qu’un livre de l’historien Zeev Sternhell avait qualifié de « pro nazi ». Après avoir dénoncé « l’amalgame » à la barre, Raymond Aron rejoint une voiture de L’Express, où il est un chroniqueur régulier. Il a le temps de dire au chauffeur « Je crois que je suis arrivé à dire l’essentiel », puis s’effondre, terrassé par une crise cardiaque. Il avait 78 ans.

Dire l’essentiel, c’est ce que l’on retiendra de ses Mémoires.

On y trouve notamment cette réflexion à propos d’une anecdote de 1932 qui l’a marqué, à l’occasion d’une rencontre avec un sous-secrétaire aux Affaires étrangères, à qui il débite « un laïus, brillant je suppose, dans la plus pur style normalien » à propos de la situation internationale et de la politique allemande. « Il m’écouta avec attention, apparemment avec intérêt. Lorsque mon discours fut terminé, il me répondit, tour à tour ridicule et pertinent : « La méditation est essentielle. Dès que je trouve quelques instants de loisir, je médite. Aussi je vous suis obligé de m’avoir donné tant d’objets de méditation. Le président du Conseil, ministre des Affaires étrangères, dispose d’une autorité exceptionnelle, c’est un homme hors du commun (il parle d’Edouard Herriot). Moment propice à toutes les initiatives. Mais vous qui m’avez si bien parlé de l’Allemagne et des périls qui se lèvent à l’horizon, que feriez-vous si vous étiez à sa place ? ».

Raymond Aron en tirera leçon : « Je me suis efforcé, le plus souvent, d’exercer mon métier de commentateur dans un esprit tout autre, de suggérer aux gouvernants ce qu’ils devraient ou pourraient faire. Parfois, je savais mes suggestions inapplicables à court terme. Du moins, en influant sur l’opinion, je contribuais à faciliter l’action à mes yeux souhaitable ».

Entre les pages du livre, je retrouve la critique qu’en avait faite dans « Le Monde » Bertrand Poirot-Delpech (et que l’on peut retrouver grâce à Google en deux clics aujourd’hui). Son papier a pour titre "Quand le meilleur de la classe relit sa copie". Tout est dit. Il revient sur cette caractéristique de rigueur qu’exprime Raymond Aron, et qui le distingue :

« S’il est vrai que le génie permet tout, il ne suffit pas de tout se permettre pour être génial. La littérature et la formule à l’emporte-pièce ont des charmes qui valent souvent aux hommes de lettres une prééminence méritée, mais qui s’accordent mal à la rigueur d’une analyse économique ou diplomatique. En somme, les intellectuels ont le droit de s’exprimer en politique, comme tout citoyen, mais ils devraient cesser de se croire compétents dans une matière qui, plus que jamais, relève des spécialistes ».

Et de faire ainsi l’éloge de l’auteur et de ce qu’il appelle « une sûreté de raisonnement », « qu’il entretient depuis la khâgne, comme un sportif cultive sa forme. L’exercice de cette belle machine lui a tenu lieu d’ambition et de joie constantes ». « L’athlète n’est tombé dans aucun des pièges tendus par ce demi-siècle, et où tant d’autres ont trébuché. Il croit avoir accompli son « salut laïc ». Il a fait mieux : au moment où règnent l’à-peu-près, l’imposture et le pancrace, plaider, en actes, pour une déontologie du travail intellectuel, une morale de l’esprit, un horizon de la raison ».

Cet « horizon de la raison » reste de bon conseil pour tous les commentateurs et « experts » autoproclamés d’aujourd’hui qui occupent les réseaux sociaux et les chaînes d’information, ainsi que tous ceux qui confondent expertise et bavardage.

Et cette leçon toujours valable : Que feriez-vous si vous étiez à sa place ?

Relire Raymond Aron aujourd'hui pour retrouver le sens de cette rigueur. Une leçon pour tous.


Experts du futur ?

Futur2Depuis la nuit des temps, nous cherchons à connaître le futur, tant les Etats, les gouvernants, mais aussi les dirigeants et managers d’entreprises, avec l’espoir de voir mieux et plus loin, pour anticiper ce qui va advenir, et faire les choix décisifs qui nous permettront de devancer les compétiteurs, ou d’investir sur les bons projets.

C’est pourquoi cette « science du futur », avec ses scénarios, ses prévisions, mais aussi ses prédictions, est aussi déléguée à des cohortes de spécialistes, de savants et de ce qu’on appelle des « experts », relayés par ceux qui fabriquent l’opinion, un peu comme la version contemporaine des oracles delphiques de l’Antiquité.

C’est pourquoi cette « science du futur » peut aussi être considérée comme éminemment politique. C’est le sujet d’étude d’Ariel Colonomos, spécialiste des relations internationales, directeur de recherche au CNRS, dans un ouvrage maintenant un peu ancien (2014), « la politique des oracles – Raconter le futur aujourd’hui ».

Ce que montre son enquête, c’est que tous ces experts et savants en prédictions sur le futur racontent tous plus ou moins la même chose, et manquent de vision sur les grandes ruptures. Exemple de la chute de l’Union soviétique et du mur, parmi tous les experts en soviétologie, pratiquement aucun des « professionnels » ne l’a vu venir. L’auteur cite néanmoins un « amateur », Ronald Reagan qui déclarait en 1982 que l’URSS n’était qu’une « poubelle de l’histoire », un bateau en train de couler dont chacun tâchait de s’enfuir. Grâce à l’histoire des évènements qui ont suivi, il est devenu un prophète.

En fait, tous les experts et savants se retrouvent tous aux mêmes endroits (à Washington, l’auteur compte déjà 400 agences), et partagent les mêmes recrutements d’analystes tous semblables. Il y a en fait un « marché du futur » où il vaut mieux faire partie d’une communauté qui pense pareil, plutôt que de s’en écarter au risque de s’isoler et de perdre en légitimité.

Même phénomène pour les entreprises privées qui publient et commercialisent des « notations financières » sur les États. Ces agences, qui sont peu nombreuses, là encore, convergent dans leurs notations, et l’exercice a un certain mystère puisque les critères utilisés (quantitatifs, mais aussi qualitatifs à partir d’interviews des dirigeants pour par exemple évaluer la stabilité de l’environnement politique, ou l’incidence du système politique sur les décisions financières concernant le remboursement de la dette étatique, ce qui est déjà plus subjectif) ne sont pas connus et gardés secrets par les agences.

En fait ces notations font preuve d’une étonnante stabilité, dans une économie mondiale plutôt volatile : « En moyenne, seules 15% des notes attribuées aux États sont modifiées chaque année. Il y a en outre plus de rehaussements des notes que de dépréciations, ce qui va, là aussi, à l’encontre de l’idée suivant laquelle les agences joueraient prioritairement un rôle punitif » (le livre date de 2014, il faudrait revoir ce point éventuellement aujourd’hui).

Mais alors, si l’on considère que toutes ces notations sont finalement très stables, une question : « Pourquoi les notes sont-elles reprises et adoptées par l’entière profession de la finance, par les acteurs de l’espace politique et public ainsi que par les médias ? Parce que la valeur communicationnelle d’un indicateur est plus précieuse que sa valeur informationnelle ».

En privilégiant ainsi la stabilité de leurs « opinions » plutôt que leur précision, les agences de notation prennent ainsi souvent le risque de ne pas voir les problèmes à temps. L’auteur a constaté, en analysant l’historique, que ces agences peuvent peiner à anticiper les crises, et avoir tendance à suivre l’évolution des marchés plutôt qu’elles ne les prévoiraient. Si bien que quand elles finissent par prendre la réalité en compte et par publier une notation modifiée, celle-ci ne fait que renforcer la crise de l’obligataire et rend sa reprise encore plus difficile. Ce qu’on pourrait appeler une prophétie autoréalisatrice.

Et donc, alors que dans un premier temps, la stabilité de la note maintient artificiellement un statu quo, et, une fois la crise survenue, la dégradation de la note contribue à accélérer le prix de l’endettement du pays et affecte encore plus son économie.  En gros les notations financières contribuent à retarder le futur et à accentuer les crises.

On peut tirer la même conclusion pour les agences de notation que pour les savants et experts en futur : Il vaut mieux, pour un expert, avoir tort à l’unisson au sein de son groupe, plutôt que de prendre le risque d’un avis qui se distinguera de celui de ses pairs.

Mais alors, face un consensus d’entre-soi des « experts », une autre question interpelle : est-on responsable, et comment, des effets directs et indirects de ses anticipations sur le cours des évènements que l’on a cherché à prédire ?

Un évènement peut-être un peu oublié est évoqué par l’auteur : En 1983, le gouvernement de Ronald Reagan décide d’envahir l’Île de la Grenade. La raison ? Si les Etats-Unis n’agissent pas, déclare Ronald Reagan, le pouvoir en place sur l’île, soutenu par l’URSS, se livrera à des exactions contre des civils américains, en les violentant et en les prenant en otage. A terme Grenade deviendra un bastion de l’exportation du communisme soviétique et castriste. Son aéroport sera une plaque tournante pour le déploiement d’actes subversifs dans la région des Caraïbes. Autrement dit, l’invasion américaine était censée prévenir une violence indue.

Or, en 1986, un sociologue et futuriste, Wendell Bell, accuse le gouvernement Reagan d’avoir trahi la confiance du peuple américain en prenant cette décision, et affirme que la mesure de la réalité, en l’occurrence l’appréciation des forces de cet Etat et de ses intentions, est délibérément distordue. Selon lui, il est possible, dans l’après-coup, de montrer que le gouvernement Reagan, en 1983, savait que les preuves dont il disposait ne lui permettaient pas d’établir de telles anticipations. Le Président et ses conseillers auraient donc menti. Ils auraient évité de mentionner des faits qui contredisaient leur thèse, voire les auraient cachés. Ils auraient aussi falsifié les preuves de leur argumentaire en apportant de nouvelles raisons fallacieuses.

Pas simple de trancher car, même s’il est vraisemblable qu’en 1983 les dirigeants en place à Grenade ne préparaient pas d’exaction contre les civils américains, l’attaque américaine, qui a vraiment eu lieu, interdit de statuer sur la validité de l’affirmation de Bell. Cette attaque américaine rend en fait à jamais impossible de savoir si Grenade se serait vraiment transformée en un bastion du communisme soviétique, et si son aéroport serait devenu une plaque tournante du communisme dans les Caraïbes, et si le régime en place sur l’île aurait secondé Cuba dans ses efforts pour exporter la révolution en Amérique latine, comme Reagan l’avait annoncé pour justifier sa mesure préventive.

Ce qui viendra disculper la décision sera ce qu’on appelle la référence à la véracité des prédictions, et si cela correspond à un consensus des « experts » c’est encore mieux.

Cette histoire de groupe trop homogène qui se crée des œillères empêchant d’imaginer d’autres futurs, c’est aussi celle des dirigeants entourés d’une « cour » de leur Comex qui n’imagine pas les scénarios en rupture, et sont victimes d’angles morts qui peuvent leur faire prendre des décisions inappropriées.

Comment s’en sortir ?

Ariel Colonomos fait appel au bon sens : « Pour améliorer la qualité de ses conjectures, le groupe a intérêt à accueillir des membres dont le profil est nouveau », afin de « se donner les moyens de penser une pluralité de mondes possibles à venir ».

Tout cela afin de sortir d’un « discours dicté par un consensus frileux » qui devient un « obstacle à l’innovation ». Avec une interrogation face à tous ces experts qui se tiennent entre eux : « Avons-nous vraiment envie de savoir de quoi demain sera fait ? ».

Une bonne question pour mettre à l’épreuve nos envies lorsque nous nous lançons dans ces exercices de prospective et de vison du futur.


Qui défendra Jéricho ?

JERICHOC’est un poème de Victor Hugo, dans le recueil « Les châtiments » (1853) qui relate cet épisode de la Bible, de la chute de Jéricho, Josué ayant reçu de Dieu l’ordre d’en faire sept fois le tour, en sept jours, au son de sept trompettes, pour faire tomber les murailles de la ville avant de permettre au peuple d’Israël de l’envahir.

Pendant les premiers tours, le roi de Jéricho se met à rire :

« Quand Josué rêveur, la tête aux cieux dressée,
Suivi des siens, marchait, et, prophète irrité,
Sonnait de la trompette autour de la cité,
Au premier tour qu’il fit le roi se mit à rire ;
Au second tour, riant toujours, il lui fit dire :
– Crois-tu donc renverser ma ville avec du vent ? »

Les remparts sont si solides que ces tours n’y font rien.

Au sixième tour, le roi de Jéricho rit toujours.

Et puis :

« À la septième fois, les murailles tombèrent. »

Selon le récit de la Bible, ce septième jour où les murs de la ville s’effondrèrent, Jéricho fut rasée, sa population massacrée, et le lieu maudit.

Ce récit des trompettes de Jéricho est devenu une expression populaire pour signifier une puissance capable de détruire des préjugés, mais aussi des réalités. Tout dépend de quel côté on se place.

C’est le titre qu’a choisi Henri Guaino pour son dernier livre (« A la septième fois, les murailles tombèrent ») et dont il explique celui-ci dans l’interview qu’il donne au Figaro du 21-22 octobre; et pour lui, nous sommes peut-être au soir du sixième jour :

«  Depuis une quarantaine d’années, la croyance dominante dans nos sociétés est que nous sommes devenus tellement meilleurs, tellement plus intelligents que nos aïeux que les malheurs et les catastrophes qu’ils ont vécus ne peuvent pas se reproduire ».

« Ça ne peut plus nous arriver. Ni la guerre, ni les guerres civiles, ni les guerres de Religion, ni les grandes crises économiques comme celle des années 30. Même les pandémies ne pouvaient plus nous arriver et nous avions cessé de nous y préparer ».

D’où son diagnostic pour aujourd’hui :

« Comme « l’histoire ne se répète pas », on a cessé de lui attacher de l’importance et on a jugé qu’elle n’était pas utile et qu’elle était au mieux un ornement de l’esprit. On devrait se demander pourquoi, si l’histoire n’a pas d’importance, l’assassin de Samuel Paty a assassiné un professeur d’histoire et pourquoi l’assassin de Dominique Bernard cherchait un professeur d’histoire.

L’histoire ne se répète pas à l’identique, mais elle nous apprend ce qu’est la nature humaine qui, elle, ne change pas. Et dans la nature humaine il y a le plus fécond et le plus dangereux. Le plus dangereux c’est la violence sauvage, animale, primitive de l’homme que la culture, la civilisation, la civilité, les institutions, l’école, l’Etat, s’efforcent tant bien que mal de contenir. Quand l’effort se relâche, quand on fragilise ces remparts, le risque grandit que l’homme redevienne brute, que la foule devienne meute et que la violence dévore tout sur son passage. A force de penser que cela ne peut plus nous arriver, de nier la nature humaine et sa sauvagerie, nous avons préparé une fois de plus le grand retour de la violence ».

Pour Henri Guaino nous sommes, c’est-à-dire nos gouvernants et nos élites, comme ce roi de Jéricho qui continue à rire dans sa tour sans voir la violence et les ennemis de toutes sortes qui s’apprêtent à faire tomber nos murailles avec leurs trompettes, tant les fondations sur lesquelles reposent nos sociétés occidentales sont devenues fragiles.

La vision d’Henri Guaino sur l’état de nature rappelle celle de Thomas Hobbes, dans son « Léviathan » (1651), pour qui l’état de nature est précisément « un état de guerre de chacun contre chacun », où les passions humaines entraînent une compétition meurtrière entre les individus. Pour Hobbes, il nous faut renoncer à certaines libertés au profit de la sécurité, et, pour cela, la solution qu’il défend, c’est celle d’un pouvoir central, la monarchie, fort. C’est le monarque, le chef, qui assure le bien-être des sujets qui lui confient par contrat l’administration de l’Etat. Pour résoudre les problèmes, on devine que Henri Guaino, qui fut conseiller de Nicolas Sarkozy à l’Elysée, aime bien cette idée du chef qui rétablit l’autorité politique.

Mais on peut aussi aller lire ou relire John Locke et son «Second Traité de gouvernement civil » (1690), presque 40 ans après Hobbes, qui décrit, lui, les individus comme des êtres rationnels et égaux parfaitement à même de régler leurs conflits. Mais, comme le risque de chaos existe toujours, cette éventualité appelle à recourir au gouvernement civil pour assurer la paix. Le contrat proposé est cependant différent de celui de Hobbes. Il s’agit plutôt de rechercher un consentement mutuel par lequel un individu « peut convenir, avec d’autres hommes, de se joindre et s’unir en société pour leur conservation, pour leur sûreté mutuelle, pour la tranquillité de leur vie, pour jouir paisiblement de ce qui leur appartient en propre ». Lui défend plutôt une monarchie parlementaire (pas encore un régime démocratique ; on est en 1690, et, même en France, c’est Louis XIV qui est l’autorité politique), avec un souverain régulé par une instance représentative, et non une conception théocratique de l’Etat.

Ce qui fonde le gouvernement civil, pour Locke, c’est le droit de propriété que doit protéger l’Etat, c’est-à-dire protéger les droits fondamentaux de l’individu, sa liberté, son intégrité physique, et la propriété acquise par le travail, mais, avant d’être propriétaire de biens, on est d’abord propriétaire de sa vie et de sa liberté. C’est donc un conception de la propriété large que propose Locke.

Et ce qui fonde pour Locke la société politique, c’est le consentement des individus : «Un homme qui s’est joint à une société, a remis et donné ce pouvoir dont il s’agit, en consentant simplement de s’unir à une société politique, laquelle contient en elle-même toute la convention, qui est ou qui doit être, entre des particuliers qui se joignent pour former une communauté. Tellement que ce qui a donné naissance à une société politique, et qui l’a établie, n’est autre chose que le consentement d’un certain nombre d’hommes libres, capables d’être représentés par le plus grand nombre d’eux, et c’est cela, et cela seul qui peut avoir donné commencement dans le monde à un gouvernement légitime ».

Pour protéger la société et en assurer le bon gouvernement, certains pensent plutôt au retour de régime autoritaire, d’autres à la représentation du peuple, où même à la prise en main des problèmes par la société civile et aux dirigeants d’entreprises.

Car même les dirigeants d’entreprises sont concernés par ces débats qui concernent aussi l’économie et les stratégies.

Alors, comment défendre Jéricho, au lieu de rire dans la tour ?

Guaino, Hobbes, Locke : bonne recherche.


Qui peut sauver la démocratie ?

DemocratieL’esprit des Lumières, c’est ce courant philosophique né au cours des 17ème et 18ème siècles, objet du manifeste de Kant, en 1784, « Qu’est-ce que les Lumières ? », « Sapere Aude » : penses par toi-même.

L’esprit des Lumières considère que le développement humain consiste à penser par soi-même, par la science et l’observation, source de progrès humain, et non par l’asservissement à la pensée de ceux qui veulent prendre le pouvoir sur nous. A l’époque, on visait l’Eglise et les serviteurs de la monarchie.

Mais cet esprit des Lumières a deux origines, et est la cause d’un schisme dans la civilisation américaine, et plus globalement en occident.

C’est la thèse que développe, dans un gros ouvrage très documenté, qui revient sur toute l’histoire de l’Amérique depuis ses origines, Seth David Radwell, « American schism », best-seller aux Etats-Unis.

Seth David Radwell est un entrepreneur et ex-dirigeant d’entreprises américaines, qui s’est plongé dans l’histoire de l’Amérique et de la philosophie pour tenter de comprendre et éventuellement de proposer des réponses à, ce qu’il identifie comme une crise majeure de la démocratie.

Les deux origines dont il parle sont la version « modérée » des Lumières, en comparaison d’une version « radicale », incarnées chacune par des penseurs, des philosophes et des personnalités politiques distinctes, en France comme aux Etats-Unis (car ce sont ces deux pays qui sont à l’origine de ce courant des Lumières, d’où aussi leurs similitudes politiques d’origine). Et ce sont les héritiers de ces deux versions qui s’opposent encore aujourd’hui, et, par leurs conflits, mettent en danger la démocratie et le « vivre ensemble ».

La version « modérée », c’est celle qui considère que pour diriger les affaires d’un Etat, et les citoyens qui le composent, il est important que les dirigeants soient les plus éclairés possibles, et que les citoyens eux-mêmes qui y participent soient eux-mêmes dotés de compétences particulières. La démocratie, oui, mais pas pour tout le monde ; seuls les plus intelligents y ont droit de parole et d’autorité. D’où les tendances à ne pas inclure dans les électeurs et dans les dirigeants des personnes trop éloignées de ces critères.

La version « radicale » c’est celle qui considère que tous les citoyens sont égaux et ont voix au chapitre, et que si certains n’ont pas encore les capacités comme les autres, c’est justement le rôle de l’éducation et de l’Etat de leur permettre d’acquérir et de développer ces capacités. D’où cette vocation à offrir l’éducation gratuite pour tous, et à ouvrir le droit de vote et de participation à tous.

Pour l’auteur cette double origine perdure aujourd’hui et est même l’explication de ce schisme qu’il identifie, et de la crise de la démocratie qu’il ressent.

Car, alors que les Lumières prônaient que la recherche de la vérité était l’objet du progrès, et était guidée par la science et l’observation objective, il constate qu’aujourd’hui la vérité et les faits sont remis en cause par les opinions et ce qu’on appelle la « post-vérité » : toute opinion est bonne et la vérité n’existe pas. Pour les partisans de la post-vérité, les post-modernes, tout est fluide et relatif, la vérité absolue n’existe pas, et est même suspecte, car véhiculant l’opinion de ceux qui veulent dominer (oui, ces mâles blancs, qui ont toujours cherché à dominer les autres). Et donc, la frontière entre ce qui est faux et ce qui est vrai n’existe pas. La Raison et la science ne sont que des idéologies, des mythes créés par les humains .

La version « modérée » des Lumières, c’est celle qui a engendré les dirigeants d’aujourd’hui qui pensent que dans la cité et la démocratie, il y a « nous et les autres », ceux qui pensent bien contre les autres. C’est la vision des dirigeants et politiques qui voient dans les milieux économiques et les entrepreneurs et start-up la quintessence de la gouvernance de la Nation, et oublient les autres.

Les autres, ce sont les partisans de la version « radicale », qui se sentent oubliés et négligés. Ce sont ces « working class », le « peuple », qui manifestent leur rancœur et qui ont donné naissance à ce qu’on appelle maintenant le « populisme » que l’on peut décrire comme le mouvement politique qui répond aux « gens ordinaires » qui ressentent que leurs préoccupations ont été négligées ou leurs besoins marginalisés par les leaders politiques établis. Le fondement de ce mouvement est une réaction contre les élites, à qui l’on conteste de vouloir dicter ou imposer leurs politiques sous prétexte qu’elles sauraient mieux que tout le monde ce qui est bon pour les gens « ordinaires ».

Ce monde où chacun défend sa propre vérité, où la vérité absolue a disparu, est encore plus fortement exacerbé par les technologies et les réseaux sociaux. Car ce qui fait la valeur du business de ces réseaux sociaux, comme le souligne l’auteur, c’est de recueillir le maximum d’attention, et donc de diffuser des opinions les plus en rupture possible. Pratiquement, la « désinformation » est finalement « encouragée » par le business model des plateformes. Chacun peut créer un business et faire de l’argent en influençant et en racontant ce qu’il veut sur ces plateformes. Ce qui rapporte, ce n'est pas de dire la vérité, mais d’attirer le maximum d’attention. Encore de quoi menacer , et affaiblir, la démocratie. Et quand on voit que 16% des américains croient que la terre est plate (en France nous ne sommes que 9%, mais quand même), on comprend que ça marche.

Ce qui rend encore plus difficile la recherche de la vérité, c’est aussi, paradoxalement, la multiplication des données et des informations auxquelles nous avons accès. Il y a de quoi se perdre entre les fausses et les vraies informations, et ceux qui veulent nous influencer ont à leur portée une masse de moyens et d’outils comme nous n’en avons jamais eu dans le passé. On n’ose imaginer ce que les dictateurs d’hier auraient pu en faire. Mais on voit bien ce que les dictateurs d’aujourd’hui en font ou peuvent en faire. Et l’on peut constater un regain de pouvoir des régimes autocratiques, en Chine, en Russie, en Turquie, qui essayent même de nous persuader que la démocratie est moins efficace en termes de résultats et d’action publique. Et même dans les démocraties, certains doutent ou s’en détournent : Seth David Radwell cite un chiffre alarmant : Aux Etats-Unis, 30% des millenials considèrent qu’il est essentiel de vivre en démocratie, alors que les autres 70% disent avoir perdu la foi en la démocratie comme forme de gouvernance. Sans parler du faible taux de participation aux scrutins de la jeune génération, que l’on constate d’ailleurs aussi en France à chaque élection.

Alors que faire ?

Les dernières pages du livre évoquent le rôle de la société civile pour retrouver la voie de la Raison pour « battle unraison with raison », et faire revivre un idéal méritocratique, où les personnes les plus qualifiées peuvent accéder aux postes de responsabilités, permettant de constituer un capital humain collectif.

Il est convaincu que la restauration de la démocratie nécessitera l’engagement de la société civile et des leaders, ainsi que des dirigeants d’entreprises, pour agir par le bas face à un débat politique qui a perdu en qualité et en capacité de rassembler et d’unir sur des valeurs communes. Car dans l’entreprise, qui n’est pas néanmoins une démocratie, on parle encore d’unité et de valeurs communes, et les dirigeants y sont garants de ce qui en constitue le système méritocratique, où les personnes sont reconnues pour ce qu’elles font et non pour ce qu’elles sont.

Car la démocratie, rappelle-t-il, ne consiste pas à ce qu’un camp gagne contre un autre pour imposer sa soumission. Mais à accepter, comme le formule Seth, que « Everyone belongs in the conversation ».  Gagner, dans une démocratie, identifie qui a l’autorité pour mener la conversation, diriger le comité qui sera responsable de formuler les politiques. Mais la conversation doit inclure à la fois les « gagnants » et les « perdants ». C’est même la responsabilité des gagnants de ramener les perdants dans cette conversation. Ceux qui les excluent sont précisément ceux qui dirigent en Chine, en Turquie, en Russie, et constituent ces régimes autocratiques. Alors que le régime démocratique est celui qui dirige pour tout le monde, et non par le conflit (comme pourtant nous y encourageraient les réseaux sociaux).

Comment la société civile et les dirigeants d’entreprise peuvent ils concrètement agir et participer à la renaissance de la Raison et de la démocratie ?

C’est, paraît-il, le sujet du prochain livre de Seth David Radwell.

C’est aussi le sujet de la conférence qu’il donne lundi 9 octobre à l’occasion de son passage à Paris, organisée par le Cercle Colbert.


Narcisse blessé par l'intelligence artificielle

NarcisseOn connaît Narcisse, qui, dans la mythologie grecque, adore admirer son reflet dans un lac, à tel point qu’il finit par tomber dedans et s’y noyer.

De là vient l’adjectif « narcissique », qui désigne une personne qui s’aime de manière démesurée, du moins en apparence.

C’est Freud, dans son « Introduction à la psychanalyse » (1916), qui parle alors de « blessure narcissique » pour évoquer les détériorations de l’amour que nous avons pour nous-mêmes.

 Freud évoque en fait l’humanité tout entière qui se serait vu infliger par la science trois blessures narcissiques, qui ont fait chavirer la conviction que l’Homme était au centre de l’Univers.

Première blessure : Non, nous dit Copernic, la terre n’est pas au centre de l’univers, mais ne forme qu’une parcelle insignifiante du système cosmique, dont nous pouvons à peine nous représenter la grandeur.

Deuxième blessure : Non, nous dit la recherche biologique, et Darwin, l’homme n’a pas une place privilégiée dans l’ordre de la création, et sa descendance animale démontre qu’il n’est qu’un animal parmi les autres.

Troisième blessure : C’est la psychanalyse, et donc Freud, qui nous montre que «Le Moi n’est pas maître dans sa propre maison », et que cette maison, autrement dit la psyché humaine, est régie par l’omnipotence de l’inconscient. Même si certains ont fait remarquer que la psychanalyse n'était peut-être pas tant une science que ça.

Mais on est peut-être confronté aujourd’hui à une quatrième blessure narcissique.

Quelle est donc cette quatrième blessure narcissique ?

C’est l’hypothèse de Catherine Malabou, philosophe experte de Hegel et des neurosciences : L’intelligence artificielle est la quatrième blessure narcissique de l’humanité, en venant challenger l’homme sur ce qu’il pensait exclusif de sa personnalité, son intelligence. L’intelligence artificielle est « la capture de l’intelligence par sa propre simulation ».

Elle exprime l’évolution de sa pensée dans les quelques lignes de la préface de l’édition 2021 de son ouvrage, « Métamorphoses de l’intelligence » :

« Il m’a fallu beaucoup de temps pour parvenir à appréhender lucidement mais avec une relative sérénité les métamorphoses de l’intelligence. A travers elles, je retrace mon propre parcours. J’ai moi aussi résisté au devenir artificiel. J’ai moi aussi longtemps opposé la plasticité du cerveau à la rigidité de la machine. Je reconnais aujourd’hui mes erreurs et pose un regard nouveau sur cette opposition qui, du même coup, tend à s’effacer ».

Pour elle, nous devons aujourd’hui accepter cette quatrième blessure narcissique et réinventer une nouvelle forme de confiance en la machine, pour créer les coopérations et accepter de perdre le contrôle, et passer à une « construction démocratique de l’intelligence collective » où la machine a aussi sa place.

Dans cette construction, la frontière historique que l’on mettait entre intelligence humaine et IA est en train de disparaître. Et il ne s’agit d’en avoir peur mais de trouver ces nouvelles coopérations.

Pour Catherine Malabou, Laurent Alexandre et Harari se trompent :

« Laurent Alexandre, Harari et son livre Homo Deus… Ces gens-là ne font qu’écrire et dire ce que la foule veut entendre. Or, je ne pense pas qu’on puisse écrire quoi que ce soit de pertinent à partir d’une sorte de peur. La peur n’est jamais un moteur intellectuel. Il vaut mieux essayer de comprendre la complexité plutôt que d’agiter les peurs. »

La 4ème révolution industrielle sera celle qui comprendra cette complexité.


Des chiffres qui parlent, ou qui rendent fous ?

ChiffresAALes dirigeants, directeurs de la Communication, les analystes, les consultants, bref, tout le monde, le savent : le chiffres parlent et ne peuvent être contestés. Si vous voulez faire sérieux et informés, rien de tels que de balancer des chiffres.

C’est pourquoi on en arrive à se sentir « dominés » par les chiffres, qui prennent le pouvoir sur les opinions et les avis de chacun.

Et c’est l’objet d’un livre salutaire de Valérie Charolles, philosophe des chiffres (sic) : « Se libérer de la domination des chiffres ».De quoi relativiser cette croyance de l’objectivité absolue des chiffres. Et l’auteur redonne grâce à un métier des chiffres très en vogue aujourd’hui : celui de faire parler les chiffres.

Car les chiffres ne sont rien sans celui qui a ce talent de « faire parler les chiffres ». On connait tous le truc pour les entreprises, comme pour les ministres : Quand il s’agit de parler à l’extérieur, on va aller chercher les chiffres qui donnent l’image la plus positive possible de la réalité décrite. Et, pour parler à l’intérieur, par exemple demander un effort démultiplié de productivité, ou de résultat, on va insister sur les chiffres qui décrivent les problèmes et viennent justifier les projets à soutenir. Trouver le bon chiffre à produire relève de l’art, et les nouveaux artistes des chiffres ont acquis un nouveau nom grâce aux nouvelles technologies : Ce sont maintenant des « data scientists » qui viennent remplacer les directions de la statistique ou des études que l’on connaissait dans le monde d’avant.

Et tout le monde connait les astuces pour bien présenter les chiffres dans le sens qui nous arrange : choisir la donnée de base, ajuster la période de référence, bricoler l’échelle et le type de présentation. Et le tour est joué.

C’est la même chose avec les sondages. Et le pire pour faire dire n’importe quoi aux chiffres, ce sont les pourcentages.

Par exemple, annoncer « une croissance de notre résultat de 70% » ne dira pas grand-chose si l’année précédente a été catastrophique, et peut-être que cette entreprise ne va pas beaucoup mieux que celle qui annonce une progression de 5%, mais par rapport à une année précédente qui était, elle aussi, plutôt bonne.

Exemple d’effet trompeur de présentation, que relève l’auteur, celui du taux de chômage des jeunes. Selon la dernière parution de l’Insee, le taux de chômage des jeunes au deuxième trimestre 2022 est de 17,8% en France. Mais cela ne veut pas dire que près d’un jeune sur cinq est au chômage, car ce taux de chômage des 15-24 ans correspond à la population des jeunes au chômage, mais non par rapport à l’ensemble des jeunes, mais seulement aux jeunes actifs. Et ne comprend donc pas les jeunes scolarisés, qui poursuivent leurs études. Or ces jeunes scolarisés représentent en France plus des deux tiers des jeunes de 15-24 ans. La proportion des jeunes au chômage est donc trois fois moindre que le chiffre annoncé, et longuement débattu par les politiques et penseurs. Et ces jeunes ne sont pas les pires, les chômeurs de la catégorie 25-49 ans étant deux fois et demie plus nombreux que les 15-24 ans.

Un effet encore plus pervers de ce mode de présentation est que, lorsque la part des études longues va augmenter (une bonne chose a priori pour suivre le niveau d’exigence des compétences), cela fera augmenter le chômage des jeunes (du fait de la baisse du nombre des jeunes actifs). Et inversement, un gouvernement qui choisirait de proposer des petits boulots et stages à ces jeunes hors des études longues obtiendrait des effets positifs immédiats sur ce taux de chômage.

Autre sujet qui alimente les débats sur les chiffres, le chiffre du taux de croissance du PIB.

Car ce chiffre est devenu l’indicateur universel privilégié de la santé économique d’un pays.

Et l’on a tendance à le comparer à ceux connus lors de cette période que l’on appelé « les trente glorieuses », c’est-à-dire les années entre 1945 et 1973, où les taux de croissance annuels moyens dans l’OCDE étaient de 4%, et même autour de 5% pour la France, au point que la Commission Attali sur les freins à la croissance, nommée par Nicolas Sarkozy en 2007, avait conclu que la France devait justement viser une croissance de 5% par an (au lieu des 2% de l’époque) pour ne pas décrocher du reste du monde. En 2022, il était de 2,6% en moyenne annuelle.

Voilà encore un malentendu, source d’erreurs de jugement, que s’ingénie à démontrer Valérie Charolles dans son livre.

Car l’idée que, sans croissance, la sphère économique ne produirait rien, est profondément ancrée, et associée à la peur d’un déclassement au niveau mondial.

D’abord, la comparaison avec ces fameuses « trente glorieuses » est effectivement trompeuse. Cette période qui succède à la deuxième guerre mondiale est aussi celle d’un effort massif de reconstruction, forcément activateur de croissance, et aussi la période de l’arrivée de plus en plus massive des femmes dans l’économie marchande. Au début du XXème siècle, les femmes représentaient un tiers de la population active en France, surtout dans des métiers d’agricultrices, d’employés de maisons et d’ouvrières. Tout commence à changer après la guerre : fini le temps où le salaire des femmes subissait un abattement légal (oui, vous avez bien lu) par rapport à celui des hommes jusqu’en 1946, et fini aussi où il était interdit aux femmes d’exercer une profession sans le consentement de leur mari jusqu’en…1965 (oui, vous avez bien lu). Et donc les « trente glorieuses » c’est aussi le temps où le travail des femmes va entrer massivement dans le calcul du PIB et de la croissance.

Autre élément qui vient booster le PIB, la population des agriculteurs indépendants (ceux qui consommaient leurs propre production, qui échappait au calcul du PIB), va aussi diminuer.

On comprend combien tout est différent aujourd’hui et que l’on ne peut pas complètement comparer cette période « glorieuse » avec celle d’aujourd’hui.

On connait même des mouvements inverses aujourd’hui, avec la tendance à limiter la consommation pour une part de plus en plus importante de la population, à privilégier les circuits courts, les circulations douces, les achats d’occasion, toutes ces habitudes qui vont plutôt vers une diminution du PIB, sans pour autant, d’ailleurs, que le niveau de vie des personnes en question soit considéré comme trop affecté.

Et pourtant, l’obsession de cette croissance reste une idée fixe de nombre de décideurs et de politiques.

Et là encore les comparaisons entre pays sont trompeuses. Valérie Charolles fait remarquer qu’avoir 5% de PIB supplémentaire quand on a déjà un PIB important est forcément beaucoup plus avantageux que 5% de plus quand on part de très bas. On n’arrête pas de comparer nos pays européens à la Chine, en oubliant que, entre 2005 et 2007 (les années du rapport Attali) les 2% de croissance moyenne de la France correspondaient à une augmentation de son PIB de 650 dollars par habitant, alors que les 11% en Chine ne correspondaient qu’à un PIB supplémentaire de 150 dollars.

Onze ans plus tard, c’est toujours pareil. La Chine a progressé, mais ses 6,6% de croissance représentent 645 dollars par habitant, pendant que la France, avec ses 1,7%, a créé une richesse nouvelle de 705 dollars par habitant ; sans parler d’un pays comme l’Ethiopie, avec ses 6,8% d’augmentation du PIB, qui ne représente que 50 dollars par habitant.

En fait, comme le souligne Valérie Charolles, la présentation de ces taux de croissance en pourcentage ne nous permet pas de percevoir que cela correspond à un accroissement continu des inégalités au niveau mondial.

Et les incantations sur la croissance sont aussi à observer avec prudence, car, finalement, dire que le taux de croissance de la France doit être de 5% par an, c’est dire que la richesse du pays doit doubler en quinze ans, et tripler en vingt-deux ans. Alors que la France connaît aujourd’hui un niveau de vie parmi les plus élevés du monde, certains se demandent légitimement à quoi nous servirait un PIB trois fois plus important en l’espace d’une génération. Et cela attise aussi les contestations de ceux, nombreux aussi, qui veulent participer à la préservation des ressources. Si on limitait la croissance à 1% par an, chiffre que nos instances dirigeantes jugeraient sûrement déplorable, il ne faudrait malgré tout que soixante-dix ans pour que la richesse double (soit « moins d’une vie » comme le remarque Valérie Charolles).

Oui, pour comprendre et parler de croissance, il faut sûrement aller un peu plus loin que la lecture des taux de croissance. Là encore, le chiffre parle, mais ne dit pas toujours toute la vérité.

Et pourtant, nous sommes malgré nous dans une période où le chiffre et les faits ont pris la place des « mots et des choses ».

Mais le chiffre n’est jamais neutre non plus quand il s’agit de décrire des comportements humains car les humains vont justement réagir par rapport aux données et à la présentation des chiffres qu’on leur propose, et adaptent forcément leurs comportements en fonction.

Que dire de cette habitude que nous avons prise de fixer les objectifs quantifiés, et mesurables, pour « piloter la performance ». Surtout quand ils viennent du haut, on sait tous que fixer de tels objectifs n’équivaut pas forcément à se donner la capacité à les atteindre. Et parfois cette manie du chiffre peut faire du mal. Face à la tension due à l’obsession de la réalisation des objectifs, on parle depuis les années 2000 de cette nouvelle (pas si nouvelle) maladie de « burn-out ». Le burn-out  correspond à une acceptation volontaire des objectifs par un employé qui n’arrive pas à faire face aux objectifs fixés et s’effondre physiquement à cause de cette impossibilité à faire face, sans toujours même s’en rendre compte. Ce sont ces employés qui se donnent à fond, mais n’y arrivent pas.

Car la logique de ce type d’indicateurs, si l’on n’est pas assez prudent dans leur fixation, c’est aussi l’idée que la performance doit être constamment répliquée, et même continûment améliorée. Or l’auteur, philosophe pleine de bon sens, nous le dit : « Aucun système vivant ne peut fonctionner en étant toujours au maximum de ses capacités. Il y va de sa survie ; la stabilité du tout repose sur l’absence de maximisation de toutes ses composantes au même instant ».

Peut-être que l’obsession des chiffres pourrait bien nous rendre dingues. Et qu’y mettre un peu de hauteur et d’humain est encore nécessaire, en faisant attention aux biais de comportement qu’ils peuvent provoquer. Voilà ce que Chat GPT ne pourra pas faire à notre place…Pour le moment.


Fabuleux !

LoupPeut-on encore faire la différence entre montrer et démontrer ?

Démontrer, c’est le propre de la rigueur scientifique, des argumentaires et de l’analyse des causes et des effets, comme un théorème.

Montrer, cela relève plus du « storytelling », des histoires que l’on raconte pour faire savoir ce que l’on pense, sans rien démontrer du tout. C’est le domaine de la fable.

C’est d’ailleurs comme ça que commence la fable de La Fontaine, « le loup et l’agneau » :

« La raison du plus fort est toujours la meilleure :

Nous l’allons montrer tout à l’heure ».

Montrer, et non démontrer. Car cette fable est une histoire, une fiction, et c’est en montrant les images de cette fable que l’on va faire savoir que la raison du plus fort est toujours la meilleure.

Cet exemple est cité par le philosophe Jacques Derrida dans son séminaire à l’EHESS de 2001 que l’on peut aujourd’hui lire en intégralité, consacré à la souveraineté.

Cette tendance à montrer avec des histoires, c’est ce qui fait aujourd’hui, bien après les observations de Derrida, les succès de ces prestations d’éloquence, conférences TED, paroles d’influenceurs, posts divers sur les réseaux sociaux (Derrida parlait, lui, plutôt des chaines de télé, mais ça, c’était avant), au point que certains préfèrent se former ( ?)avec ces histoires et ces images fabuleuses plutôt que sur les bancs de l’école et de l’Université. Les jeunes générations sont les plus vulnérables à ces penchants. Les analogies (c’est « comme » ou « comme si ») et métaphores servent de décor à n’importe quel discours, et à toutes manipulations. Avec des « comme » et des « comme si », on peut faire dire n’importe quoi. Et c’est là le danger potentiel. 

Citons Jacques Derrida dans l’explication de ce concept de « fable » :

«Comme son nom latin l’indique, une fable est toujours et avant tout une parole - for, fari, c’est parler, dire, célébrer, chanter, prédire, et fabula, c’est d’abord un propos, une parole familière, une conversation, puis un récit mythique, sans savoir historique, une légende, parfois une pièce de théâtre, en tout cas une fiction qui prétend nous apprendre quelque chose, une fiction supposée donner à savoir, une fiction supposée faire savoir, faire savoir au double sens : 1) au sens de porter un savoir à la connaissance de l’autre, informer l’autre, faire part à l’autre, <faire> connaître à l’autre, et 2)au sens de « faire » savoir, c’est-à-dire de donner l’impression de savoir, faire l’effet du savoir, ressembler à du savoir là où il n’y en a pas nécessairement : dans ce dernier cas du « faire savoir », faire effet de savoir, le savoir est un prétendu savoir, un faux savoir, un simulacre de savoir, un masque de savoir ».

Le danger que perçoit Derrida concerne la politique, et  c’est de se demander ce qui se passerait si « le discours politique, voire l’action politique qui se soude à lui, et qui en est indissociable étaient constitués, voire institués par du fabuleux, par cette sorte de simulacre narratif, par la convention de quelque « comme si » historique, par cette modalité fictive de « raconter des histoires » qu’on appelle fabuleuse ou fabulaire, qui suppose donner à savoir là où on ne sait pas, qui affecte ou affiche frauduleusement le « faire savoir » et qui administre, à même l’œuvre ou le hors-d’œuvre de quelque récit, une leçon de morale, une « moralité » ? Hypothèse selon laquelle la logique et la rhétorique politiques, voire politiciennes, seraient toujours, de part en part, la mise en œuvre d’une fable, une stratégie pour donner du sens et du crédit à une fable, à une affabulation – donc à une histoire indissociable d’une moralité mettant en scène des vivants, animaux ou humains, une histoire soi-disant instructive, informatrice, pédagogique, édifiante, une histoire fictive, montée, artificielle, voire inventée de toutes pièces, mais destinée à enseigner, à apprendre, à « faire savoir », à faire part d’un savoir, à porter à la connaissance ».

Il est évident que si cette pratique de la fable et du fabuleux se développe, cela donne une nouvelle couleur aux discours politiques. A titre d’exemple, Derrida (nous sommes en 2001) cite cette image des avions éventrant les Twin Towers le 11 septembre 2001, qui a été reproduite et diffusée dans le monde entier, se demandant quel aurait été le sens de cette opération s’il n’y avait pas eu ces images. Probablement, comme on le voit pour d’autres catastrophes ou évènements dont on n’a pas d’images aussi impressionnantes immédiatement (les accidents de la route pendant les week-end fériés, les morts du sida en Afrique, les ouragans – même si on a, justement, grâce aux médias, de plus en plus d’images, mais dont l’impact est réduit quand elles viennent de contrées lointaines), cela n’aurait pas eu le même effet. Et ce sont justement le faire-savoir et le savoir-faire du faire-savoir, des deux côtés de l’agression, les agresseurs et les victimes, qui sont à l’œuvre, et de manière organisée. Ce sont « le déploiement et la logique des effets de l’image, de ce faire-savoir, de ce prétendu faire-savoir, de ces « informations » qui ont permis l’impact.

Pour généraliser, on pourrait, comme Derrida le fait dans ce séminaire, voir dans ces exercices de « faire-savoir » un moyen politique de « savoir faire peur », cette peur qui est selon Hobbes dans Léviathan, la passion politique par excellence, le ressort de la politique, et qu’il définit comme « la seule chose qui, dans l’humanité de l’homme, motive l’obéissance à la loi, la non-infraction à la loi et la conservation des lois ». Et Derrida d’y insister : « la souveraineté fait peur, et la peur fait le souverain ».

N'est-il pas d’actualité d’évoquer ces fables du faire-savoir, et l’exercice de la souveraineté par la peur hobbesienne, à l’heure où nos souverains communiquent sur la réforme des retraites « inévitable », à l’heure où n’importe quel changement ou transformation est présenté comme une « nécessité vitale » pour mieux en faire passer les effets, et susciter l'obéissance.

Et nous rappeler la fin de la fable du loup et de l’agneau :

Là-dessus, au fond des forêts
            Le loup l'emporte et puis le mange,
            Sans autre forme de procès.