C’est une expérience conçue en 1967 par Philippa Foot, philosophe britanno-américaine, connue pour ses travaux sur l’éthique. On l’appelle le « dilemme du tramway ».
Et c’est effectivement une expérience mettant à l’épreuve notre éthique et la morale. Il en existe des tas de versions. Le principe est le suivant : une personne peut effectuer un geste qui bénéficiera à un groupe de personnes A, mais, ce faisant, nuira à une personne B ; dans ces circonstances, est-il moral pour la personne d'effectuer ce geste ?
Une version possible : Un tramway lancé à pleine vitesse risque de tuer cinq personnes, que vous pouvez sauver en détournant le wagon de sa trajectoire. Sauf qu’il continuera alors sa course pour tuer cinquante personnes, 2 000 ans plus tard. Qui sauveriez-vous ?
Certains ont une réponse évidente : Il faut sauver les cinquante personnes et sacrifier les cinq. On appelle ces personnes les « long-termistes ».Et elles sont, paraît-il, de plus en plus nombreuses, surtout dans le monde anglo-saxon.
Ils sont partisans d’une idéologie que l’on pourrait dire « à la Elon Musk », l’idée qu’il faut aujourd’hui coûte que coûte, quel que soit le prix, pérenniser la civilisation et l’humanité pour les millénaires à venir, plutôt que de s’attacher à la vie à court terme de la population actuelle. D’où les projets fous de conquête de l’espace, de biotechnologies, de transhumanisme et d’immortalité. Car, comme les humains du futur seront potentiellement bien plus nombreux que ceux d’aujourd’hui – on dit des milliards de fois plus nombreux – rien ne peut bien sûr égaler la valeur des actions visant à accroître leurs chances de survie et leur bien-être.
Le pape du mouvement, appelé « effective altruism » (EA) (altruisme efficace), est William MacAskill, philosophe de 36 ans, qui en est le fondateur à Oxford à la fin des années 2000, et auteur du best-seller sur le sujet (non traduit encore), « What we owe the future ». L’altruisme efficace vise à identifier les meilleurs moyens d’avoir un impact sur le monde au plus long terme possible (voir « Doing good better », autre ouvrage de MacAskill). Exemple : Comment lutter contre la faim dans le monde ? On aurait envie de dire qu’il faut s’engager dans des ONG ou devenir médecin. Eh non ! D’après les adeptes du mouvement, il vaut mieux faire fortune dans la finance ou la Tech et reverser un maximum de son revenu. Ainsi, si ça marche, vous sauverez beaucoup plus de vies, comme en est convaincu Bill Gates.
Même raisonnement pour le futur : il vaut mieux sauver mille vies, même futures, plutôt qu’une vie, même aujourd’hui. Cela vaut pour l’espace comme pour le temps. Un autre exemple évoqué par MacAskill : Vous ramassez une bouteille cassée dans la nature pour éviter qu’un enfant ne se blesse ; peu importe que ce soit un enfant déjà vivant ou un enfant à naître dans cent ans, la valeur de votre geste est la même. Et comme les humains du futur sont bien plus nombreux, il est normal de penser à eux en priorité.
Un petit calcul fait par MacAskill : depuis le début de l’humanité, il y a 300 000 ans, cent milliards d’humains ont foulé le sol de la planète. Si dans son ensemble, l’espèce humaine survit aussi longtemps que la moyenne des mammifères (environ un million d’années), cela signifie que 99,5% des individus vivront dans le futur.
En fait les long-termistes prolongent l’idée selon laquelle chaque génération à la responsabilité de penser aux suivantes en la radicalisant. Et de nombreux laboratoires de recherche et de Think tank, et donc des dizaines de millions de dollars, se sont engouffrés dans ces idées, comme le Future of Humanity Institute, à Oxford, fondé par Nick Bostrom, suédois et autre grande figure du long-termisme. Lui, son sujet, c’est l’étude des impacts de l’intelligence artificielle et des super-intelligences qui vont dépasser l’intelligence humaine.
Et c’est la raison du regain d’intérêt pour le courant long-termisme : l’humanité connaît aujourd’hui un moment charnière essentiel avec le développement des technologies, qui peuvent faire peser sur l’humanité des « risques existentiels » (expression de Nick Bostrom) comme une guerre nucléaire ou technologique, ou aussi une pandémie incontrôlable, et surtout le risque de créer une « super intelligence » qui ne pourrait plus être contrôlée. Encore MacAskill : « Une fois que l’intelligence artificielle dépassera de loin l’intelligence humaine, nous pourrions nous retrouver avec aussi peu de pouvoir sur notre avenir que les chimpanzés en ont sur le leur ».
Un autre collègue de MacAskill, Toby Ord, co-fondateur avec lui de « l’altruisme efficace », évalue, lui, le risque de catastrophe pour l’humanité, lors du siècle qui vient, à une chance sur six. Comme dans la roulette russe avec une balle dans un revolver qui en contient six.
Et donc, comme les long-termistes évaluent que ce n’est plus qu’une question de temps avant que l’humanité génère une « Intelligence Artificielle Générale » (IAG), et que celle-ci pourrait menacer, en la dominant, l’espèce humaine tout entière, il est urgent de désengager une partie de l’argent que l’on investit aujourd’hui dans nos défis quotidiens pour les réemployer à la prévention de ces risques futurs. Car pour eux, pour éviter le risque, il nous faut encore investir dans les technologies mais pour pouvoir les contrôler plus efficacement, grâce à des formes de « boucliers ». En gros, guérir le mal par le mal.
Et puis, un autre dada est la conquête de l’espace, la colonisation de Mars tant prisée par Elon Musk, pour permettre de sauver les générations futures, ce que Elon Musk appelle une « assurance-risque ».
Paradoxalement, du moins en apparence, ces long-termistes ne s’intéressent pas trop au changement climatique car, pour eux, celui-ci ne menace pas l’humanité tout entière (contrairement aux technologies), et entraînera des conséquences mineures au regard de l’existence de l’humanité. MacAskill a même suggéré que les êtres humains, ou du moins une partie d’entre eux, survivront à un changement climatique de 15°C. En gros, du moment que l’humanité survit, il n’y a pas lieu de trop s’inquiéter.
Tous ces long-termistes, les entreprises, les dirigeants, notamment ceux qui s’intéressent à la prospective et aux scénarios environnementaux du futur pour leurs stratégie, doivent-ils les prendre comme des doux dingues sans intérêt ou bien, au contraire, suivre de plus près leurs travaux et réflexions ?
Les ignorer complètement serait sûrement dangereux, car leur influence augmente, y compris dans les instances gouvernementales et institutions, y compris à l’ONU, qui prépare le Sommet de l’Avenir pour septembre 2024 en abordant ces sujets de vision à long terme.
Alors ?
Ce que ces visions long-termistes nous permettent, c’est déjà, d’un point de vue politique, d’étendre notre horizon en considérant les générations futures, et en investissant dans la prévention et l’anticipation des catastrophes plausibles.
D’un point de vue plus technique, cela incite aussi à envisager les investissements dans les technologies en gardant à l’esprit le souci de sûreté, de robustesse, et de maîtrise des systèmes que nous mettons en place. C'est d'ailleurs la mission d'un autre institut long-termiste, le Futur of Life Institute., qui est aussi l'un des signataires du manifeste qui demandait une "pause" dans le développement de l'intelligence artificielle.
Et donc rester en alerte, pour nous éviter de finir comme des chimpanzés.
Malins comme un singe, mais pas trop…