En 1954, dans La Réponse (The Answer), micro-nouvelle de 256 mots, l’auteur de science-fiction états-unien Fredric Brown imaginait la connexion de tous les ordinateurs de quatre-vingt-seize milliards de planètes pour former un seul méga-ordinateur fusionnant toutes les connaissances de l’univers. Dans cette histoire, juste après la connexion, un dignitaire pose à la machine la question capitale « Existe-t-il un Dieu ? » - celle-ci répond immédiatement avec une voix puissante « Oui, maintenant il y a un Dieu. ». Saisi d’une peur soudaine, un autre personnage de la nouvelle souhaite couper la connexion mais il est trop tard - un éclair venu du ciel le frappe et soude la connexion à jamais.
La peur des machines est ancienne, celle de doubles qui nous remplacent encore plus, l’actualité foisonnante de ces derniers mois sur les “intelligences artificielles génératives” a ravivé ces peurs.
“Notre objectif est de créer un espace pour réfléchir sur la technologie elle-même et réfléchir de manière critique sur l’intelligence artificielle et ses implications.“ Misalignment Museum
Depuis la fin mars 2023 et jusqu’au 1er mai 2023, au 201 Guerrero Street à San Francisco (USA), se déploie le Misalignment Museum, une exposition spéculative qui accueille ses visiteurs avec le message géant “Désolée d’avoir tué l’essentiel de l’humanité”. Cette exposition imagine un monde post-apocalyptique où une Intelligence Générale Artificielle (Artificial General Intelligence - AGI) aurait détruit la majeure partie de l’humanité. Réalisant trop tardivement que son action était mauvaise, cette AGI aurait alors créé “ce musée comme un mémorial et des excuses aux humains restants”. Le nom de cette exposition fait référence à l’alignement des intelligences artificielles. Une intelligence artificielle (IA) qui n’est pas alignée dérive des objectifs prévus par ses concepteurs.
La crainte d’une Intelligence Artificielle forte qui opterait pour l’élimination de l’humanité entière est un thème récurrent de la science-fiction depuis au moins les années 1950, l’exemple le plus connu est peut-être Skynet et ses Terminators. L’être humain adore se faire peur, toutefois les intelligences artificielles générales et fortes restent pour l’instant que des spéculations. Il n’y a que des mathématiques et aucune intelligence dans l’intelligence artificielle actuelle.
Le projet du Misalignment Museum est porté par Audrey Kim qui travaillait auparavant dans l’industrie de la tech dans la Silicon Valley (Google, Y Combinator, Cruise Automation LTD…). Celle-ci envisage de trouver ensuite un lieu permanent pour le “musée”. L’exposition présente un ensemble de dispositifs, certains numériques et d’autres pas (voir cet article de SFgate). Paperclip Embrace (Étreinte de trombone) en est une des pièces maitresses. Cette sculpture composée de 15·000 trombones matérialise l’expérience de pensée du “maximiseur de trombones” décrite par le philosophe suédois Nick Bostrom dés 2003.
« Supposons que nous ayons une IA dont l’unique but soit de faire autant de trombones que possible. L’IA se rendra vite compte que ce serait bien mieux s’il n’y avait pas d’humains, parce que les humains pourraient décider de l’éteindre. Parce que si les humains le faisaient, il y aurait moins de trombones. De plus, le corps humain contient beaucoup d’atomes qui pourraient être transformés en trombones. L’avenir vers lequel l’IA essaierait de se diriger serait un futur avec beaucoup de trombones mais aucun humain.»
— Nick Bostrom dans un entretien dans huffpost.com en 2015 - via Wikipédia
Cette expérience de pensée cherche à montrer qu’une IA même avec des objectifs apparemment inoffensifs pourrait devenir dangereuse si elle est n’est pas alignée sur des valeurs humaines et éthiques.
‘“Le développement de l’IA a considérablement accéléré les progrès scientifiques et technologiques et amène rapidement l’humanité vers un avenir inconnu. En tant que société, nous devenons de plus en plus redevables à l’interface avec les machines pour faire fonctionner et prendre des décisions qui affectent la vie des gens…”
Misalignment Museum
L’exposition Misalignment Museum confirme une pensée californienne irriguée par la science-fiction hollywoodienne et le transhumanisme. L’IA y est présentée comme une technologie inévitable qu’il est nécessaire de vite maitriser pour aller vers un futur “dynamique plein d’espoir” - sans cette maitrise nous pourrions selon cette pensée glisser vers une dystopie ou pire encore assister au remplacement des hommes par des machines.
La peur est un vecteur qui donne plus de puissance à l’objet qui suscite celle-ci. Cette peur est d’ailleurs allègrement mise en avant par les investisseurs et acteurs de la scène de l’IA. Une peur très utile pour masquer les véritables problèmes liés à la prolifération des IAs. Les chercheurs de Princeton Sayash Kapoo et Arvind Narayanan analysent dans une édition de leur infolettre AI Snake Oil : 3 dangers spéculatifs et 3 dangers réels des IAs. Ceux-ci soulignent entre autres que ce qui est en train de s’écrire est le transfert de pouvoir aux mains de quelques entreprises privées.
Dans un numéro de son infolettre Règle 30 titré “On n’a pas besoin d’apocalypse pour critiquer l’IA“, la journaliste Lucie Ronfaut rappelle quand à elle que depuis des années “chercheurs, chercheuses, militant·es et autres expert·es alertent sur la précarisation du travail salarié au profit de l’automatisation, l’exploitation des travailleurs et des travailleuses du clic, la désinformation qui vise d’abord les personnes minorisées, les algorithmes qui reproduisent et renforcent les inégalités…”.
Les débats éthiques et politiques autour des Intelligences Artificielles sont bien trop complexes pour être réduits à des visions apocalyptiques.
{ Article publié dans le n°125 de l’infolettre Muzeodrome - le 17 avril 2023 }