Le 1er mai 2022, pour le lancement de sa nouvelle Ă©mission-Ă©vĂ©nement “HĂ´tel du temps” (HdT), Thierry Ardisson dĂ©clarait dans une vidĂ©o publiĂ©e par France 3:

Le deepfake a très mauvaise rĂ©putation parce qu’effectivement les gens s’en sont servis pour des raisons nĂ©fastes […] ou alors pour des raisons comiques […] Moi, je n’ai pas inventĂ© le deepfake. Je suis le premier, ça je le revendique, Ă  faire une utilisation positive et culturelle du deepfake…” Thierry Ardisson

Info ou Intox ?

Les technologies de remplacement numĂ©rique que l’on appelle “deepfake” ont Ă©tĂ© dĂ©veloppĂ©es par des chercheurs Ă  partir des annĂ©es 1990. Les substitutions effectuĂ©s par ces technologies s’opèrent aujourd’hui particulièrement au niveau du visage et de la voix. Pour “HĂ´tel du temps", MacGuff et Ircam Amplify ont travaillĂ© sur deux procĂ©dĂ©s de remplacement : “FaceRetriever” pour les visages et “Voice Cloning” pour la voix.

En 2014, une technique inventée dans le champ de l’intelligence artificielle par le chercheur Ian Goodfellow a démocratisé ces technologies : les réseaux antagonistes génératifs - en anglais Generative Adverarial Networks (GAN).

“Selon cette technologie, deux algorithmes s’entraĂ®nent mutuellement : l’un tente de fabriquer des contrefaçons aussi fiables que possible ; l’autre tente de dĂ©tecter les faux. De cette façon, les deux algorithmes s’amĂ©liorent ensemble au fil du temps grâce Ă  leur entraĂ®nement respectif.” Oracle Security

Quand au terme deepfakes (mot-valise, contraction de “deep learning” et de “fakes”), celui-ci est nĂ© Ă  la fin de l’annĂ©e 2017 dans Reddit autour d’un utilisateur Ă©ponyme.

”Lui, ainsi que d’autres membres de la communautĂ© Reddit r/deepfakes, ont partagĂ© des deepfakes qu’ils ont créés ; de nombreuses vidĂ©os impliquaient des visages de cĂ©lĂ©britĂ©s permutĂ©s sur le corps d’actrices dans des vidĂ©os pornographiques, tandis que le contenu non pornographique comprenait de nombreuses vidĂ©os avec le visage de l’acteur Nicolas Cage permutĂ© dans divers films.” WikipĂ©dia EN

Les deepfakes, avec leurs trucages hyperréalistes, cherchent à tromper celles et ceux qui les regardent. Ils inquiètent par leurs potentiels de désinformation et de falsification. Toutefois, il existait déjà des utilisations positives et culturelles des deepfakes avant que Thierry Ardisson s’en empare. Ainsi depuis plusieurs années, les expositions et les musées mobilisent ces technologies ou d’autres proches, que ce soit :

  • pour faire “revivre” les artistes disparus - Exemple : le dispositif “DalĂ­ Lives” prĂ©sentĂ© aux publics du Salvador DalĂ­ Museum (St. Petersburg, USA) depuis mai 2019. (Voir l’article “La double mort de la rĂ©alité”)

  • pour questionner notre rĂ©alitĂ© - Exemple : la vidĂ©o du discours de Richard Nixon après l’échec de la mission Apollo 11 - vidĂ©o prĂ©sentĂ©e dans l’exposition “Deepfake: Unstable Evidence on Screen” au Museum of the Moving Image (New York, USA) du 18 dĂ©cembre 2021 au 15 mai 2022. (Voir l’article “En cas de dĂ©sastre lunaire”)

  • pour questionner la vĂ©racitĂ© des vidĂ©os qui circulent en ligne (et les modèles Ă©conomiques des plateformes d’échange). Exemple : les vidĂ©os du duo Bill Posters/ Daniel Howe pour le projet “Spectre” (avec des deepfakes de Marina Abramovic, Zuck, Kim K. et Marcel Duchamp). VidĂ©os qui ont Ă©tĂ© diffusĂ© dans l’exposition “Fake News : Art, Fiction, Mensonge” Ă  la Fondation groupe EDF (Paris, France) du 27 mai 2021 au 30 janvier 2022 .

~ ~ ~

Note : le titre de cette notule fait référence à “F for Fake”, le génial film “semi-documentaire” d’Orson Welles sorti en 1973 - “un film sur la tromperie et la fraude, sur les mensonges…“


{ Article publiĂ© dans le n°111 de l’infolettre Muzeodrome - le 31 mai 2022 }