Edgar Kosma
Avec le deepfake, que nous restera-t-il pour distinguer le vrai du faux dans notre monde de post-vérité?
Au royaume des réseaux sociaux, les jours passent et ne se ressemblent pas. Entre les buzz et les likes, le vrai et le fake, Edgar Kosma scrolle le fil d’actu d’un siècle décidément étrange. Hashtag sans filtre.
Comme son nom ne l’indique pas vraiment, le «deepfake» – ou «hypertrucage» pour ceux qui n’ont toujours pas perdu l’espoir de contenir l’anglicisation – est une technologie de synthèse multimédia basée sur l’intelligence artificielle. En gros, cela consiste à superposer des fichiers vidéo ou audio – le plus souvent un vrai visage qui parle – sur d’autres fichiers vidéo ou audio – le plus souvent un autre corps ou un corps créé de toutes pièces – afin de les mixer de la manière la plus réaliste possible grâce aux algorithmes affûtés de l’I.A.
Comme bien souvent dans ce bas-monde, c’est le secteur du porno qui a été précurseur, créant des deep-porns où des célébrités sont déshabillées artificiellement ou dans lesquelles leur visage est greffé sur des corps de stars du X. Si vous ne voyez pas l’intérêt, imaginez une vidéo «Beyoncé fucks with her plumber» et je peux vous garantir que le tsunami de clics sera plus ravageur encore qu’une gifle de Will Smith. A côté de cette face pas très glorieuse, se cache celle, plus sombre encore, du «revenge porn»: deep-porns réalisés par des êtres rancuniers qui mettent en scène leurs ex-compagnes dans des vidéos avilissantes.
Mais c’est dans le domaine politique que le phénomène est le plus inquiétant. L’exemple le plus récent: ce deepfake avec Volodymyr Zelensky qui, deux semaines après l’invasion de l’Ukraine par la Russie, annonçait la reddition de l’Ukraine. Imaginez la confusion dans la tête de militaires sur le front qui l’ont vu passer dans leur timeline. Puisque l’imagination est sans limite, on pourrait bientôt voir apparaître des vidéos où Poutine demande pardon à l’Ukraine, Kim Jong-il annonce un envoi de missile nucléaire sur Séoul ou Charles Michel déclare un envahissement de la Suisse…
En quoi le deepfake serait-il si différent du montage et retouches d’images qui existent déjà? Bonne question. Ici, ce qui pose problème n’est pas tant le trucage que le réalisme visant vers la perfection de ces bidouillages. Et puis, s’attaquer à la vidéo, n’est-ce pas s’attaquer au dernier rempart de la vérité, la preuve ultime du réel? Sans cette confiance aveugle dans les images enregistrées, que nous restera-t-il pour distinguer le vrai du faux dans notre monde de post-vérité?
‘Le tsunami de clics sera plus ravageur encore qu’une gifle de Will Smith.’
Repensez aux épisodes récents des saisons 1 et 2 de la saga Covid dans lesquels une partie de la population croyait une chose un jour et son contraire le lendemain, selon les infos véhiculées sur les réseaux sociaux. Imaginez à présent ce qu’ils goberont quand les fake news seront enrobées dans des vidéos plus réalistes que nature où le Dr Raoult conseillera deux vaccins plutôt qu’un, Jean-Marc Nollet vantera les vertus des SUV et Georges-Louis Bouchez du yoga… Serons-nous, dès lors, condamnés à un état de confusion permanent? Pas forcément, car en parallèle, les technologies de vérification évolueront, tandis que les experts et journalistes auront des outils à leur disposition pour déterminer le niveau de vérité ou de faketé d’une vidéo.
Aujourd’hui, les deepfakes les mieux réalisés sont encore du fait de professionnels des métiers de l’image. Mais, d’ici peu, quand cette technologie se sera développée et popularisée, on peut imaginer que tout un chacun pourra en créer très facilement. Mais à quoi le deepfake pourrait-il bien nous servir dans nos quotidiens? En réalité, le trucage s’est déjà inséré dans nos vies digitales, comme lorsque nous appliquons un décor lors d’une visio. Mais ce n’est rien à côté de la technologie deepfake qui dynamitera les frontières du perceptible. Grâce à elle, nous pourrons par exemple assister à une visio de travail en pyjama, laissant à l’I.A. le soin de nous coiffer, habiller, maquiller… Mieux: on pourra demander à quelqu’un de nous remplacer face à la caméra et l’I.A. appliquera notre visage et notre voix sur ce corps neutre. Imaginez à présent que chaque participant de la visio puisse en faire de même, et cela vous donnera une petite idée du monde profondément faux qui nous attend.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici