«Vous ne croirez jamais à l’histoire horrible qui m’est arrivée. Je suis Estelle Mouzin et je suis connue pour avoir subi des atrocités par l’un des meurtriers les plus connus de France.» Sur TikTok, une reconstitution de la petite Estelle Mouzin raconte le jour de sa disparition et l’implication du tueur en série Michel Fourniret.

Cette vidéo, vue plus de 270 000 fois, n’est pas un cas isolé. Le petit Grégory, les professeurs Samuel Paty ou Dominique Bernard sont eux aussi des visages que l’on peut voir s’animer en ouvrant l’application. Là, comme s’ils s’adressaient directement à l’utilisateur, pour raconter l’horreur dont ils ont été victimes. Mais leurs expressions faciales et leur voix robotique trahissent l’implication de l’intelligence artificielle.

Car grâce à l’intelligence artificielle, il est désormais possible de faire dire tout et n’importe quoi aux morts ou aux disparus. Or le format est particulièrement populaire, les vues se comptent en centaines de milliers, voire en millions. «Ma mort a bouleversé la France entière», «j’ai été abandonnée dans une forêt» : les premières phrases sont volontairement choquantes pour que l’utilisateur reste accroché à la vidéo. Une recette si juteuse que certains profils TikTok se dédient entièrement à ce genre de contenu. Ainsi, le compte @histoirextra compte plus de 273 000 abonnés. Un certain nombre d’entre eux sont des «bots», robots créés pour générer automatiquement ces vidéos qui font réagir en masse, comme le compte @mister_story_ai.

Et cela fonctionne. Dans les commentaires, certains internautes vont jusqu’à faire des demandes particulières. Sous un TikTok présentant une image numérique du petit Grégory, une utilisatrice demande «l’histoire de Kevin et Leslie », les deux jeunes dont les corps avaient été retrouvés en mars dans les Deux-Sèvres. Certains utilisateurs sont même déboussolés par ces faux qui sont parfois très réalistes. Sous une vidéo représentant le visage du petit Emile, disparu depuis juillet dans les Alpes-de-Haute-Provence, une utilisatrice écrit : «mais tu sais toi où tu es, pourquoi tu ne nous le dis pas ?».

Le processus n’a pourtant rien de compliqué. Pour réaliser ces vidéos, les comptes en question ont recours à des applications de création de deepfakes («hypertrucages» en français). Ces manipulations numériques permettent de remplacer un visage par celui d’un autre, de reconstituer la voix de quelqu’un ou de falsifier les propos d’une personnalité avec de plus en plus de réalisme. Une fois la photo de la victime récupérée, il ne reste plus que quelques étapes.

FaceSwap, l’application la plus connue, se dédouane de toute responsabilité dans cette utilisation très controversée. «Nous n’essayons pas de dénigrer les célébrités ou de rabaisser qui que ce soit», écrit-elle sur son site web. «FaceSwap ne sert pas à créer du contenu inapproprié ou à changer de visage sans consentement ou dans l’intention de dissimuler son utilisation.»

À lire aussiLes «deepfakes», nouveau fléau sur internet

Ces outils pullulent et sont très faciles d’accès, comme Revive – disponible sur l’App Store – ou DeepNostalgia, le logiciel développé par le site web MyHeritage, une plateforme de généalogie. À l’origine, ce logiciel permet de redonner un peu de vie aux photos de famille. Le concept est simple : après s’être inscrit sur le site, il est possible de glisser une photographie pour la voir s’animer, et cela gratuitement. Ensuite, il suffit de lui rajouter une voix factice avec des logiciels en ligne. Une voix robotique, semblable à celle des sites de traduction ou des assistants vocaux comme Ok Google ou Alexa, générées par IA. Aucun besoin, donc, d’avoir un échantillon de voix de la personne en question.

Interrogé sur la modération et la monétisation de ce type de vidéos, TikTok n’a pas souhaité répondre. Un porte-parole confirme toutefois que les vidéos représentant des personnes assassinées «ne sont pas autorisées». Depuis mai dernier, le réseau social exige que tout contenu réaliste créé et édité par l’IA soit clairement identifié comme tel, dans la légende ou par le biais d’un autocollant superposé. Dans les faits, aucune de ces vidéos ne mentionne l’utilisation d’un de ces logiciels externes.

Peu après le signalement de l’existence de ces contenus à TikTok, de nombreuses vidéos ont été supprimées et la vague de modération est toujours en cours.