Dernièrement, il y a eu deux affaires qui ont fait beaucoup de bruit et qui posent des questions de fond sur le côté obscur des IA : les fausses images porno de Taylor Swift et une arnaque à 26 millions de dollars à Honk Kong.
Dans les deux cas, les voyous ont utilisé ce qu’on appelle les « deepfake« , c’est-à-dire une fausse image d’une personne générée par une Intelligence Artificielle.
J’avais entendu que des personnes se faisaient passer pour quelqu’un d’autre en empruntant son CV et son image pour passer des entretiens en visio.
Même notre bon vieux ancien Président de la République, François Hollande, s’était fait piéger par deux humoristes russes qui ont exploité cette technologie:
Alors, est-ce à la portée de tout le monde de pouvoir faire des deepfakes ? Est-ce condamnable ?
Faire des deepfakes, c’est facile ?
Franchement, c’est flippant mais oui ! C’est même d’une facilité déconcertante de pouvoir faire des deepfakes…
Une étude de 2019 révèle que 96% des deepfakes sont des images à caractère sexuel et bien sûr, la très grande majorité de ces images concernent des femmes (souvent des célébrités ou des ex-petites amies).
Je me souviens de ma sœur qui me parlait il y a quelques années des « tribunaux du net » où des collégiens et lycéens prenaient une personne pour cible et lui faisaient son procès sur l’appli Périscope. La même chose aujourd’hui peut aboutir à des comportements déviants qui, « pour rigoler », va prendre une mauvaise tournure : une jeune fille pour cible et créer des fausses images à mauvais escient. Une fois une photo mise sur le net, elle devient virale et c’est quasi impossible de réussir à faire un nettoyage complet de ces mauvaises traces numériques.
Il est évident que nous avons une obligation de nous préparer comme il se doit et de comprendre les tenants et les aboutissants de la révolution IA afin d’y faire face car ce que cette révolution a à nous offrir est extrêmement positif mais il comporte aussi son lot de noirceur.
Concrètement, il existe trois méthodes pour générer un deepfake :
- le “Face Swap” (on échange le visage de quelqu’un par un autre),
- le “Lypsinc” (on fait bouger artificiellement les lèvres d’un visage),
- et le “puppet” (je bouge mon visage et les expressions de celui-ci pour faire bouger ceux d’une image artificielle).
La méthode la plus accessible, c’est de loin le « Face Swap » et pour générer des images de mauvais genre, vous n’y arriverez heureusement pas avec Google. Il existe des outils très facilement accessibles pour mélanger le visage d’une personne avec une autre image.
Mais ce n’est pas tout !
Vous pouvez carrément créer des images de toute pièce avec des IA de nos jours. Certes, Dall-E et Midjourney ont des restrictions mais Stable Diffusion qui est open source n’est pas censuré. Du coup, en utilisant le programme Fooocus, il est possible de générer des images pas très catholiques de Taylor Swift en 10 secondes.
Au passage, Théo en avait parlé brièvement dans son Let’s Talk que je vous invite à voir sur le sujet Stable Diffusion:
Donc c’est accessible !
Il y a même des sites qui ont été entrainés à générer des images au contenu explicite avec des prompts qui utilisent des instructions Not Safe For Work NSFW comme le site « PromptHero« .
L’histoire de Taylor Swift met juste en valeur aujourd’hui ce qui existe déjà depuis un bon moment.
Pour l’histoire de Hong Kong, c’est autre chose. C’est une arnaque de très haute volée qui nécessite des moyens bien plus importants : c’est un casse du siècle.
Et la légalité là-dedans ?
Depuis quelques temps, on parle de l’AI Act européen et je vous invite à lire cet article pour en savoir plus.
Le cadre réglementaire de la loi adopte une approche basée sur le risque, interdisant les systèmes d’IA considérés comme une menace claire pour la sécurité et les droits des personnes, et soumettant les systèmes d’IA à haut risque à des obligations strictes avant leur mise sur le marché. Ainsi, tout créateur devra expliciter qu’il utilise une IA et devra suivre des règles stricts selon le niveau de risque de l’IA.
Pour autant, faire appliquer cette loi pour des créateurs qui sont en dehors de l’Union Européenne risque d’être vraiment compliqué. C’est sensiblement la même question que pour le RGPD où il faut quand même retrouver les auteurs des faits qui sont des parfaits inconnus.
La loi sur les services numériques (DSA) permet aux particuliers de signaler des contenus potentiellement illégaux, y compris des deepfakes, aux plateformes en ligne, qui sont ensuite chargées de traiter ces signalements.
Les cadres juridiques existent donc mais l’efficacité n’est pas au point.
C’est donc à chacune et chacun d’entre nous d’être vigilant et prudent, en particulier auprès des populations plus vulnérables comme nos enfants.
C’est pourquoi j’insiste autant sur la nécessité de comprendre le monde des IA.
Les deepfakes « positives »
J’ai fait exprès d’insister sur le caractère négatif du deepfake mais il existe des applications positives.
Les deepfakes sont très utilisés dans le monde du cinéma pour, par exemple, rajeunir une personne. Il y a quelques semaines, j’avais vu un hologramme de France Gall dans la comédie musicale Starmania.
Il y a quelques semaines, HeyGen a fait un buzz monumental : il suffit de se filmer en train de parler en français pendant 30 secondes et HeyGen nous sort une vidéo où je parle en portugais avec les bons mouvements de la bouche en reprenant exactement le même texte.
Les technologies similaires aux deepfakes peuvent être utilisées pour recréer la voix de personnes ayant perdu leur capacité à parler en raison de maladies leur permettant de communiquer avec une voix qui ressemble à la leur.
Un seul mot d’ordre
Formons-nous !