Le deepfake, dont nous vous parlions il y a quelques semaines, concerne tout le monde. Si l’actrice Gal Gadot a les moyens de prouver à tous qu’elle n’a jamais tourné ce film, il est désormais à la portée de n’importe qui d’ajouter un visage sur une vidéo porno : le votre, celui de votre soeur, de votre fille.
/Attention, cet article peut choquer\
Cet article est une traduction d’un article de Samantha Cole de Vice.com.
Brièvement, l’année dernière, le site SendVid a hébergé une vidéo de intitulée « Gal Gadot couchant avec son demi-frère« .
Sauf que, ce n’est pas vraiment le corps de Gal Gadot, et c’est à peine son propre visage. C’est une simulation, on a changé son visage pour donner l’impression qu’elle joue dans une vidéo porno de thème « inceste ».
La vidéo a été créée à l’aide d’un algorithme de machine learning, utilisant du matériel facilement accessible et du code source libre que n’importe qui ayant une connaissance pratique des algorithmes d’apprentissage en profondeur pourrait mettre en place.
Ça ne trompera personne qui regarde de près. Parfois, le visage n’est pas correctement tracé et il y a un étrange effet d’image, mais au premier d’œil, ça semble crédible. C’est d’autant plus frappant qu’il s’agirait du travail d’une seule personne – un utilisateur de Reddit appelé ‘deepfakes‘ – et non d’un grand studio d’effets spéciaux. Au lieu de cela, le dénommé deepfakes utilise des outils de machine learning open-source comme TensorFlow, que Google met gratuitement à la disposition des chercheurs, des étudiants diplômés et de tous ceux qui s’intéressent au machine learning.
Comme l’outil Adobe qui peut faire dire n’importe quoi aux gens, et l’algorithme Face2Face qui peut échanger une vidéo enregistrée avec un suivi du visage en temps réel, ce nouveau type de faux porno montre que nous sommes sur le point de vivre dans un monde où il est trivialement facile de fabriquer des vidéos crédibles de gens faisant et disant des choses qu’ils n’ont jamais faites ou dites. Même des relations sexuelles.
Jusqu’à présent, deepfakes a posté des vidéos pornographiques violentes mettant en vedette les visages de Scarlett Johansson, Maisie Williams, Taylor Swift, Aubrey Plaza, et Gal Gadot sur Reddit.
Le faux porno de célébrité, où les images sont photoshoppées pour ressembler à des personnes célèbres qui posent nues, est une catégorie de porno existante depuis déjà plusieurs années et possède une base de fans passionnés. Dans le sous-reddit où deepfakes a posté ses vidéos, les internautes sont des grands fans de son travail. C’est la dernière avancée dans le genre.
« Ce n’est plus de la science de haut niveau. »
Selon deepfakes – qui a refusé de me donner son identité – le logiciel est basé sur de multiples bibliothèques open-source, comme Keras avec TensorFlow backend. Pour compiler les visages des célébrités, deepfakes a déclaré qu‘il utilisait Google images, des photos et des vidéos YouTube. Le deep learning consiste en des réseaux de nœuds interconnectés qui exécutent de manière autonome des calculs sur les données d’entrée. Dans ce cas, il a entraîné l’algorithme sur les vidéos pornos et le visage de Gal Gadot. Après assez de cette « formation », les nœuds s’organisent pour accomplir une tâche particulière, comme manipuler de manière convaincante la vidéo à la volée.
Alex Champandard, chercheur en intelligence artificielle, m’a dit dans un courriel qu’une carte graphique de qualité grand public pouvait traiter cet effet d’image en quelques heures, mais qu’un processeur simple fonctionnerait tout aussi bien, plus lentement naturellement.
« Ce n’est plus de la science de haute voltige », a dit M. Champandard.
La facilité avec laquelle quelqu’un pourrait le faire est effrayante. En dehors du défi technique, tout ce dont quelqu’un aurait besoin, c’est d’assez d’images de votre visage, et beaucoup d’entre nous sont déjà en train de créer des bases de données tentaculaires de nos propres visages : à travers le monde, 24 milliards de selfies ont été téléchargés sur Google Photos en 2015-2016. Il n’est pas difficile d’imaginer un programmeur amateur exécutant son propre algorithme pour créer une sex tape de quelqu’un qu’il veut harceler.
Une technique à la portée de n’importe qui
Deepfakes m’a dit qu’il n’est pas un chercheur professionnel, juste un programmeur avec un intérêt pour le machine learning.
« J’ai juste trouvé un moyen intelligent de faire du faceswap » dit-il, se référant à son algorithme. « Avec des centaines d’images de visages, je peux facilement générer des millions d’images déformées pour former le réseau « , dit-il. « Après ça, si j’ajoute le visage de quelqu’un d’autre, le réseau pensera que c’est juste une autre image déformée et essaiera de la faire ressembler au premier visage. »
Dans un fil de commentaires sur Reddit, deepfakes a mentionné qu’il utilise un algorithme similaire à celui développé par les chercheurs de Nvidia qui utilisent le deep learning pour, par exemple, transformer instantanément une vidéo d’une scène d’été en une vidéo d’hiver. Les chercheurs de Nvidia qui ont développé l’algorithme ont refusé de commenter cette application possible.
Dans presque tous les exemples que deepfakes a publiés, le résultat n’est pas parfait. Dans la vidéo de Gadot, une boîte est parfois apparue autour de son visage où l’image originale passe à travers, et sa bouche et ses yeux ne sont pas tout à fait alignés avec les mots que l’actrice dit – mais si vous louchez un peu et acceptez d’y croire, ce peut aussi bien être Gal Gadot ; les autres vidéos de deepfakes sont encore plus convaincantes.
L’artiste porno Grace Evangeline m’a dit sur Twitter que les stars du porno ont l’habitude que leur travail soit diffusé gratuitement sur des sites comme SendVid, celui où le faux porno de Gal Gadot est apparu. Mais elle a dit que cette fois, c’était différent. Elle n’avait jamais rien vu de tel.
« Une chose importante qui doit toujours se produire, c’est le consentement », a dit l’actrice. « Consentement dans la vie privée aussi bien qu’au cinéma. Créer de fausses scènes de sexe de célébrités leur enlève leur consentement. C’est mal. »
Même pour les personnes dont le gagne-pain consiste à se présenter devant une caméra, la violation des frontières personnelles est troublante. J’ai montré la vidéo de Gadot à Alia Janine, une artiste porno à la retraite qui a travaillé dans l’industrie du sexe pendant 15 ans. « C’est vraiment troublant », m’a-t-elle dit au téléphone. « Cela montre comment certains hommes ne voient les femmes que comme des objets qu’ils peuvent manipuler et être forcés de faire tout ce qu’ils veulent... C’est un manque total de respect pour les actrices pornos du film, et aussi pour les actrices. »
Une débat public indispensable
J’ai demandé à deepfakes s’il considérait les implications éthiques de cette technologie. Est-ce que le consentement, la vengeance, le porno et le chantage sont entrés dans leur esprit en développant cet algorithme ?
« Toutes les technologies peuvent être utilisées avec de mauvaises motivations, et il est impossible d’y mettre fin » , a-t-il dit, en les comparant à la même technologie qui a recréé la performance post-mortem de Paul Walker dans Furious 7 . « La principale différence, c’est la facilité avec laquelle tout le monde peut le faire. Je ne pense pas que ce soit une mauvaise chose qu’un plus grand nombre de gens ordinaires s’engagent dans la recherche sur le machine learning. »
Sur le plan éthique, les implications sont » énormes « , a dit M. Champandard. L’utilisation malveillante de la technologie est souvent inévitable, mais elle peut être combattue.
« Nous avons besoin d’un débat public très fort », a-t-il dit. « Tout le monde doit savoir à quel point il est facile de falsifier des images et des vidéos, à tel point que nous ne pourrons plus distinguer les contrefaçons dans quelques mois. Bien sûr, cela a été possible pendant longtemps, mais il aurait fallu beaucoup de ressources et de professionnels en effets visuels pour y parvenir. Maintenant, il peut être fait par un seul programmeur avec du matériel informatique récent. »
M. Champandard a indiqué que les chercheurs peuvent alors commencer à mettre au point une technologie pour détecter les fausses vidéos et aider à modérer ce qui est faux et ce qui ne l’est pas, et que la législation sur Internet peut s’améliorer pour réglementer ce qui se passe lorsque ces types de fakes et de harcèlement surgissent.
« D’une certaine manière, c’est une bonne chose, dit Champandard. Nous devons nous concentrer sur la transformation de la société pour pouvoir gérer ça ».
Retrouvez l’article en son intégralité (en langue anglaise) ici.