C’est encore une fois un scénario qui tourne le vertige. Une application – retirée de la vente depuis – baptisée DeepNude utilisait l’intelligence artificielle pour retirer les vêtements d’une femme sur une photo, et la faire apparaître nue. Les possibilités de l’IA sont immenses pour la science, mais également pour malveillance.
Depuis le 23 juin, une application appelée DeepNude était disponible sur le web. Elle exploitait un réseau de neurones artificiel pour enlever les vêtements des femmes sur les photos. Un produit extrêmement efficace pour nuire à la vie d’une personne. Visiblement, ses développeurs n’en ont pas eu conscience pendant la phase de développement. C’est seulement hier que l’équipe de l’app a déclaré qu’elle l’avait retiré de la circulation en raison des usages malveillants dont elle pouvait être la source.
Jusqu’à présent, le deepfake n’était pas un danger majeur, car il était complexe à utiliser. Mais ça, c’était avant que l’équipe de DeepNude ouvre la boîte de Pandore.
Lisez la suite de l’article en cliquant sur siecledigital.fr.
Lire aussi
Des psychologues mettent en garde les parents sur l’exposition à la pornographie
Une autre étude prouve que la consommation de pornographie est néfaste pour le cerveau
Réseaux sociaux : Le tournant pornographique des influenceurs