Les IA telles que Nudify permettent de déshabiller des femmes. Elles connaissent un succès fulgurant, et soulèvent de graves inquiétudes liées au risque de harcèlement.

Malheureusement, ni les réseaux sociaux ni les gouvernements ne semblent décidés à lutter efficacement contre le fléau des DeepFakes pornos… L’intelligence artificielle peut décupler la productivité et libérer la créativité… mais elle peut aussi réveiller les plus bas instincts humains. Focus sur cette IA qui déshabille les femmes.

Une IA qui gagne en popularité

Selon les chercheurs, les sites web et applications utilisant l’IA pour déshabiller les femmes sur les photos connaissent une explosion de popularité. Rien qu’en 2023, plus de 24 millions de personnes ont visité de telles plateformes selon l’entreprise d’analyse des réseaux sociaux Graphika.

Sur les sites web des différents services de DeepFake, les créateurs se vantent d’attirer de nombreux utilisateurs. Certains affirment attirer plus d’un millier d’utilisateurs par jour

Un phénomène qui se répand sur les réseaux sociaux

YouTube video

Beaucoup de ces services utilisent les réseaux pour leur marketing. Au cours de l’année 2023, le nombre de liens faisant la promotion de telles applis a augmenté de 2400% sur les sites comme X ou Reddit.

Ils utilisent l’IA pour recréer une image existante afin que la personne apparaisse nue. La plupart du temps, ce traitement fonctionne uniquement sur les femmes…

Ces applications s’inscrivent dans une tendance plus globale, très inquiétante, de pornographie non consentie développée et distribuée par les progrès de l’intelligence artificielle : les DeepFakes pornos.

Sa prolifération croissante soulève de nombreux problèmes éthiques et légaux, car les photos sont souvent dérobées sur les réseaux et distribuées sans consentement, contrôle ou même connaissance de la victime.

YouTube video

La hausse de popularité est directement liée au lancement d’IA open source comme Stable Diffusion reposant sur les modèles à diffusion. Ces outils permettent de créer des images d’une qualité incomparablement supérieure avec ce qui se faisait il y a encore quelques années.

Et en raison de leur nature open source, ces modèles sont disponibles gratuitement et sans aucun contrôle de leurs créateurs. Comme l’explique Santiago Lakatos, analyste chez Graphika, « il est possible de créer quelque chose qui semble vraiment réaliste ».

La grande hypocrisie des GAFAM

YouTube video

Sur X, une publicité pour une telle appli présente une image accompagnée d’un texte suggérant que les utilisateurs peuvent créer une image de nu et l’envoyer à la personne. Il s’agit littéralement d’une incitation au harcèlement.

De même, une application a fait sa pub sur YouTube et apparaît en première position lorsqu’on tape le mot « Nudify ». Pourtant, un porte-parole de Google confirme que l’entreprise n’autorise pas le contenu sexuellement explicite.

Il en va de même pour Reddit dont le porte-parole déclare que le site interdit le partage non-consensuel de matériel sexuellement explicite falsifié. Plusieurs domaines ont ainsi été bannis des résultats de recherche.

De son côté, TikTok a bloqué le mot-clé « undress » (déshabiller) : un terme de recherche populaire associé à ce type de service. Les personnes tentant d’effectuer cette recherche sur l’application reçoivent un avertissement.

Enfin, Meta a également bloqué ce type de mots-clés sur ses réseaux. Toutefois, aucune plateforme n’a pris de réelle mesure pour lutter efficacement contre ce phénomène sordide…

La démocratisation des DeepFakes porno en milieu scolaire

YouTube video

Les montages pornos de célébrités sont loin d’être une nouveauté sur internet, mais les experts craignent que les progrès de l’IA rendent les logiciels de DeepFake toujours plus faciles d’utilisation et efficaces.

Selon Eva Galperin, directrice de la cybersécurité à l’Electronic Frontier Foundation, « nous voyons de plus en plus de tels contenus réalisés par des gens ordinaires avec des cibles ordinaires ». C’est notamment le cas parmi les élèves des lycées et des universités

De nombreuses victimes n’ont même pas conscience de faire l’objet de telles images, et ne le sauront très probablement jamais. Même pour celles qui s’en rendent compte, il est très difficile de réussir à convaincre les autorités de mener l’enquête.

Comme aux États-Unis, il n’existe pas encore en France de loi portant spécifiquement sur les DeepFakes créés via IA. La diffusion de montages pornos est interdite, avec des sanctions maximales d’un an de prison et 15 000 euros d’amende. Malheureusement, l’arsenal législatif n’a pas été mis à jour pour faire face à ce fléau lié aux progrès technologiques…

YouTube video

Les DeepFakes pornos exploitent l’intelligence artificielle pour créer de fausses vidéos sexuelles à partir de photos volées. Le phénomène prend de l’ampleur. Pour préserver sa vie privée, chacun peut adopter des gestes simples mais efficaces.

D’abord, limitez votre exposition en ligne. Ne publiez pas de photos en haute définition accessibles publiquement. Les images trop nettes sont les plus faciles à détourner. Réglez vos profils sociaux en mode privé. N’autorisez l’accès qu’à des contacts de confiance.

Ensuite, installez des alertes automatiques. Avec un service comme Google Alerts, vous pouvez suivre l’apparition de votre nom ou de vos images sur le web. Cela permet d’agir vite si un contenu suspect circule.

En cas de DeepFake, réagissez sans attendre. Signalez la vidéo à la plateforme où elle apparaît. Contactez aussi les forces de l’ordre pour porter plainte. Des organisations comme StopNCII.org peuvent vous accompagner dans les démarches pour faire supprimer les contenus.

Enfin, sensibilisez votre entourage. Expliquez les risques à vos amis, votre famille, vos enfants. L’éducation au numérique doit intégrer ces nouvelles menaces. Comprendre les enjeux, c’est mieux se défendre.

Protéger son image n’est plus un luxe. C’est une nécessité face à l’essor des IA capables de nuire. Prévenir vaut mieux que réparer.



Plus de détails sur l’article original.