Sommaire
ToggleTL;DR
Un rapport d’ONU Femmes (641 femmes, 119 pays) confirme ce que beaucoup refusaient encore d’admettre : l’IA ne crée pas de nouvelles formes de violence contre les femmes, elle les industrialise. Deepfakes pornographiques, sextorsion, viol virtuel — ces outils réduisent au silence journalistes, militantes et professionnelles. 41 % des répondantes s’autocensurent déjà. La justice, elle, n’a pas encore lu le mode d’emploi.
L’IA et les violences faites aux femmes : quand la technologie devient une arme de masse
Ce n’est pas une dystopie. C’est un rapport de l’ONU publié le 30 avril 2026.
Le rapport s’intitule Tipping Point : impacts, manifestations et recours face aux violences en ligne à l’ère de l’IA. Il a été produit par ONU Femmes en partenariat avec City St George’s, Université de Londres, et TheNerve — un laboratoire de criminalistique numérique fondé par Maria Ressa, prix Nobel de la paix. 641 femmes interrogées dans 119 pays, entre août et novembre 2025.
Ce n’est pas une tribune militante. Ce sont des données.
Et les données sont préoccupantes.
Les chiffres qu’on préférerait ne pas lire
Quelques résultats clés de l’enquête :
- 27 % des répondantes ont été victimes d’avances sexuelles non sollicitées, de cyberflashing ou de sexting non consenti.
- 12 % ont vu des images intimes diffusées sans leur consentement.
- 6 % ont été victimes de deepfakes ou de contenus manipulés — un chiffre en forte hausse et largement sous-estimé.
- 41 % se sont autocensurées sur les réseaux sociaux pour éviter les abus.
- 19 % ont réduit leur prise de parole au travail.
- 25 % souffrent d’anxiété ou de dépression liées aux violences en ligne.
- 13 % ont reçu un diagnostic de syndrome de stress post-traumatique.
Ce dernier chiffre mérite qu’on s’y arrête. Le SSPT n’est pas une réaction disproportionnée à « un commentaire désagréable sur internet ». C’est la réponse clinique à un traumatisme réel. Le fait que 1 femme sur 8 interrogées en soit là devrait suffire à clore le débat sur la gravité du sujet.
Comment l’IA transforme la mécanique de la violence
De l’outil artisanal à la chaîne de production
Il y a dix ans, créer un faux contenu intime crédible exigeait des compétences techniques significatives. Aujourd’hui, des applications grand public — parfois référencées sur les stores officiels — permettent de générer un deepfake en quelques minutes à partir de photos publiques Instagram ou LinkedIn.
Résultat : la barrière à l’entrée s’est effondrée. N’importe qui peut désormais cibler n’importe qui. Ce n’est plus le privilège de hackers sophistiqués — c’est accessible à un lycéen avec un abonnement freemium.
La sextorsion augmentée par l’IA
Le mécanisme est simple et brutal : un agresseur génère des images ou vidéos sexuellement explicites d’une femme à partir de ses photos publiques, puis menace de les diffuser à son entourage, à son employeur ou sur les réseaux sociaux si elle ne se soumet pas à ses exigences (rançon financière, silence, ou pire).
L’IA rend ce scénario exponentiellement plus efficace — le contenu est crédible, rapide à produire, et peut cibler plusieurs personnes en parallèle. Des chercheurs en cybersécurité ont découvert en 2025 une base de données publiquement accessible contenant plus d’un million d’images et vidéos générées par IA, en majorité à caractère pornographique, souvent basées sur des photos tout à fait ordinaires prélevées sur les réseaux sociaux.
Les « usines à deepfakes » : un phénomène documenté
Des enquêtes récentes ont infiltré des communautés en ligne où des mineurs — des collégiennes — sont délibérément ciblées. À partir de photos publiques, des IA génèrent des images sexualisées en quelques secondes, partagées dans des groupes privés. L’objectif n’est pas toujours le chantage direct. Parfois, c’est simplement l’humiliation collective — faire disparaître la cible de l’espace public en rendant sa présence en ligne insupportable.
Certaines adolescentes ont effectivement cessé de publier, de parler, ou d’exister visiblement en ligne.
Le concept qui dérange : le « viol virtuel »
Une terminologie volontairement forte — et cliniquement justifiée
Le rapport utilise l’expression viol virtuel pour désigner des simulations sexuelles non consenties impliquant l’image d’une personne réelle. Le terme choque. C’est probablement l’effet recherché.
Mais au-delà de la rhétorique, l’impact psychologique est documenté : perte de contrôle de son image, humiliation publique, peur des répercussions professionnelles et sociales, sentiment de violation de l’intégrité. Les études sur les victimes de deepfakes pornographiques convergent sur un point : l’absence de contact physique ne supprime pas le traumatisme.
« Ces violences contribuent à inverser les droits chèrement conquis par les femmes, dans un contexte de montée de l’autoritarisme, de recul démocratique et de misogynie en réseau. » — Julie Posetti, auteure principale du rapport
Pourquoi les journalistes et militantes sont des cibles prioritaires
Le rapport documente des campagnes coordonnées ciblant spécifiquement des femmes qui parlent en public — journalistes, activistes, chercheuses, élues. La logique est simple : produire suffisamment de contenu dégradant associé à leur nom pour détruire leur crédibilité ou les pousser à se retirer.
C’est une attaque contre l’espace démocratique autant que contre les individus. André Gentit le souligne régulièrement dans les formations DeepDive : l’IA n’est pas neutre politiquement. Elle amplifie les rapports de force existants — et ici, elle amplifie des dynamiques de domination qui préexistaient largement à ChatGPT.
La réponse institutionnelle : entre bonne volonté et impuissance concrète
La police, ce grand classique du « vous n’aviez qu’à pas »
Sur les 25 % de victimes ayant contacté la police, les résultats sont édifiants :
- 24 % se sont senties culpabilisées.
- Une proportion identique a rapporté qu’on leur avait fait comprendre qu’il leur appartenait de se protéger.
La co-auteure Lea Hellmueller résume avec une précision chirurgicale : les forces de l’ordre reportent la responsabilité sur les survivantes, en leur conseillant de quitter les réseaux sociaux, d’éviter les sujets controversés, d’accepter des postes moins exposés — ou de mettre leur carrière en pause.
En d’autres termes : la solution proposée à la violence, c’est l’invisibilité de la victime. Ce n’est pas une politique de protection. C’est une politique d’effacement.
Le vide juridique n’est pas une fatalité
Plusieurs pays avancent sur des législations spécifiques aux deepfakes non consentis — le Royaume-Uni a intégré cette infraction dans son Online Safety Act, des états américains ont légiféré, l’Union européenne travaille sur des mises à jour du cadre réglementaire IA. Mais la vitesse législative reste structurellement inférieure à la vitesse d’innovation technologique.
C’est le paradoxe que DeepDive documente depuis ses débuts : on ne régule pas l’IA en retard de deux ans sur ses usages réels.
L’effet macro : quand la violence individuelle devient un problème démocratique
Il serait tentant de réduire ce sujet à une question de sécurité individuelle. Ce serait passer à côté de l’essentiel.
Un rapport parallèle de l’ONU publié la même semaine — Renforcer l’intégrité de l’information : publicité, IA et crise mondiale de l’information — avertit que l’adoption non maîtrisée de l’IA dans la publicité finance la désinformation et menace la viabilité du journalisme indépendant. Les deux rapports se répondent.
D’un côté, l’IA réduit au silence des voix individuelles par la violence.
De l’autre, elle dégrade l’écosystème informationnel global par la désinformation.
Le résultat commun : moins de pluralité, moins de débat contradictoire, moins de démocratie fonctionnelle.
« Sans une action rapide et des garde-fous adaptés, l’IA risque d’accélérer l’effondrement de l’intégrité de l’écosystème de l’information. » — Charlotte Scaddan, conseillère principale de l’ONU pour l’intégrité de l’information
Conclusion — Le point de vue DeepDive
Ce rapport d’ONU Femmes illustre avec précision quelque chose que André Gentit martèle en formation : l’IA n’invente pas les problèmes humains, elle leur donne des stéroïdes. La misogynie existait avant les LLMs. Le harcèlement existait avant les générateurs d’images. Mais l’accessibilité, la vitesse et l’échelle que l’IA apporte transforment des comportements qui restaient marginaux en phénomènes de masse.
La bonne nouvelle — s’il faut en trouver une — c’est que nommer précisément un problème est la condition préalable à le régler. Ce rapport fait ce travail de documentation avec une rigueur qui rend l’esquive difficile.
La mauvaise nouvelle, c’est que les outils existent déjà, sont largement distribués, et que les régulations courent derrière. La question n’est plus « est-ce que ça arrive ? » mais « qu’est-ce qu’on fait maintenant ? »
Pour les professionnels qui intègrent l’IA dans leurs organisations — RH, managers, responsables communication — ce rapport devrait figurer dans les lectures obligatoires de toute politique d’usage responsable de l’IA. Ce n’est pas un sujet « féministe » ou « militant » au sens partisan du terme. C’est un sujet de gestion des risques, de responsabilité sociale, et de compréhension des externalités réelles de la technologie qu’on déploie.
L’ouverture qui s’impose : les prochaines batailles se joueront sur la traçabilité des contenus générés par IA (watermarking, C2PA), sur la responsabilité des plateformes qui hébergent ces contenus, et sur la capacité des systèmes judiciaires à se mettre à niveau. DeepDive suivra ces évolutions — parce que comprendre l’IA, c’est aussi comprendre ce qu’elle rend possible quand personne ne regarde.
André Gentit Formateur & Consultant en Stratégie Web et IA générative
Vous souhaitez bâtir une stratégie de communication efficace, booster la performance de votre site internet ou mieux comprendre les dynamiques des réseaux sociaux ?
👉 Avec DeepDive, je vous accompagne grâce à une expertise terrain (ex-dirigeant d’agence digitale depuis 2011) et une veille continue sur les nouvelles pratiques numériques.
👉 J’interviens auprès de TPE, PME et collectivités, mais aussi en écoles et organismes (CNAM, CCI, écoles de commerce) pour rendre le numérique accessible et opérationnel.
👉 Mes formations couvrent le webmarketing, l’e-commerce, l’IA générative appliquée et incluent également une sensibilisation aux risques liés aux usages du web en général, sans oublier les bonnes pratiques à mettre en œuvre avec l’intelligence artificielle.
Mon objectif : transmettre des savoirs concrets pour que chaque apprenant — étudiant, salarié, entrepreneur ou institution — puisse transformer le numérique et l’IA en véritable levier de réussite.
Découvrez mon petit robot PromptyBot qui vous propose des centaines de prompts optimisés

















