Les femmes sont les plus touchées par les abus liés aux deepfakes, et face à la hausse des cas, les victimes ont besoin de meilleures façons de reprendre le contrôle | AI-U News
Les femmes sont les plus touchées par les abus liés aux deepfakes, et face à la hausse des cas, les victimes ont besoin de meilleures façons de reprendre le contrôle
Publié : November 22, 2025 at 12:11 AM
News Article
Contenu
L'avocate Stefanie Yuen Thio a été submergée par un profond sentiment d'angoisse lorsqu'un collègue lui a appris que des vidéos et photos suggestives d'elle circulaient sur TikTok. Bien qu'elle sache que les images étaient fabriquées, le caractère hyper-réaliste de ces deepfakes l'a laissée choquée et confuse. Même si les vidéos ne contenaient aucune nudité, la violation qu'elle ressentait était intense et palpable. Les deepfakes sont des vidéos, audios ou images générés par IA qui font apparaître des individus en train de dire ou faire des choses qu'ils n'ont jamais réellement faites. Si certains utilisent cette technologie pour l'humour ou des raisons artistiques, la plupart des deepfakes aujourd'hui concernent du contenu pornographique non consensuel, ciblant de manière disproportionnée les femmes.\n\nL'essor des deepfakes est stupéfiant, principalement dû à la facilité d'accès aux outils d'IA. Selon une entreprise britannique, Sumsub, les cas de deepfakes dans la région Asie-Pacifique ont augmenté de 1 530 % entre 2022 et 2023, se classant juste derrière l'Amérique du Nord. Un rapport de Sensity AI de 2019 a révélé que 96 % des deepfakes étaient des contenus sexuels non consensuels, avec plus de 90 % des victimes étant des femmes. De manière alarmante, les matériels d'abus sexuels sur enfants générés par IA, représentant principalement de jeunes filles, ont également explosé, les cas signalés aux États-Unis passant de 4 700 en 2023 à plus de 67 000 en 2024. À Singapour, SHECARES — un centre de soutien créé par SG Her Empowerment (SHE) et le Conseil des Organisations Féminines de Singapour — a traité plus de 440 cas de préjudices en ligne depuis 2023, y compris des deepfakes pornographiques.\n\nMalgré la hausse des chiffres, de nombreux incidents restent probablement non signalés. La PDG de SHE, How Kay Lii, a souligné ce problème de sous-déclaration. Une enquête de 2023 menée par SHE a montré que les jeunes femmes âgées de 15 à 34 ans sont deux fois plus susceptibles de subir du harcèlement sexuel en ligne, y compris d'être victimes de deepfakes ou d'envoi d'images intimes sans consentement. Plus de 70 % des femmes âgées de 15 à 24 ans connaissaient quelqu'un ayant vécu ce type de harcèlement. Bien que les célébrités féminines et les politiciennes soient des cibles principales, la menace est beaucoup plus large. Par exemple, la Corée du Sud a fait face à une indignation publique l'année dernière lorsque des vidéos pornographiques générées par IA de femmes ont largement circulé. Même à Singapour, des étudiants masculins de la Singapore Sports School ont créé et partagé des deepfakes nus de camarades féminines, impliquant un grand groupe plutôt que quelques individus seulement.\n\nL'impact psychologique des abus liés aux deepfakes est sévère. Yuen Thio a décrit comment elle a d'abord eu du mal à gérer des sentiments d'auto-culpabilisation malgré le fait qu'elle savait que ce n'était pas de sa faute. De nombreuses victimes rapportent des émotions similaires à un traumatisme d'agression physique — honte, culpabilité, choc et impuissance. La psychologue clinicienne Mahima Didwania a expliqué que bien que les deepfakes n'impliquent pas de contact physique, la détresse émotionnelle peut être tout aussi réelle car l'esprit a du mal à distinguer le faux du réel. Les survivants éprouvent souvent de la panique, de l'anxiété, des insomnies, voire des pensées d'automutilation. La détresse est amplifiée parce que le contenu deepfake est faux, mais les conséquences sociales sont très réelles, endommageant les réputations et les relations.\n\nReprendre le contrôle devient crucial pour les survivants. Après le choc initial, Yuen Thio s'est concentrée sur les actions à entreprendre, comme signaler les deepfakes à TikTok. Le soutien des amis l'a aidée à surveiller la suppression des contenus. Mais retirer le contenu en ligne n'est que le début. Le traitement émotionnel et les conversations ouvertes sont tout aussi importants pour la guérison. La reprise de contrôle varie selon chaque personne — certains engagent des actions légales, d'autres prennent la parole, tandis que certains tiennent un journal ou confrontent les auteurs. Pour l'artiste singapourienne Charmaine Poh, reprendre le contrôle a suivi un chemin différent et personnalisé.\n\nEn résumé, la prévalence croissante des abus liés aux deepfakes montre comment la technologie peut être utilisée comme une arme pour nuire, les femmes en subissant le plus les conséquences. Alors que les cadres juridiques et la sensibilisation sociale évoluent, les blessures psychologiques sont profondes, nécessitant non seulement la suppression des contenus, mais aussi des systèmes de soutien complets pour aider les victimes à retrouver leur autonomie sur leur identité numérique et leur bien-être mental.
Insights clés
L'article met en lumière la montée rapide des abus liés aux deepfakes, soulignant une augmentation de 1 530 % en Asie-Pacifique entre 2022 et 2023, avec une cible disproportionnée des femmes — plus de 90 % des victimes dans la pornographie deepfake non consensuelle.
Les parties prenantes clés incluent les victimes, principalement des femmes et des jeunes filles, des organisations de soutien comme SHECARES, et des plateformes comme TikTok où ce contenu circule.
Les impacts immédiats englobent un traumatisme psychologique profond chez les victimes, allant de la honte à l'anxiété et à l'automutilation.
De manière comparable, les récentes manifestations publiques en Corée du Sud contre la pornographie deepfake reflètent un rejet sociétal et une demande de réponses plus fortes.
Pour l'avenir, les innovations dans la détection par IA et les réformes juridiques offrent de l'espoir, mais les risques restent élevés sans atténuation proactive.
Les recommandations pour les régulateurs privilégient l'amélioration des mécanismes de signalement, l'obligation de responsabilité des plateformes, et l'expansion des services de soutien aux victimes, en équilibrant complexité et impact.
Cette analyse souligne l'urgence de stratégies intégrées technologiques et sociales pour combattre les abus liés aux deepfakes tout en soutenant la récupération des survivants.