Contenido
La abogada Stefanie Yuen Thio sintió un profundo temor cuando un colega le informó que videos y fotos sugestivas de ella se estaban compartiendo en TikTok. A pesar de saber que las imágenes eran fabricadas, la naturaleza hiperrealista de estos deepfakes la dejó impactada y confundida. Aunque los videos no contenían desnudos, la violación que sintió fue intensa y palpable. Los deepfakes son videos, audios o imágenes generados por IA que hacen que las personas parezcan decir o hacer cosas que nunca hicieron realmente. Mientras algunos usan esta tecnología por humor o razones artísticas, la mayoría de los deepfakes hoy involucran contenido pornográfico no consensuado, afectando desproporcionadamente a las mujeres.\n\nEl aumento de los deepfakes es asombroso, en gran parte debido a la fácil disponibilidad de herramientas de IA. Según una empresa con sede en el Reino Unido, Sumsub, los casos de deepfake en Asia-Pacífico aumentaron un 1,530 % entre 2022 y 2023, siendo el segundo después de América del Norte. Un informe de Sensity AI de 2019 encontró que el 96 % de los deepfakes eran contenido sexual no consensuado, con más del 90 % de las víctimas siendo mujeres. Alarmantemente, los materiales de abuso sexual infantil generados por IA, que en su mayoría representan a niñas pequeñas, también se han disparado, con casos reportados en EE. UU. que pasaron de 4,700 en 2023 a más de 67,000 en 2024. En Singapur, SHECARES, un centro de apoyo de SG Her Empowerment (SHE) y el Consejo de Organizaciones de Mujeres de Singapur, ha manejado más de 440 casos de daño en línea desde 2023, incluyendo pornografía deepfake.\n\nA pesar del aumento de los números, muchos incidentes probablemente no se denuncian. La CEO de SHE, How Kay Lii, destacó este problema de subregistro. Una encuesta de 2023 de SHE mostró que las mujeres jóvenes de 15 a 34 años tienen el doble de probabilidades de enfrentar acoso sexual en línea, incluyendo ser víctimas de deepfakes o recibir imágenes íntimas sin consentimiento. Más del 70 % de las mujeres de 15 a 24 años conocían a alguien que experimentó tal acoso. Aunque las celebridades y políticas femeninas son objetivos principales, la amenaza es mucho más amplia. Por ejemplo, Corea del Sur enfrentó indignación pública el año pasado cuando la pornografía generada por IA de mujeres se difundió ampliamente. Incluso en Singapur, estudiantes varones de la Escuela Deportiva de Singapur crearon y compartieron desnudos deepfake de compañeras femeninas, involucrando a un grupo grande y no solo a unos pocos individuos.\n\nEl impacto psicológico del abuso deepfake es severo. Yuen Thio describió cómo inicialmente luchó con sentimientos de autoacusación a pesar de saber que no era su culpa. Muchas víctimas reportan emociones similares al trauma de un asalto físico: vergüenza, culpa, shock e impotencia. La psicóloga clínica Mahima Didwania explicó que aunque los deepfakes no implican contacto físico, el malestar emocional puede ser igual de real porque la mente lucha por separar lo falso de lo real. Las sobrevivientes a menudo experimentan pánico, ansiedad, insomnio e incluso pensamientos de autolesión. El malestar se intensifica porque el contenido deepfake es falso, pero las consecuencias sociales son muy reales, dañando reputaciones y relaciones.\n\nRecuperar el control se vuelve crucial para las sobrevivientes. Después del shock inicial, Yuen Thio se centró en qué acciones tomar, como denunciar los deepfakes a TikTok. El apoyo de amigos la ayudó a monitorear cuándo se eliminaba el contenido. Pero eliminar el contenido en línea es solo el comienzo. El procesamiento emocional y las conversaciones abiertas son igualmente importantes para la sanación. Recuperar el control varía para cada persona: algunas buscan acciones legales, otras hablan públicamente, mientras que algunas pueden escribir un diario o confrontar a los agresores. Para la artista singapurense Charmaine Poh, recuperar el control tomó un camino diferente y personalizado.\n\nEn resumen, la creciente prevalencia del abuso deepfake muestra cómo la tecnología puede ser usada como arma para dañar, con las mujeres soportando la mayor carga. Mientras los marcos legales y la conciencia social evolucionan, las heridas psicológicas son profundas, exigiendo no solo la eliminación del contenido, sino sistemas de apoyo integrales para ayudar a las víctimas a recuperar la agencia sobre sus identidades digitales y bienestar mental.