Contenido
Mientras el huracán Melissa atravesaba el Caribe recientemente, una ola de videos engañosos generados por IA inundó las plataformas de redes sociales, creando confusión y desinformación. Un clip particularmente viral muestra cuatro tiburones supuestamente nadando en la piscina de un hotel en Jamaica, una escena totalmente fabricada. Otro video afirma mostrar el aeropuerto de Kingston en Jamaica completamente destruido por la tormenta, pero esto también es falso. Estos videos, junto con otros, han acumulado millones de vistas en plataformas como X, TikTok e Instagram, mezclándose con imágenes genuinas de locales y dificultando que los espectadores distingan la realidad de la ficción.\n\nMuchos de estos clips están ensamblados a partir de imágenes antiguas de desastres o completamente creados usando generadores de video con IA. Dana Morris Dixon, ministra de educación de Jamaica, expresó preocupación por la proliferación de estos videos falsos en numerosos grupos de WhatsApp, instando al público a confiar en canales oficiales para obtener información precisa. Aunque la desinformación durante desastres naturales no es nueva, la llegada de herramientas avanzadas de IA ha facilitado más que nunca la creación de videos sintéticos altamente realistas, aumentando los desafíos para quienes intentan combatir las falsedades.\n\nPara evitar caer en estos deepfakes, se aconseja a los espectadores buscar marcas de agua que indiquen origen en IA, como los logotipos de herramientas como Sora, un generador de video con IA lanzado recientemente por OpenAI. Sin embargo, estas marcas de agua pueden ser eliminadas o difuminadas, por lo que las personas deben estar atentas a señales como pixelación, decoloración o áreas borrosas donde deberían estar las marcas. Examinar el video detenidamente puede revelar rarezas, como los tiburones con formas extrañas en el video de la piscina, o texto distorsionado y objetos mezclados, signos típicos de creación con IA. También hay que prestar atención a la marca, ya que la IA a menudo tiene dificultades para replicar logotipos exactos de empresas.\n\nLos expertos advierten que distinguir imágenes reales de deepfakes generados por IA será cada vez más difícil a medida que la tecnología avance. El huracán Melissa marca el primer gran desastre natural desde el lanzamiento de la última herramienta de generación de video de OpenAI, Sora, que ha reducido las barreras para que actores malintencionados produzcan videos falsos convincentes. Sofia Rubinson de NewsGuard señala que fallas como movimientos antinaturales o texto distorsionado son cada vez menos comunes, complicando la detección para los espectadores comunes.\n\nRespecto a los motivos detrás de estos deepfakes relacionados con crisis, el especialista en IA Henry Ajder sugiere que la mayoría están impulsados por la búsqueda de clics y participación más que por agendas políticas. Plataformas como X y YouTube recompensan económicamente a los usuarios según vistas y participación, por lo que los creadores pueden ganar sumas significativas con poco esfuerzo. Además del beneficio monetario, algunos creadores buscan aumentar su número de seguidores para promocionar productos o proyectos. Ajder aconseja a los espectadores considerar la fuente: las cuentas conocidas por contenido clickbait deben ser tratadas con escepticismo. Curiosamente, algunos creadores usan abiertamente la IA para experimentar con contenido llamativo en lugar de ocultar sus técnicas.\n\nEl origen del video de la piscina con tiburones sigue sin estar claro, aunque una versión encontrada en Instagram lleva una marca de agua que lo vincula a Yulian_Studios, una cuenta de TikTok de la República Dominicana especializada en efectos visuales con IA. Aunque esa cuenta no muestra el video de los tiburones en su página, presenta otros clips generados por IA relacionados con el huracán. \n\nEn última instancia, confiar en tus instintos y el contexto es clave. Si un video parece exagerado o fuera de lugar, es prudente sospechar un deepfake. Incluso el audio se está volviendo más realista, con voces sintéticas que imitan la cadencia natural. Plataformas como X ofrecen notas comunitarias que señalan contenido sospechoso; por ejemplo, una nota comunitaria en el video de la piscina con tiburones indica claramente que es desinformación generada por IA. Lo más importante es siempre verificar la información con fuentes oficiales como el gobierno jamaicano o el Centro Nacional de Huracanes, en lugar de confiar en publicaciones aleatorias en redes sociales.