Conteúdo
À medida que o Furacão Melissa varreu recentemente o Caribe, uma onda de vídeos enganosos gerados por IA inundou as plataformas de redes sociais, criando confusão e desinformação. Um clipe particularmente viral mostra quatro tubarões supostamente a nadar na piscina de um hotel na Jamaica, uma cena totalmente fabricada. Outro vídeo afirma mostrar o aeroporto de Kingston, na Jamaica, completamente destruído pela tempestade, mas isso também é falso. Estes vídeos, juntamente com outros, acumularam milhões de visualizações em plataformas como X, TikTok e Instagram, misturando-se com filmagens genuínas de locais e tornando difícil para os espectadores discernir o que é verdade e o que é ficção.\n\nMuitos destes clipes são ou montagens de filmagens antigas de desastres ou totalmente criados usando geradores de vídeo por IA. Dana Morris Dixon, ministra da educação da Jamaica, expressou preocupação com a proliferação destes vídeos falsos em numerosos grupos do WhatsApp, instando o público a confiar em canais oficiais para obter informações precisas. Embora a desinformação durante desastres naturais não seja nova, o advento de ferramentas avançadas de IA tornou mais fácil do que nunca criar vídeos sintéticos altamente realistas, aumentando os desafios para quem tenta combater falsidades.\n\nPara evitar cair nestes deepfakes, aconselha-se aos espectadores que verifiquem marcas de água que indiquem origem em IA, como logótipos de ferramentas como Sora, um gerador de vídeo por IA lançado recentemente pela OpenAI. No entanto, estas marcas de água podem ser removidas ou desfocadas, por isso as pessoas devem estar atentas a sinais como pixelização, descoloração ou áreas desfocadas onde as marcas de água deveriam estar. Analisar o vídeo cuidadosamente pode revelar anomalias — como os tubarões com formas estranhas no vídeo da piscina — ou texto confuso e objetos misturados, sinais típicos de criação por IA. Além disso, preste atenção à marca, pois a IA frequentemente tem dificuldade em replicar logótipos exatos de empresas.\n\nEspecialistas alertam que distinguir filmagens reais de deepfakes por IA será cada vez mais difícil à medida que a tecnologia avança. O Furacão Melissa marca o primeiro grande desastre natural desde o lançamento da mais recente ferramenta de geração de vídeo da OpenAI, Sora, que reduziu as barreiras para que agentes mal-intencionados produzam vídeos falsos convincentes. Sofia Rubinson, da NewsGuard, aponta que falhas como movimentos não naturais ou texto distorcido estão a tornar-se menos comuns, complicando a deteção para espectadores comuns.\n\nQuanto aos motivos por trás destes deepfakes relacionados com crises, o especialista em IA Henry Ajder sugere que a maioria é motivada pela busca de cliques e envolvimento, em vez de agendas políticas. Plataformas como X e YouTube recompensam financeiramente os utilizadores com base nas visualizações e no envolvimento, pelo que os criadores podem ganhar somas significativas com esforço mínimo. Além do ganho monetário, alguns criadores procuram aumentar o número de seguidores para promover produtos ou projetos. Ajder aconselha os espectadores a considerar a fonte: contas conhecidas por conteúdo clickbait devem ser tratadas com ceticismo. Curiosamente, alguns criadores usam abertamente IA para experimentar conteúdos que chamem a atenção, em vez de esconder as suas técnicas.\n\nA origem do vídeo dos tubarões na piscina permanece incerta, embora uma versão encontrada no Instagram tenha uma marca de água que a liga à Yulian_Studios, uma conta TikTok da República Dominicana especializada em efeitos visuais por IA. Embora essa conta não mostre o vídeo dos tubarões na sua página, apresenta outros clipes gerados por IA relacionados com o furacão.\n\nEm última análise, confiar nos seus instintos e no contexto é fundamental. Se um vídeo parecer exagerado ou fora do normal, é sensato suspeitar de um deepfake. Até o áudio está a tornar-se mais realista, com vozes sintéticas que correspondem à cadência natural. Plataformas como X oferecem notas comunitárias que assinalam conteúdos suspeitos; por exemplo, uma nota comunitária no vídeo dos tubarões na piscina afirma claramente que é desinformação gerada por IA. O mais importante é sempre verificar a informação com fontes oficiais, como o governo jamaicano ou o Centro Nacional de Furacões, em vez de confiar em publicações aleatórias nas redes sociais.