Inhalt
Als Hurrikan Melissa kürzlich durch die Karibik zog, überschwemmte eine Welle irreführender KI-generierter Videos die sozialen Medien und sorgte für Verwirrung und Fehlinformationen. Ein besonders viraler Clip zeigt angeblich vier Haie, die im Pool eines Hotels in Jamaika schwimmen, eine Szene, die völlig erfunden ist. Ein weiteres Video behauptet, den Flughafen Kingston in Jamaika zu zeigen, der durch den Sturm völlig zerstört wurde, was ebenfalls falsch ist. Diese Videos, zusammen mit anderen, haben Millionen von Aufrufen auf Plattformen wie X, TikTok und Instagram gesammelt, vermischen sich mit echten Aufnahmen von Einheimischen und machen es den Zuschauern schwer, Fakt von Fiktion zu unterscheiden.\n\nViele dieser Clips sind entweder aus altem Katastrophenmaterial zusammengeschnitten oder vollständig mit KI-Video-Generatoren erstellt. Dana Morris Dixon, Jamaikas Bildungsministerin, äußerte Besorgnis über die Verbreitung solcher gefälschten Videos in zahlreichen WhatsApp-Gruppen und rief die Öffentlichkeit dazu auf, sich auf offizielle Kanäle für genaue Informationen zu verlassen. Während Fehlinformationen bei Naturkatastrophen nichts Neues sind, hat die Einführung fortschrittlicher KI-Tools es einfacher denn je gemacht, hochrealistische synthetische Videos zu erstellen, was die Herausforderungen für diejenigen erhöht, die Falschinformationen bekämpfen wollen.\n\nUm nicht auf diese Deepfakes hereinzufallen, wird den Zuschauern geraten, nach Wasserzeichen zu suchen, die auf KI-Herkunft hinweisen, wie Logos von Tools wie Sora, einem kürzlich von OpenAI gestarteten KI-Video-Generator. Diese Wasserzeichen können jedoch entfernt oder verwischt werden, daher sollten Menschen auf Anzeichen wie Pixelierung, Verfärbungen oder verschwommene Bereiche achten, wo Wasserzeichen sein sollten. Eine genaue Prüfung des Videos kann Unstimmigkeiten aufdecken – wie die seltsam geformten Haie im Pool-Video – oder verzerrten Text und vermischte Objekte, typische Anzeichen für KI-Erstellung. Auch auf Markenlogos sollte geachtet werden, da KI oft Schwierigkeiten hat, exakte Firmenlogos zu reproduzieren.\n\nExperten warnen, dass es mit fortschreitender Technologie immer schwieriger wird, echte Aufnahmen von KI-Deepfakes zu unterscheiden. Hurrikan Melissa ist die erste große Naturkatastrophe seit der Einführung von OpenAIs neuestem Video-Generierungstool Sora, das es schlechten Akteuren erleichtert, überzeugende Fake-Videos zu produzieren. Sofia Rubinson von NewsGuard weist darauf hin, dass Fehler wie unnatürliche Bewegungen oder verzerrter Text seltener werden, was die Erkennung für normale Zuschauer erschwert.\n\nBezüglich der Motive hinter diesen krisenbezogenen Deepfakes vermutet KI-Spezialist Henry Ajder, dass die meisten durch Klicks und Engagement getrieben sind und nicht durch politische Agenden. Plattformen wie X und YouTube belohnen Nutzer finanziell basierend auf Aufrufen und Engagement, sodass Ersteller mit minimalem Aufwand beträchtliche Summen verdienen können. Neben dem finanziellen Gewinn wollen einige Ersteller ihre Followerzahlen erhöhen, um Produkte oder Projekte zu bewerben. Ajder rät Zuschauern, die Quelle zu berücksichtigen: Konten, die für Clickbait bekannt sind, sollten skeptisch betrachtet werden. Interessanterweise nutzen einige Ersteller KI offen, um mit aufmerksamkeitsstarken Inhalten zu experimentieren, anstatt ihre Techniken zu verbergen.\n\nDer Ursprung des Hai-Pool-Videos ist unklar, obwohl eine Version auf Instagram ein Wasserzeichen trägt, das auf Yulian_Studios verweist, ein TikTok-Konto aus der Dominikanischen Republik, das sich auf KI-Visuelleffekte spezialisiert hat. Obwohl dieses Konto das Hai-Video nicht auf seiner Seite zeigt, enthält es andere KI-generierte Clips im Zusammenhang mit dem Hurrikan.\n\nLetztlich ist es wichtig, auf Instinkte und Kontext zu vertrauen. Wenn ein Video übertrieben oder untypisch erscheint, ist es klug, einen Deepfake zu vermuten. Auch Audio wird immer realistischer, mit synthetischen Stimmen, die natürliche Sprachmelodie nachahmen. Plattformen wie X bieten Community-Notizen, die verdächtige Inhalte kennzeichnen; zum Beispiel weist eine Community-Notiz zum Hai-Pool-Video klar darauf hin, dass es sich um KI-generierte Fehlinformation handelt. Am wichtigsten ist es, Informationen immer mit offiziellen Quellen wie der jamaikanischen Regierung oder dem National Hurricane Center zu überprüfen, anstatt sich auf zufällige Social-Media-Beiträge zu verlassen.