Als die ersten Videos von OpenAIs Video-KI Sora erschienen, war klar, dass demnächst - früher als erwartet - massenhaft täuschend echt aussehende Filme von KIs generiert werden können, zusätzlich zu den jetzt schon kursierenden DeepFakes, die leichter zu produzieren sind.
Schon jetzt stolpert man gelegentlich über Videos, bei denen sich die Frage stellt, ist das echt oder gefälscht? Zwar gibt es - noch - einige Merkmale an denen man mit bloßem Auge erkennen kann, ob ein Video "fake" ist, aber das wird in Zukunft angesichts des stetigen Fortschritts von Video-KIs immer schwieriger werden. Zudem hat nicht jeder Betrachter das für eine Erkennung von Video-KIs notwendige Wissen. Eine vollautomatische und zuverlässige Erkennung - am besten gleich in den sozialen Netzwerken interiert - wäre also ideal.

Bisher haben sich Algorithmen zur Erkennung von KI-Videos allerdings schwer getan und keine zuverlässigen Resultate erzielt. Warum? Weil sie Methoden einsetzten, die eigentlich zur Erkennung von KI-generierten Bildern entwickelt worden waren. Doch die einzelnen Frames von KI-erstellten Videos weisen ganz andere typische Merkmale auf, als die Bilder von Bild-KIs wie etwa Stable Diffusion, DALLE3 oder Midjourney. Forscher der Drexel University in Philadelphia schlagen jetzt eine verbesserte Methode vor, um solche Videos sicherer als bisher identifizieren zu können.
OpenAI’s new Text to video model “Sora” just announced pic.twitter.com/fvhcwxc6qb
— AI Breakfast (@AiBreakfast) February 15, 2024
// Top-News auf einen Blick:
- Blackmagic DaVinci Resolve 20 Beta 2 bringt neue Funktionen und Bugfixes
- Blackmagic Camera for Android 2.1 bringt neue Features
- Neuer superschneller PoX Flash-Speicher könnte DRAM und SSDs ersetzen
- Achtung: Verpixelte Videos können wieder kenntlich gemacht werden
- KI-generierte Fake-Trailer: Wie Hollywood an der Irreführung der Zuschauer ...
- Beleuchtung für Foto und Video lernen mit kostenlosem Tool von Google
Interessant ist auch die Visualisierung der Eigenheiten der verschiedenen Bild-/Video-KIs, indem deren charakteristische Rauschmuster extrahiert werden - diese variieren teils erheblich von KI zu KI, was sich nutzen läßt, um die betreffenden KIs zu identifizieren. Anhand der Rauschmuster kann auch eingeschätzt werden, wie ähnlich die unterschiedlichen Video-KIs in ihrer grundsätzlichen Stuktur sind - im folgenden Bild ist gut zu sehen, dass Pika (über dessen Algorithmus wenig bekannt ist) offensichtlich ein anderes Verfahren nutzt als z.B. Sora. Und dass Video-KIs generell andere Muster erzeugen als Bild-KIs.

Die Ergebnisse der Studie sind hoffnungsvoll: mit der vorgeschlagenen Methode lassen sich jetzt - und auch in nächster Zukunft - ziemlich zuverlässig von KIs generierte Videos erkennen. Es liegt allerdings in der Natur der Sache, daß diese Erkenntnisse auch dazu verwendet werden können, die typischen Merkmale von KI-Videos nachträglich zu verschleiern, um deren Entarnung zu vernhindern.