Politik
International

Israel-Iran-Krieg: Wie KI und Social Media die Wahrheit verzerren

Achtung: Diese Aufnahme ist aus einem KI-generierten Clip.
Achtung: Diese Aufnahme ist aus einem KI-generierten Clip.Bild: Screenshot X
International

Israel-Iran-Krieg: Wie KI und Social Media die Wahrheit verzerren

Auf Social Media verbreiten sich vermehrt Kriegs-Aufnahmen. Doch viele davon sind gefälscht, berichtet ein Experte. Am Israel-Iran-Krieg lässt sich dieses Problem gut beobachten.
19.06.2025, 11:1919.06.2025, 11:19
Mehr «Politik»

Kriege und Konflikte haben in den vergangenen Jahren zugenommen. Doch durch Social Media und Künstliche Intelligenz haben sie sich auch verändert – das kann man auch am Israel-Iran-Krieg beobachten.

Durch Social Media ist der Zugang für die breite Bevölkerung zu Kriegsaufnahmen deutlich einfacher geworden. Das Problem: KI ermöglicht die Generierung von Fälschungen. Und die werden nicht nur von privaten User:innen verbreitet, sondern auch von den Staatschefs.

KI im Krieg: Neue Tools ermöglichen realistische Täuschungen

Hany Farid, Professor an der UC Berkeley und Gründer des Unternehmens GetReal, das sich die Erkennung von KI-gestützten Täuschungen zur Aufgabe gemacht hat, berichtete kürzlich in einem Post auf Linkedin, dass GetReal auf Social Media zahlreiche gefälschte Videos zum Israel-Iran-Krieg finden konnte.

Die zu erkennen, ist offenbar gar nicht so einfach. Visuell seien die Videos überzeugend, schreibt Farid. Möglich machen das neue Tools wie Google Veo 3. Die Expert:innen konnten laut Farid feststellen, dass jedes der Videos mit diesem Programm erstellt wurde.

Ein auf Social Media geteilter Clip zeigt etwa eine Rakete, die einen langen Betonflur entlangfährt – in der Ecke lässt sich noch das Logo von Veo erkennen.

Es gibt noch explizitere Kriegsvideos. So teilte etwa die "Tehran Times" auf X eine Aufnahme von zerstörten Häusern mit der Überschrift "Weltuntergang in Tel Aviv". Auch dieses Video ist gefälscht.

Experte: Wahrheit im Krieg durch KI immer schwieriger zu finden

"Es ist keine Überraschung, dass generative KI-Tools, die immer fotorealistischer werden, zur Verbreitung von Fehlinformationen missbraucht werden und Verwirrung stiften", schreibt Farid auf Linkedin.

Doch im Israel-Iran-Krieg scheint die Verbreitung von KI-Videos ein besonderes Problem zu sein. "Das Opfer in diesem KI-Krieg ist die Wahrheit", fasst Farid gegenüber "404 Media" die Situation zusammen.

Getrübt durch den "KI-Mist" könne nun jede Seite "behaupten, dass alle anderen Videos, die zum Beispiel einen erfolgreichen Angriff oder Menschenrechtsverletzungen zeigen, gefälscht sind", sagt er, und weiter:

"Die Wahrheit in Konfliktsituationen zu finden, war schon immer schwierig, und im Zeitalter der KI und der sozialen Medien ist es jetzt noch schwieriger."

Der Experte hat jedoch ein paar Tipps, wie auch Außenstehende eine mögliche Fälschung erkennen können. Bei KI-Aufnahmen handele es sich in der Regel um Aufnahmen ohne Blut, denn solche würden von KI und Social Media eher gesperrt.

Auf Linkedin weist er außerdem auf eine Eigenheit des Programms Veo hin: Die momentane Höchstlänge, die es für eine kontinuierliche Aufnahme erzeugen kann, liegt bei acht Sekunden. Wenn Videos also genau acht Sekunden lang sind oder aus kurzen (acht Sekunden oder kürzer) zusammengesetzten Clips bestehen, ist es zwar noch kein Beweis, kann aber ein Hinweis auf KI-Generierung sein.

Sabotageakt der Ukraine sorgt in Russland für Millionenschaden
In der russischen Exklave Kaliningrad hat ein Sabotageeinsatz ukrainischer Agenten für einen massiven Stromausfall gesorgt. Getroffen wurden militärische Einrichtungen. Es zeigt sich: Der Krieg in der Ukraine wird zunehmend im Verborgenen geführt

Der Krieg in der Ukraine wird nicht nur an Frontlinien geführt. Längst hat sich eine zweite Front geöffnet, abseits der Schützengräben. Sie verläuft durch Umspannwerke, über Eisenbahngleise und Flugfelder, durch Kommandozentralen und Versorgungsketten. Sie richtet sich nicht auf Geländegewinn, sondern auf gezielte Nadelstiche.

Zur Story