Künstliche Intelligenz findet in allen Lebensbereichen Anwendung – auch im Krieg.Bild: imago images / panthermedia
Interview
Künstliche Intelligenz im Krieg – worüber reden wir hier? Terminatoren und Drohnen, die Ziele suchen und eliminieren? Eher nicht. Auch, wenn vieles möglich wäre: Die Diskussion dreht sich um eine Frage, meint der Militärexperte Frank Sauer im Interview: Wer – oder was – drückt auf den Auslöser?
Herr Sauer, im Zusammenhang mit dem Krieg in der Ukraine sprechen wir häufig über die zukünftige Kriegsführung.
Wobei vieles in diesem Krieg eher archaisch ist.
Wie meinen Sie das?
Man darf nicht alles über einen Kamm scheren, aber diese Artillerie-Gefechte, die ein bisschen wie der Erste Weltkrieg anmuten, waren für viele Beobachter überraschend. Das meine ich mit archaisch: Die Gleichzeitigkeit von 100 Jahre altem Vorgehen mit 70 Jahre altem Kriegsgerät und softwaregestützter Hightech-Kriegsführung, bei der in Sekunden Ziele erfasst und bekämpft werden.
Frank Sauer lehrt an der Universität der Bundeswehr in München, unter anderem zur Nutzung von Robotik und KI im Militär.Bild: Frank Sauer
Nun ist die Kriegsführung technologisch viel weiter als der reine Artillerie-Beschuss. Wo findet KI ihre Anwendung?
Überall – zumindest potenziell. Etwa in der Logistik: Sie sind im Gefecht und Ihrem Trupp mit dem Maschinengewehr geht die Munition aus. Und das Maschinengewehr sagt dem System: "Ich habe nur noch 300 Schuss." Dann schwebt aus der Operationsbasis schon die Drohne mit dem Munitionskasten und wirft Ihnen das Ding zu. Das wird so noch nicht angewendet, aber das ist eine Vorstellung davon, wie man die militärische Logistik wie ein Walmart-System aufziehen könnte: Alles kommuniziert mit allem. Wir können alles zu jedem Zeitpunkt dahin bringen, wo es benötigt wird. Ein Amazon-Warehouse.
Welche Anwendungsbereiche gibt es noch?
Da wären auch noch die Wartungsthematik und vor allem die Aufklärung. Angefangen bei Punkten wie Sensordatenfusion, Erstellen von Lagebildern, Mustererkennung. Es lassen sich etwa mit Synthetic Aperture Radar Landstriche aus dem Orbit tagelang beobachten und über automatisierte Bilderkennungsverfahren dann Veränderungen sehr anschaulich darstellen.
Und was ist mit dem Kampf?
Da wären wir dann bei der Zielauswahl und -bekämpfung. Aber auch das ist Bilderkennung und Sensordatenfusion – gespickt mit der Frage nach der Datenaufbereitung: Was zeigt die Maschine wann dem menschlichen Operator?
Neu: dein Watson-Update
Jetzt nur auf Instagram: dein watson-Update!
Hier findest du unseren
Broadcast-Channel, in dem wir dich mit den watson-Highlights versorgen. Und zwar nur einmal pro Tag – kein Spam und kein Blabla, versprochen! Probiert es jetzt aus. Und folgt uns natürlich gerne
hier auch auf Instagram.
Es wird viel darüber diskutiert, inwieweit die Maschine Entscheidungen treffen darf ...
Wenn wir sehr fundamental herangehen, müssen wir die Frage stellen, ob die Maschine überhaupt entscheidet.
Inwiefern?
Das ist eine philosophische Diskussion: Welche Merkmale müssen erfüllt sein, damit etwas – oder jemand – als ein Subjekt gelten kann, das entscheidet? Wenn wir an bestimmte Einschränkungen kognitiver Prozesse denken, dann kann man natürlich die Frage stellen, ob diese bei uns Menschen immer und überall gegeben sind. Aber vom konkreten Einzelfall mal abgesehen, würden wir Menschen grundsätzlich doch für uns in Anspruch nehmen, Autonomie im kantschen Sinne zu haben – also freie, selbstbestimmter Entscheidungen zu treffen.
Und wie sieht es mit den Maschinen aus?
Das ist die Frage. Natürlich nutzen wir den Begriff der Entscheidung tagtäglich, wenn wir über Maschinen sprechen. Aber entscheiden die wirklich so, wie wir entscheiden? Ich würde sagen: zumindest bislang noch nicht.
Weil KI keine moralischen Diskussionen führen kann? Wer darf leben und wer muss sterben?
Das ist der springende Punkt. Die Frage ist nicht so akademisch, wie sie im ersten Moment klingt, weil sie ethische und völkerrechtliche Ableitungen bedingt. Wenn eine Maschine entscheiden soll, bin ich ruckzuck bei der Position vom Internationalen Komitee vom Roten Kreuz, die sagt: Das Kriegsvölkerrecht richtet sich an menschliche Entscheider. Die Vorstellung, dass sich dieses Regelwerk in eine Maschine überführen lässt und der Mensch damit die Entscheidung delegieren kann, ist kategorial falsch.
Rein hypothetisch: Was wäre, wenn die Kriege der Zukunft ohne Menschen geführt würden? Straßenkämpfe, Schützengräben – ohne eine:n einzige:n Soldat:in zu opfern?
Das wäre gut. Aber nur solange, bis eine Seite all ihre Roboter verbraucht hat. Und dann werden die Roboter der Gegenseite anfangen, die Menschen abzuschlachten.
Das aus Deutschland stammende Iris-T-Raketenabwehrsystem steckt voller Hochleistungstechnologien.Bild: Deutsche Presse-Agentur GmbH / J
Warum?
Weil wir Menschen Krieg führen. Der Beef ist zwischen uns und nicht den Maschinen. Krieg ist Politik. Es ist ein politischer Konflikt, der mit Mitteln systematischer Gewaltausübung ausgetragen wird. Die Vorstellung, dass ich den blut- und leidfrei machen könnte, in dem ich ihn maschinisiere, ist naiv.
Werden bereits funktionierende KI-Waffen zurückgehalten?
Natürlich gibt es Waffen, die schon mehr könnten, als sie am Ende wirklich tun. Die US-amerikanische Drohne "Switchblade" zum Beispiel. Auch diverse israelische Systeme, etwa kleine Quadrokopter, die ich durch Räume fliegen lassen kann. Die machen alle eine Zielerkennung. Die haben aber, glaubt man den Herstellern, immer noch einen Feedback-Loop eingebaut. Also Zielauswahl und Bekämpfung werden in einer Mensch-Maschine-Interaktion gemacht.
Wie kann ich mir das vorstellen?
Wenn man die Werbefilme schaut, die diese Waffensysteme anbieten, sieht es so aus: Die Systeme fliegen in ein Haus, es gibt Bösewichte und in der Ecke kauert eine Familie. Die Maschine führt die Zielauswahl durch und markiert „die Bösen“. Der Mensch wählt aus, wer eliminiert werden soll. Die Bösewichte sterben. Die Familie ist gerettet. Werbefilme eben.
"Bildererkennungsverfahren haben mit Kausalzusammenhängen Probleme."
Braucht man den Menschen dann noch?
Nein, technisch gesehen nicht. Natürlich könnte die Maschine den Rest auch allein machen. Aber, ob das zuverlässig und völkerrechtskonform funktioniert, das ist extrem fraglich. Wir müssen also schauen, was wir vom technisch Möglichen machen wollen. Und das auf Grundlage von Fragen der Ethik, der Völkerrechtskonformität und auch schlichtweg: Haben wir unsere Waffensysteme ausreichend unter Kontrolle?
Sie meinen: Greifen unsere Waffen irgendwann uns an?
Auch. Kennen Sie den Kurzfilm "Slaughterbots"? Darin wird so eine Dystopie durchgespielt: Terroristen kaufen Schwärme aus kleinen Drohnen, die schwirren herum, fliegen den Leuten gegen die Stirn, haben eine kleine Sprengladung an Board. Peng. Tot.
Technisch möglich ...
Richtig. Man hat es aber noch nicht gemacht – und zwar aus vielen Gründen. Selbst Vertreter der Industrie sagen: "Wir können das bauen, doch wir bauen es nicht, weil wir es nicht für richtig halten – und auch weil es nicht nachgefragt wird." Denn auch Militärs wollen neue Waffensysteme völkerrechtskonform implementieren und verantwortungsbewusst nutzen – zumindest die der Nato-Partner. Und zurzeit ist das noch Forschung und Entwicklung.
Auch, weil Täuschungsmanöver nicht leicht erkannt werden. Nehmen wir die Wagner-Söldner, die ukrainische Uniformen trugen ...
Genau. Eine solche Entscheidung zu treffen, ist für Menschen schon schwierig, und wir sind darin sehr gut. Wir haben Millionen Jahre Evolution in unsere Hirne investiert, um genau das zu optimieren. Ich erkenne nach ein paar Sekunden, selbst wenn sie diese andere Uniform tragen, dass sie sich merkwürdig verhalten, dass sie mich täuschen. KI-Bildererkennungsverfahren haben hingegen schon mit einfachsten Kausalzusammenhängen Probleme.
Nun haben wir über aktiven Krieg gesprochen. Aber was ist mit der Nachsorge? Wer schon mal in einem Kampfgebiet war, weiß, dass man auch Jahre nach Kriegsende nicht im Wald spazieren sollte. Stichwort Minensäuberung ...
Es gibt dafür tatsächlich bereits Drohnen. Allerdings geht das noch in die Richtung Hobbyprojekt. Ein Hexacopter fliegt das Feld ab und markiert oder sprengt die im Boden liegenden Minen.
Wir sprechen also nicht nur von KI, die ihre Anwendung im Kriegsgeschehen hat – sondern auch dabei hilft, das Kriegsgeschehen zu beseitigen.
Richtig. Aktuell werden aber noch immer Hunde oder auch Ratten und Bienen für die Minensuche eingesetzt. Aber man kann ja auch mal die positive Anwendung von Künstlicher Intelligenz in den Vordergrund rücken.