International
Maschinen, die in den Krieg geschickt werden und selbst
Ziele wählen und töten – Fortschritt oder Horrorvorstellung? Was wie
ein Science-Fiction-Film klingt, ist längst in der Entwicklung.
- "Tödliche autonomen Waffen" sind gemeint, auch Killerroboter genannt. Das können schießende Roboter sein, tödliche Drohnen, unbemannte U-Boote.
- Sie werden im Kampfeinsatz nicht von Menschen dirigiert, sondern entscheiden autonom, was ein legitimes Ziel ist und feuern tödliche Salven ab.
Das steckt hinter den "tödlichen autonomen Waffen":
Autonome Waffen werden durch die rasante Entwicklung Künstlicher Intelligenz möglich. Computer lernen anhand von eingefütterten Daten, wie ein Ziel aussieht, wie es sich bewegt, wann es angegriffen werden soll und zünden, ohne, dass ein Mensch an der Entscheidung noch beteiligt ist. Zu unterscheiden ist das von automatischen Waffen, etwa Patriot-Raketen. Die schießen zwar automatisch, aber das Ziel muss vorher von Menschen genau einprogrammiert werden. "Es gibt eine Grauzone zwischen automatischen und autonomen Waffen", sagt Michael Biontino, bis vor Kurzem deutscher Abrüstungsbotschafter in Genf. "Autonome Waffen machen die Zielerkennung selbst, sie haben keine Zielbibliothek gespeichert."
Muss das nicht verboten werden? Darum ringen ab
Montag (27. August) wieder Diplomaten aus Dutzenden Ländern in Genf.
Wie gefährlich sind die Maschinen tatsächlich?
"Man sollte die Sache nicht dramatisieren", wiegelte der Vorsitzende
der Beratungen, der indische Botschafter Amandeep Gill, im Frühjahr
ab. "Roboter werden nicht die Welt übernehmen."
Aber Kritiker sind
höchst alarmiert. "Waffen können nicht zwischen Freund und Feind
unterscheiden und gehören auf den völkerrechtlichen Prüfstand", sagt
Thomas Küchenmeister von der deutschen Organisation Facing Finance,
Mitglied der internationalen Kampagne gegen Killerroboter ("Campaign
to Stop Killer Robots"). Eine Entscheidung, Menschenleben
auszulöschen, dürfe niemals einer Maschine überlassen werden.
Wer besitzt die "Killerroboter" bereits?
Es besteht kaum Zweifel, dass die USA, Russland, China, Israel,
Südkorea und Großbritannien an solchen Systemen arbeiten. Sie
existierten schon, sagt Neil Davison vom Internationalen Komitee vom
Roten Kreuz (IKRK). Es wacht über die Einhaltung des humanitären
Völkerrechts, die weltweit anerkannten Genfer Konventionen, und ist
besorgt über die Entwicklung. "Angriffe sind streng auf militärische
Ziele zu beschränken", heißt es in den Genfer Konventionen etwa.
Können Maschinen das entscheiden? "Menschen müssen genügend Kontrolle
behalten, um legale Entscheidungen zu treffen", sagt Davison.
Worüber diskutieren die Diplomaten genau?
Die Waffen der neuen Art werfen Unmengen Fragen auf:
- Können sie erkennen, ob ein Feind sich etwa gerade ergeben will oder verletzt ist?
- Ob die erkannte Person zwar eine Waffe hat, aber nicht Soldat sondern Jäger ist?
- Ob der erkannte Soldat womöglich ein Kamerad der eigenen Seite ist?
- Wer kann für Verbrechen mit Waffen, die kein Mensch mehr kontrolliert, zur Verantwortung gezogen werden?
Ein ARD-Beitrag zu Killerrobotern:
Wie ist die deutsche Position?
"Die Linie der Bundesrepublik ist klar: für uns kann die Entscheidung
über Leben und Tod nicht einer Maschine übertragen werden", sagte
Biontino im Frühjahr. Es steht sogar im Koalitionsvertrag: "Autonome
Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen
wir ab. Wir wollen sie weltweit ächten." Gemeinsam mit Frankreich hat
Deutschland einen Verhaltenskodex vorgeschlagen, wonach alle heutigen
und künftigen Waffensystem menschlicher Kontrolle unterliegen müssen.
Das sei ein zahnloser Tiger, sagt aber "Campaign to Stop Killer Robots"-Sprecher Küchenmeister. "Ein
Verhaltenskodex ist nicht völkerrechtlich verbindlich."
Die Kampagne
gegen Killerroboter verlangt einen verbindlichen Vertrag. Aber viele
Länder wollen sich in ihrer Waffenentwicklung nicht einschränken
lassen. Sie legen bei den Verhandlungen keine Eile an den Tag.
"Dieses Zeitspiel ist hochriskant, wenn man sieht, welcher Grad an Autonomie schon erreicht worden ist"
Thomas Küchenmeister von der deutschen Organisation Facing Finance, Mitglied der internationalen Kampagne gegen Killerroboter.
Mehr als 2000 Wissenschaftler, die mit künstlicher Intelligenz
arbeiten, haben solche Waffen verurteilt. "Es gibt eine moralische
Komponente", schrieben sie in einem Appell. "Wir dürfen Maschinen
keine Entscheidung über Leben und Tod überlassen, für die andere -
oder niemand - strafbar gemacht werden."
Sie versprechen, niemals an
der Entwicklung oder Herstellung von solchen Waffen mitzuhelfen und
fordern Technologiefirmen auf, es ihnen gleich zu tun.
(pb/dpa)
Spotify Wrapped zeigt schon ein wenig, welche Phasen man in einem Jahr durchlaufen hat. Kein Wunder, dass sich viele darüber definieren und das Bedürfnis verspüren, ihr Wrapped mit der Welt zu teilen. Immerhin gibt es – ohne wirklich Privates preiszugeben – einen doch irgendwie intimen Einblick in den eigenen Kopf, zumindest manchmal.