KI in der Kriegsführung Roboter für den Kampfeinsatz

Technischer Fortschritt macht den Bau autonomer Waffen möglich, die selbstständig über Leben und Tod entscheiden. Aber dürfen Maschinen solche Entscheidungen treffen? Menschenrechtler fordern Verbote für solche Kampfsysteme. Doch die Aussichten dafür sind schlecht.

Unbemannte Flugzeuge, die den Feind automatisch erkennen und bekämpfen. Intelligente Minenfelder, die sich selbstständig anordnen. Drohnenschwärme, die als winzige Agenten Ozeane nach feindlichen U-Booten absuchen oder per Gesichtserkennung Jagd auf Gegner machen. Bislang gehören solche Szenarien in das Reich der Science Fiction. Doch vollautonome Waffen könnten nach der Erfindung des Schießpulvers und dem Bau nuklearer Waffen die nächste Revolution in der Kriegsführung einläuten. Weil sie schnell und präzise sind und keine Gewissensbisse haben, könnten sie die Kriege der Zukunft entscheiden.

Bislang wird Künstliche Intelligenz (KI) für selbstfahrende Autos, Pflegeroboter und Sprachassistenten genutzt. Entscheidend ist sie aber auch für den Bau neuer Waffen, die selbstständig über Leben und Tod entscheiden. "Wenn diese Systeme ihre Ziele ohne menschliches Zutun auswählen und angreifen, sprechen wir von vollautonomen Waffen", sagt Rüstungsexperte Frank Sauer. Dabei ist es wichtig, zwischen Automatisierung und Autonomie zu unterscheiden. Schon heute werden automatisierte Kriegsgeräte eingesetzt - auch bei der Bundeswehr. Das Bundesverteidigungsministerium gibt auf Nachfrage an, dass automatisierte Waffensysteme zum Schutz der eigenen Soldaten notwendig seien. Die Bedrohung sei teils schneller, als der Mensch entscheiden könne - etwa bei Raketen, die mit mehreren Tausend Stundenkilometern anfliegen.

Auch andernorts kommt KI bereits zum Einsatz. So baut Boeing für das US-Militär die Tarnkappendrohne MQ-25, die automatisch auf Flugzeugträgern starten und landen sowie Flugzeuge in der Luft betanken kann. Der französische Rüstungskonzern Nexter hat unlängst seinen unbemannten Raupenpanzer Optio vorgestellt. Und die Robotik-Firma Boston Dynamics hat mit Videos von hüpfenden, kletternden und tanzenden Kampfrobotern für Furore gesorgt.

Staaten wie die USA, China und Israel arbeiten bereits an vollautonomen Kriegswaffen, darunter eigenständig agierende Drohnen und intelligente Minen. Die Bundesregierung hat solchen Waffen in ihrem Koalitionsvertrag eine klare Absage erteilt und setzt sich für deren Ächtung ein. "Der Ansatz deutscher Diplomatie ist es, sich über einen Minimalansatz langsam weiter voranzutasten", so Sauer, "statt mit der großen Verbotskeule Verbotsgegner zu verprellen." Weil Roboter ohne ethische Bedenken töten, halten Menschenrechtsgruppen wie Human Rights Watch ein Verbot für dringend notwendig. Seit 2014 wird die Regulierung autonomer Waffen im UN-Rahmen diskutiert, doch auch die jüngste Konferenz Ende August in Genf im Rahmen der Kriegswaffenkonvention endete ohne ein konkretes Ergebnis.

Allen voran die USA argumentieren, dass autonome Waffen präziser seien und dadurch sogenannte Kollateralschäden vermieden würden. Schon im Golfkrieg 1991 setzten die US-Amerikaner präzisionsgelenkte Waffen ein, deren angeblich zielgenaue Einschläge weltweit auf Fernsehbildschirmen verfolgt wurden. Damals war ihr Anteil mit sieben Prozent noch vergleichsweise gering, der Großteil der abgeworfenen Bomben war ungelenkt. Doch bereits zwölf Jahre später machten sie im Irakkrieg 2003 bereits die Mehrheit aus.

Gleichzeitig macht auch die Entwicklung von Robotern Fortschritte, die im Katastrophenfall Menschenleben retten sollen, wie dieses Video zeigt:

Terroristen und Kriminelle könnten sich KI-Waffen zunutze machen

Möglich werden autonome Waffen, weil neuzeitliche Technologien miteinander verwoben werden. Dank GPS und moderner Sensoren können sich solche Maschinen auch in fremder Umgebung orientieren, große Datenmengen und maschinelles Lernen sorgen dafür, dass sie auf Unvorhersehbares reagieren, und mittels Gesichtserkennung lassen sich Freund und Feind unterscheiden. Die Anfänge dieser Entwicklung sieht der Bonner Medienwissenschaftler Christoph Ernst in der Digitalisierung des Militärs seit den 1990er Jahren. "Die netzwerkbasierte Kriegsführung ist ein Paradigma, das in dieser Zeit ausformuliert wurde", sagt er.

Häufig verzerre die mediale Darstellung von Killer-Robotern aber den Blick auf die Wirklichkeit: "Filme wie Terminator haben zu einem falschen Bild über autonome Waffen beigetragen." So könnten sich Maschinen zwar eine ihnen unbekannte Umwelt in begrenztem Maße erschließen, mit menschlicher Autonomie habe dies aber kaum etwas zu tun. Für Rechtswissenschaftler wirft dies die Frage auf, inwiefern Roboter als Rechtsobjekte gelten können und wer für Fehler und mögliche Kriegsverbrechen haftet.

Manchmal sind intelligente Waffen für das Auge gar unsichtbar. So gelang es dem Computerwurm Stuxnet, der im Juni 2010 entdeckt wurde, iranische Zentrifugen zur Urananreicherung so zu manipulieren, dass Bauteile mechanisch überlastet wurden. Erstmals hatte ein Schadprogramm damit in großem Ausmaß für die Zerstörung von militärischer Infrastruktur gesorgt. Zunehmend verschwimmen jedoch die Grenzen zwischen ziviler und militärischer Nutzung von KI. So kommen Sprachsteuerung, Gesichtserkennung und clevere KI sowohl Handynutzern als auch modernem Kriegsgerät zugute. Mehr als 2500 Wissenschaftler und 176 Organisationen hatten Mitte des Jahres als Reaktion darauf eine freiwillige Selbstverpflichtung unterzeichnet, die den Verzicht auf die Erforschung von KI-Waffen verspricht. Zu den Unterzeichnern gehören bekannte Namen wie Teslachef Elon Musk und das Unternehmen Google Deepmind. Einschlägige Rüstungskonzerne und IT-Firmen wie Googles Mutterkonzern Alphabet fehlen aber auf der Liste.

Auf staatlicher Ebene zeichnet sich indessen ein neuer Rüstungswettlauf ab. Fachleute wie Frank Sauer halten gar Auswirkungen auf das Gleichgewicht nuklearer Abschreckung für möglich, etwa wenn Unterwasserdrohnen die Ozeane nach U-Booten absuchen und so die Zweitschlagskapazität des Gegners neutralisieren. Doch auch kleine staatliche Akteure sowie Terroristen und Kriminelle könnten sich KI-Waffen zunutze machen. "Technologie, die hauptsächlich auf Software basiert, wäre irgendwann für jeden verfügbar", glaubt Christoph Ernst. "Autonome Waffen sind von führenden Wissenschaftlern nicht umsonst als Kalaschnikows der Zukunft bezeichnet worden - billig, schnell und leicht verfügbar."

Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort