Wie autonome Waffen das Schlachtfeld verändern

Autonome Waffen und künstliche Intelligenz verändern die Kriegsführung. Werden bald nur noch Maschinen über Leben und Tod entscheiden?

Der bewaffnete Roboterhund Bars mit einem feuernden Scharfschützengewehr auf dem Rücken. Das Bild illustriert einen Beitrag über autonome Waffen.
Der bewaffnete Roboterhund Bars, entwickelt von der türkischen Verteidigungs­industrie – Quad Robotics und Savhatek –, demonstrierte beim internationalen Scharfschützenwettbewerb in Izmir 2024 hohe Präzision: Er traf Ziele auf 250 bis 600 Meter. © Getty Images
×

Auf den Punkt gebracht

  • Altes Prinzip. Vom Ersten Weltkrieg bis zum Irakkrieg 2003 blieben Infanteristen im Kern Sichtkämpfer.
  • Neue Lage. In der Ukraine greifen per Funk oder Kabel gesteuerte, teils KI‑gestützte Drohnen Ziele über mehr als 30 km an.
  • Computer entscheiden. Autonome Systeme beschleunigen die Kill Chain, riskieren aber Fehlabschüsse, unabsichtliche Eskalation sowie ethisch‑rechtliche Probleme.
  • Menschliche Mitsprache. Je unübersichtlicher der Kontext auf dem Schlachtfeld, desto näher sollte der Mensch an der Entscheidung bleiben.

Hätte man eine Zeitmaschine und sammelte jeweils einen Infanteristen aus den beiden Weltkriegen, dem Vietnam- und dem Irakkrieg 2003 ein, so wären die vier sich schnell einig, dass sie trotz der 90 Jahre Zeitdifferenz alle das gleiche Handwerk ausübten. Es ging – im Kern – um das Kämpfen auf Sicht.

Auf den Gefechtsfeldern der Ukraine hingegen sprengen moderne Soldaten, in Unterständen sitzend, über 30 Kilometer Entfernung gepanzerte Fahrzeuge und Gefechtsstände ebenso wie gegnerische Infanterie in die Luft. Unbemannte Waffensysteme – Drohnen – haben die Geometrie des Gefechtsfelds verändert. Sie werden per Funk ferngesteuert oder hängen an Kabeln, die eine störungsfreie Kommunikation zwischen Drohne und Kontrollstation ermöglichen. Hinzu tritt der Einsatz künstlicher Intelligenz (KI), Objekterkennungsverfahren helfen Drohnen bei der Zielerfassung. 

Eine per Glasfaserkabel ferngesteuerte Drohne in der Ukraine fliegt über ein schneebedecktes Feld. Das Bild illustriert einenBeitrag über autonome Waffen.
Testflug einer per Glasfaser gesteuerten First-Person-View‑Drohne (FPV): Die Verbindung macht sie immun gegen Störfunk und Funkortung. Das ukrainische Militär plant laut  ­einem Regierungssprecher, heuer bis zu fünf Millionen Drohnen anzuschaffen. © Getty Images

Mit Russlands Angriffskrieg dringt eine durch die intensiven Gefechte beschleunigte Entwicklung ins allgemeine Bewusstsein, die in Fachkreisen schon seit über 20 Jahren ein Thema ist und die zu Beginn der 2010er-Jahre auch Diskussionsthema im Rahmen der Vereinten Nationen wurde. Es geht um „Autonomie in Waffensystemen“.

Das Prinzip

Autonomie bedeutet in diesem Zusammenhang, dass ein Waffensystem Funktionen ohne menschliches Zutun ausführt. Das kann zum Beispiel das Navigieren von einem Wegpunkt zum nächsten sein. Technisch ist das eine überschaubare Herausforderung, die den menschlichen Bediener entlastet und kaum nennenswerte Risiken aufwirft. Die Maschine übernimmt – aus militärischer Sicht – den ersten Schritt in der Kill Chain, also jenen Entscheidungszyklus, der mit dem Finden des Ziels beginnt. Die Kill Chain endet mit der Auswahl und der Bekämpfung des Ziels. Eben diese sogenannten „kritischen Funktionen“ am Ende der Kill Chain sind der Kern der Debatte: Ist ein Waffensystem in solchem Ausmaß autonom, dann bedeutet das, dass es ohne menschliches Zutun Ziele auswählen und bekämpfen kann. Genau hier wird es interessant – und äußerst brisant. 

Die Maschine übernimmt den ersten Schritt in der Kill Chain.

Waffensystemautonomie ist weder neu noch per se problematisch. Auch Luftverteidigungssysteme wie etwa das in den 1980er-Jahren entwickelte Patriot, das eine wichtige Schutzfunktion bietet und in der Ukraine regelmäßig Leben rettet, können Ziele selbständig auswählen und bekämpfen. Sie tun das zudem ohne Technologien, die wir heute KI nennen würden.

Die Chancen

Waffensystemautonomie bietet also die Chance auf besseren Schutz vor anfliegender Munition. Das liegt an der Beschleunigung der Kill Chain. Aber diese Beschleunigung von Abläufen bietet natürlich auch in der Offensive einen taktischen Vorteil. Denn ein Waffensystem, das alle Entscheidungsschritte bis zur Bekämpfung des Ziels eigenständig und in Maschinengeschwindigkeit durchläuft, wird stets schneller agieren als ein vom Menschen ferngesteuertes System – und so das Feuergefecht für sich entscheiden.

Eine zweite Chance liegt darin, dass Waffensysteme, die keine Kommunikationsverbindung mehr benötigen, immun gegen elektronische Kampfführung werden. Wo keine Funkverbindung besteht, kann auch keine gejammt, also unterbrochen werden. Die massive Störung des elektromagnetischen Spektrums ist auch der wesentliche Grund für die rasche Verbreitung von Autonomie in Waffensystemen in der Ukraine. Auf größeren Distanzen, die Drohnen mit Lichtleiterkabel nicht erreichen, übernimmt die KI-gestützte Objekterkennung den Zielanflug, um das Waffensystem trotz Störsendern auf den letzten Metern operationsfähig zu halten.

Dass mit Patriot und ähnlichen Luftverteidigungssystemen in der Vergangenheit tragische Vorkommnisse verbunden waren, weil diese automatisch eigene Flugzeuge beschossen, zeigt die Nachteile der Technologie. Die Autonomie von Waffensystemen birgt nicht nur Chancen, sondern auch sicherheitspolitische, ethische und völker-rechtliche Risiken.

Die Risiken

Neben der versehentlichen Bekämpfung eigener Kräfte droht durch die Beschleunigung der Abläufe eine nicht intendierte Eskalation. Von den Finanzmärkten sind die unvorhersehbaren Interaktionen zwischen Handelsalgorithmen bekannt, die bisweilen in sogenannte Flash Crashes münden. Äquivalent dazu ist ein maschinell ausgelöster Flash War ein reales Risiko, wenn die menschliche Verfügungsgewalt als Sicherungs- und Entschleunigungsinstanz entfällt und das Oprationstempo auf dem Schlachtfeld dem menschlichen Kontrollvermögen davongaloppiert.

Die chinesische Delegation bei den Vereinten Nationen in Genf beschrieb das vor einigen Jahren als „Schlachtfeldsingularität“ – also als jenen Punkt, ab dem die Prozesse auf dem Gefechtsfeld so schnell werden, dass kein Mensch sie mehr vorhersehen oder beeinflussen kann. Es sprechen folglich handfeste sicherheitspolitische Interessen dafür, die Waffensystemautonomie einzuhegen.

Die Gesellschaft, die mit dem Töten im Krieg ihr kollektives Gewissen nicht mehr belastet, riskiert die Aufgabe grundlegender zivilisatorischer Werte.

Zweitens droht eine Verletzung der Würde des Menschen, wenn Entscheidungen über Leben und Tod – über die reine Selbstverteidigung hinaus – an Maschinen delegiert werden. Das Töten im Krieg auszulagern und auf breiter Front automatisch „abarbeiten“ zu lassen, degradiert Menschen zu Objekten. Das gilt explizit auch für gegnerische Kämpfer, deren Tod unter Berücksichtigung kriegsvölkerrechtlicher Regeln bekanntlich herbeigeführt werden darf. Für die Getöteten mag es keinen Unterschied machen, ob ein Mensch oder ein Algorithmus den Abzug betätigt. Aber die Gesellschaft, die mit dem Töten im Krieg ihr kollektives Gewissen nicht mehr belastet, riskiert die Aufgabe grundlegender zivilisatorischer Werte und humanitärer Prinzipien. 

Die Lücken

Zuletzt droht eine Verantwortungslücke, wenn durch ein autonom Ziele bekämpfendes Waffensystem Zivilpersonen illegal Leid zugefügt wird. Das „maschinelle Sehen“ der Objekterkennung erkennt Muster wieder, versteht aber den Kontext auf dem Gefechtsfeld nicht. Streitkräfte, die – anders als die russische Armee in der Ukraine – auf die Einhaltung des humanitären Kriegsvölkerrechts Wert legen, entwickeln deswegen verantwortungsbewusste Anwendungsmodelle für Autonomie in Waffensystemen. 

Eben weil schon seit mehr als 20 Jahren eine Diskussion in Fachkreisen zur Nutzung von Waffensystemautonomie geführt wird, liegen Ideen auf dem Tisch, die es Streitkräften ermöglichen sollen, die Risiken zu meiden und zugleich die Chancen der Technologie zu nutzen. Im Zentrum steht dabei das Konzept der Meaningful Human Control (MHC).

×

Zahlen & Fakten

Um MHC zu gewährleisten, muss das Waffensystem dem Menschen Situationsbewusstsein, Urteile und Kontrolle erlauben. Das bedeutet konkret, dass der Mensch das Wirken der Waffe nach Aktivierung vorhersehen und sie bei Bedarf jederzeit administrieren können muss, sodass ihre Wirkung in ethischer und rechtlicher Hinsicht ihm zurechenbar ist. 

Das bedeutet keine Rückkehr zur Fernsteuerung. Ein Waffensystem kann durchaus autonom operieren, solange die oben genannten Kriterien erfüllt sind. Aber wann, wo, für wie lange, gegen welche Ziele und mit wie viel menschlicher Beteiligung – das ist situationsabhängig. 

In der Praxis nimmt die menschliche Kontrolle in Abhängigkeit vom militärischen Operationskontext demzufolge verschiedene Formen an. Das Mensch-Maschine-Verhältnis wird – und muss – im Falle einer Fregatte auf hoher See, die sich automatisch gegen anfliegende Hyperschall-Antischiffsraketen verteidigt, ein anderes sein als im Falle einer handtellergroßen Drohne, die von Infanterie im urbanen Gelände eingesetzt wird. 

Die Zukunft

Je unübersichtlicher der Kontext und je wahrscheinlicher, dass menschliches Leben auf dem Spiel steht, desto näher muss der Mensch an die Entscheidungsschleife heran oder in sie integriert werden. Nicht zuletzt die Notwendigkeit des Eigenschutzes macht es im Beispiel der Infanterie notwendig, Zielauswahl und Zielbekämpfung nicht der Maschine zu überlassen. Man möchte schließlich nicht die eigenen Leute gefährden, die gerade das Haus von der anderen Seite stürmen.

Könnten wir den Krieg wirklich ‚auslagern‘, würden wir als Kriegsersatz längst Fußball oder Schach spielen.

Werden Kriege zukünftig nur noch von Maschinen gekämpft – blutlos, ohne menschliche Opfer? Nein. Krieg bleibt, leider, ein zutiefst menschliches Unterfangen. Er beruht auf Konflikten, die zwischen Menschen bestehen. 

Würden tatsächlich nur noch Roboterarmeen gegeneinander kämpfen, würde am Ende der letzte übriggebliebene Roboter sich dem Töten der Menschen aufseiten des Gegners zuwenden. Könnten wir den Krieg wirklich „auslagern“, würden wir als Kriegsersatz längst Fußball oder Schach spielen. Das tun wir aber nicht.

Autonome Waffen als Kreislauf

Drohnen, KI und Roboter werden also in die menschliche Kriegsführung involviert und verändern diese. Aber auch die Gegenreaktion ist schon im Gange. Die Drohnenabwehr mit Störsendern, Netzen, Splittermunition, Lasern, Mikrowellen und Abfangdrohnen wird immer besser. Das Schere-Stein-Papier-Spiel geht also weiter. 

Eventuell müssen die Infanteristen im nächsten Krieg dann mangels effektiver Drohnensysteme sogar wieder das tun, was sie immer getan haben: auf Sicht kämpfen.

×

Conclusio

Zielerkennung. Autonome Waffen beschleunigen die Kill Chain, funktionieren teils ohne Funk und verändern das Gefechtsfeld. Doch das birgt Risiken: Die Waffen können sich falsche Ziele suchen oder den Konflikt ungeplant eskalieren. 

Kontrolle. Meaningful Human Control (MHC) ist der notwendige Ordnungsrahmen: Das heißt,
Menschen müssen die Kontrolle behalten – und zwar umso mehr, je größer die Gefahr und je unübersichtlicher der Kontext.

Opfer. Trotz des Einsatzes autonomer Waffen werden auch in Zukunft Soldaten im Kampf sterben. Es kann sogar sein, dass der Fortschritt zu einer technischen Pattsituation führt und Kriege eines Tages wieder „auf Sicht“ geführt werden.

Mehr über Rüstung

Unser Newsletter