AktuellInternationalZeitschrift International

KI in der modernen Kriegsführung

Autonome Waffensysteme fordern das Völkerrecht und die Ethik zunehmend heraus. Zentral sind Überprüfbarkeit und Erklärbarkeit, wenn die Regeln des Krieges nicht weiter unterlaufen werden sollen.

Von Marlon Possard (Zeitschrift INTERNATIONAL, Heft V/2025)

Im Sommer 2025 wurde ausführlich über die Entwicklung und den Einsatz sogenannter autonomer Drohnen im Ukrainekrieg berichtet. Beide Konfliktparteien verstärken die Nutzung von Drohnen-Technologien, die zumindest teilweise KI-Algorithmen einsetzen. Ein Beispiel: Die ukrainischen Streitkräfte entwickelten mit der „Gogol-M“ eine Flugzeugdrohne mit großer Spannweite, die automatisierte Angriffe durchführen kann. Die „Gogol-M“ fliegt in ein vorgegebenes Gebiet, erkennt autonom mögliche Ziele am Boden und greift diese an, sobald sie ein Ziel „identifiziert“ hat. Solche Entwicklungen seitens der Ukraine können primär als Antworten auf die von Russland sukzessive zur Kriegsführung eingesetzten autonomen Drohnen verstanden werden.

Begleitet wird all dies jedenfalls von massiver Besorgnis: Kritiker warnen, dass durch den Einsatz solcher Systeme das Risiko von Fehlidentifikationen und Kollateralschäden stark zunimmt. In Konflikten wie diesem ist nicht mehr nur das Kalkül menschlicher Entscheidungsträger relevant, sondern zunehmend auch die Architektur der Algorithmen selbst, die Datenqualität, die Sensorkonfiguration und letztlich die technische Robustheit. Was bislang als hypothetisches Zukunftsszenario galt, ist Realität geworden: Kriegsentscheidungen werden teilweise an Maschinen delegiert. Diese Entwicklung verschärft die rechtliche und ethische Debatte über die Grenzen autonomer Waffen. Denn sobald ein Algorithmus über Leben und Tod entscheidet, stellt sich die Frage, ob das bestehende Völkerrecht noch ausreicht, um jenes wichtige Element im Krieg zu schützen, um das es schlussendlich gehen sollte: die Menschlichkeit.

Autonome Waffen und das humanitäre Völkerrecht

Das humanitäre Völkerrecht basiert auf klaren Prinzipien: Unterscheidung, Verhältnismäßigkeit und Vorsorge. Kombattanten müssen zwischen zivilen und militärischen Zielen unterscheiden und vorrangig unnötiges Leid vermeiden. Diese Regeln setzen menschliche Urteilskraft voraus, nämlich Aspekte wie Empathie, Kontextverständnis und moralisches Abwägen. Problematisch ist, dass autonome Waffensysteme – wie sie gegenwärtig konzipiert sind und werden – hingegen auf Grundlage statistischer Muster und Trainingsdaten „entscheiden“. Sie erkennen zwar Objekte, aber sie verstehen nicht, was sie sehen. Damit verschiebt sich ein wesentlicher Bereich, nämlich der Verantwortung. Exemplarisch eröffnet sich etwa folgende Frage:

Wenn ein Algorithmus ein ziviles Fahrzeug als militärisches Ziel klassifiziert, wer trägt am Ende die Schuld?

Hier ergeben sich offene haftungsrechtliche Fragestellungen, die zwischen Entwicklern, Kommandeuren und dem Staat selbst bestehen.

Das klassische Haftungsmodell des Völkerrechts wird im Zeitalter der algorithmischen Kriegsführung brüchig und auf die Probe gestellt. Lernfähige Systeme, die sich dynamisch anpassen, entziehen sich der vollen Kontrolle. Es besteht daher berechtigterweise die Gefahr, dass kriegerische Auseinandersetzung zukünftig auf „Black Box“-Entscheidungen basieren.

Zwischen Recht und Ethik: Zur Lücke der Verantwortung

Das Kernproblem der algorithmischen Kriegsführung ist v. a. die Zuschreibung von Verantwortung.

Das humanitäre Völkerrecht ist darauf ausgerichtet, die Handlungen menschlicher Akteure zu regulieren.

Es geht dabei also um Menschen, die Entscheidungen treffen, Befehle erteilen und die jeweiligen Konsequenzen tragen. Autonome Waffensysteme operieren jedoch jenseits dieser Struktur. Ihre Entscheidungen entstehen aus Daten und basieren auf maschinellem Lernen, das heißt, auf Prozessen, die sich menschlicher Kontrolle und Nachvollziehbarkeit zunehmend entziehen. In der Fachliteratur wird daher häufig von einer „Verantwortungslücke“ (responsibility gap) gesprochen, die im engeren Sinn juristisch, technisch und ethisch zu begreifen ist. Nachfolgend werden drei dieser Lücken näher dargestellt.

Zurechnungslücke: Das Völkerrecht kennt klare Zurechnungsregeln, und Staaten haften für völkerrechtswidrige Handlungen ihrer Organe; die individuelle Verantwortung ergibt sich wiederum aus persönlicher Tatbegehung oder Unterlassung. Doch wenn eine autonome Waffe ohne unmittelbaren Befehl handelt, lösen sich solche Grenzen de facto auf. Das System trifft Entscheidungen auf Basis seiner Programmierung, Trainingsdaten und Umgebung und nicht aufgrund eines expliziten menschlichen Befehls. Eine klassische Zurechnung scheitert demnach: Programmierer haben die Funktionslogik entworfen, aber eben nicht die konkrete Entscheidung getroffen. Vielleicht haben Kommandeure den Einsatz befohlen, aber nicht die spezifische Zielauswahl. Und der Staat hat das System zugelassen, aber nicht unmittelbar gehandelt. Somit entsteht ein Verantwortungsvakuum, das keine der bestehenden Zurechnungsformen vollständig erfüllen kann.

Kontrolllücke: Selbst wenn Staaten eine „menschliche Aufsicht“ formell vorschreiben, zeigt sich, dass sie in der Praxis zunehmend illusorisch wird. Autonome Systeme agieren in Millisekunden und auf Basis hochkomplexer Sensordaten. In dynamischen Gefechtslagen kann ein Mensch Entscheidungen weder rechtzeitig überprüfen noch verhindern.

Dieses Phänomen wird durch sog. „Human-in-the-Loop“-Modelle oder „Human-on-the-Loop“-Modelle illustriert: Während bei ersterem der Mensch aktiv eingreift, überwacht er beim zweiten nur noch passiv – und damit oftmals zu spät. Die Idee „Meaningful Human Control“ droht so zu einer bloßen symbolischen Formel zu verkommen, wenn technische Geschwindigkeit und Informationsüberflutung menschliche Reaktionsfähigkeit übersteigen.

Erklärungslücke: Moderne KI-Systeme, insbesondere „Deep-Learning“-Modelle, basieren auf nichtlinearen neuronalen Netzen. Sie generieren Ergebnisse, deren interne Entscheidungslogik selbst für ihre Entwickler oft nicht nachvollziehbar ist. Ein solcher Prozess wird in der Literatur häufig als sog. „Black-Box“-Problem definiert. Im militärischen Kontext bedeutet das konkret:

Selbst wenn ein Angriff untersucht wird, lässt sich kaum rekonstruieren, warum das System eine bestimmte Zielperson oder ein Objekt als feindlich eingestuft hat.

Rechtliche Aufarbeitung und Rechenschaft werden damit praktisch unmöglich.

Eine unverständliche Entscheidung ist aber nicht nur ein technisches Problem, sondern ein normatives: Verantwortung setzt Verstehbarkeit voraus. Ohne Erklärbarkeit zerfällt die Basis jeder moralischen oder rechtlichen Bewertung.

Es kann hervorgehoben werden, dass die skizzierten Verantwortungslücken grundsätzlich im Widerspruch zu fundamentalen Prinzipien des humanitären Völkerrechts stehen. Damit verbunden gerät auch die Doktrin der Staatenverantwortlichkeit sukzessive unter Druck. Sie verlangt, dass eine Handlung einem Staat zugerechnet werden kann. Wenn aber eine Maschine „eigenständig“ agiert, entsteht eine juristische Grauzone zwischen technischer Kausalität und rechtlicher Verantwortlichkeit. Der klassische Zurechnungsbegriff basiert jedoch geradezu auf Kontrolle.

Mit der im Sommer 2024 verabschiedeten EU-KI-Verordnung („AI Act“) hat die Europäische Union weltweit erstmals ein umfassendes Regelwerk für den Einsatz von KI geschaffen. Sie basiert auf einem risikobasierten Ansatz und verbietet Systeme, die Menschenrechte gravierend verletzen oder sich der Kontrolle entziehen. Besonders brisant: Militärische Anwendungen (darunter autonome Waffensysteme) sind vom Anwendungsbereich der Verordnung ausdrücklich ausgenommen. Damit bleibt gerade jener Bereich ungeregelt, in dem das Gefährdungspotenzial am größten ist.

Was bedeutet all das aus juristischer Perspektive? Es zeigt sich, dass wir gegenwärtig eine brüchig gewordene Kontrolle im Rahmen einer auf Algorithmen basierten Kriegsführung erleben (müssen). Jenseits der rechtlichen Ebene berührt die Verantwortungslücke auch eine zentrale moralphilosophische Frage: Kann Verantwortung ohne Bewusstsein existieren?

Verantwortung ist an Intentionalität, Reflexion und moralisches Urteil gebunden – Eigenschaften, die Maschinen (noch) nicht besitzen. Damit verschiebt sich die Verantwortung nach oben, und zwar zu jenen, die solche Systeme entwickeln, einsetzen oder politisch genehmigen. Aus dieser Sicht betrachtet ist das ethische Problem kein technisches, sondern vielmehr ein menschliches. Die algorithmische Kriegsführung testet damit nicht nur die Grenzen des Rechts, sondern auch die der moralischen Selbstverpflichtung. Wenn Handlungen nicht mehr nachvollziehbar sind, droht nicht nur ein rechtliches, sondern auch ein zivilisatorisches Vakuum. Ein Krieg ohne Verantwortliche? Mit Blick auf die Philosophie Kants (1724–1804) kann auch so argumentiert werden: Der sog. „kategorische Imperativ“ gilt auch (und gerade) in der Kriegsführung, weil der Mensch nie bloß Mittel technischer Zielerfüllung sein darf. Wenn KI-Systeme über Leben und Tod entscheiden, wird die Würde des Menschen zum Kollateralschaden des technologischen Fortschritts.

Normative Grenzen algorithmischer Autonomie

Die algorithmische Kriegsführung offenbart eine strukturelle Diskrepanz zwischen technischer Innovation und normativer Steuerungsfähigkeit. Das humanitäre Völkerrecht, das auf menschliche Intentionalität und Verantwortlichkeit ausgelegt ist, stößt bei selbstlernenden Systemen an konzeptionelle Grenzen. Die derzeitige Rechtsordnung kann die komplexen Entscheidungsketten und die Intransparenzen autonomer Waffen nur unzureichend erfassen.

Eine zukunftsfähige Regulierung muss daher zwei zentrale Prämissen verankern: Erstens, dass letale Entscheidungen stets einer überprüfbaren menschlichen Kontrolle unterliegen. Zweitens, dass Staaten völkerrechtlich verpflichtet werden, die Erklärbarkeit und Nachvollziehbarkeit KI-basierter Systeme sicherzustellen. Ohne diese Mindeststandards verliert das Völkerrecht seine normative Wirksamkeit und das Prinzip individueller Verantwortung seine Grundlage. Die Herausforderung liegt damit nicht allein in der Technikgestaltung, sondern in der normativen Selbstbehauptung des Rechts gegenüber der Autonomie der KI-Systeme.


Marlon Possard lehrt und forscht am Research Center Administrative Sciences der Hochschule für Angewandte Wissenschaften, Campus Wien, sowie an der Sigmund-Freud-Privatuniversität Wien und Berlin.


Titelbild: Unsere Zeitung (erstellt mit genspark.ai)

Artikel teilen/drucken:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.