
Wie viel Entscheidungsmacht darf einer Maschine im Krieg zukommen? Und warum wird dieses eher militärische Thema an einem Ethikinstitut besprochen? Diese Leitfragen durchzogen die Blocklehrveranstaltung „Zwischen Euphorie und Dystopie: Künstliche Intelligenz im militärischen Kontext und Strategische Vorausschau“ am zebis wie ein roter Faden. An zwei intensiven Seminartagen wurde deutlich: Die Debatte über KI in Streitkräften bewegt sich in einem Spannungsfeld aus technologischem Fortschritt, sicherheitspolitischer Dynamik und normativen Grenzziehungen.
Zu Beginn stand die Klärung technischer Grundlagen. Künstliche Intelligenz – insbesondere Machine Learning – wurde nicht als „starke“, menschenähnliche Intelligenz verstanden, sondern als datengetriebene Optimierung spezialisierter Funktionen. Die Unterscheidung zwischen überwachten, unüberwachten und bestärkenden Lernverfahren bildete die Basis für das Verständnis militärischer Anwendungen. Darauf aufbauend wurde präzise differenziert zwischen automatisierten, semiautonomen und autonomen Systemen. Diese begriffliche Schärfung erwies sich als essenziell, da Autonomie im militärischen Kontext vor allem die Delegation der „kritischen Funktionen“ – Zielauswahl und -bekämpfung – betrifft.
Der aktuelle Entwicklungsstand autonomer Waffensysteme wurde nüchtern analysiert: Vollständig autonome, in komplexen Gefechtssituationen ohne menschliche Kontrolle operierende Systeme existieren bislang nicht. Gleichwohl zeigen Loitering Munitions, automatisierte Flugabwehrsysteme oder KI-gestützte Zielerkennung, wie weit die Automatisierung der sogenannten Kill Chain bereits vorangeschritten ist. In diesem Zusammenhang wurde auch die Beschleunigung militärischer Entscheidungszyklen thematisiert – häufig beschrieben anhand des OODA-Loops (Observe, Orient, Decide, Act). Gerade hier eröffnen sich sicherheitspolitische Risiken: Wenn Algorithmen in Maschinengeschwindigkeit interagieren, können unvorhersehbare Eskalationsdynamiken bis hin zum Szenario eines „total war“ entstehen.
Eng damit verknüpft sind völkerrechtliche Fragen. Die Prinzipien des Humanitären Völkerrechts – insbesondere Unterscheidungsgebot, Verhältnismäßigkeit und Vorsorge – setzen hohe Anforderungen an Zielidentifikation und Wirkungsprognose. Im Zentrum der Diskussion stand das Konzept der „Meaningful Human Control“. Während viele Staaten und zivilgesellschaftliche Akteure auf eine bedeutsame menschliche Kontrolle drängen, sprechen andere von „appropriate levels of human judgement“. Die Differenz ist nicht nur terminologischer Natur, sondern berührt grundlegende Fragen der Verantwortungszuschreibung: Wer trägt rechtlich und moralisch Verantwortung, wenn Entscheidungen zunehmend algorithmisch vorbereitet oder gar ausgelöst werden?
Neben rechtlichen Aspekten wurde die ethische Dimension intensiv beleuchtet. Dürfen Entscheidungen über Leben und Tod an Maschinen delegiert werden? Argumente aus der Menschenwürde, Fragen der Objektivierung des Gegners sowie die Problematik einer möglichen „Entlastung“ menschlichen Gewissens wurden kontrovers diskutiert. Zugleich wurde darauf hingewiesen, dass technologische Systeme – richtig eingesetzt – unter Umständen präziser und weniger emotionsgeleitet agieren könnten als Menschen. Zwischen diesen Polen bewegte sich die Debatte – weder technikoptimistisch noch kulturpessimistisch.
Didaktisch zeichnete sich das Seminar durch eine produktive Arbeitsatmosphäre aus. Die Gruppenreferate ermöglichten eine vertiefte Auseinandersetzung mit spezifischen Teilaspekten, von technischen Grundlagen über ethische Argumentationslinien bis hin zu internationalen Abkommen zu autonomen Waffensystemen. Die Blockstruktur erwies sich dabei als Vorteil: Die zeitliche Verdichtung förderte eine intensive Diskussionskultur, in der unsere unterschiedlichen fachlichen Hintergründe, von Physik über Medizin bis Politikwissenschaft, miteinander ins Gespräch kamen.
Am Ende stand kein einfaches Urteil, sondern eine geschärfte Perspektive. Zwischen Euphorie über operative Effizienzgewinne und dystopischen Szenarien entgrenzter Maschinengewalt bleibt die zentrale Herausforderung bestehen, technologische Innovation politisch, rechtlich und ethisch einzuhegen. Strategische Vorausschau wurde dabei nicht als Prognoseinstrument verstanden, sondern als strukturierte Reflexion möglicher Zukünfte. Gerade in Zeiten beschleunigter technologischer Entwicklung ist diese Fähigkeit entscheidend: um Handlungsoptionen zu erkennen, Risiken frühzeitig zu adressieren und sicherheitspolitische Entscheidungen verantwortbar zu gestalten.
Was hat also so ein technologisch-militärisches Thema in der Ethik zu suchen? Nun, die Antwort ist relativ klar: Viel – und die ethische Diskussion über die vormals benannten Aspekte ist kein Nebenschauplatz, sondern ist zentraler Teil einer „Meaningful Human Control“, damit auch hier der Destruktivität des Krieges Grenzen gesetzt werden können.
Ahmet Bekisoglu, Student am IFSH