Tageblatt: Paul Scharre, wir treffen Sie hier auf der „Luxembourg Autonomous Weapons Systems Conference“. Der Luxemburger Verteidigungsminister François Bausch hat anlässlich der Konferenz eine öffentliche Umfrage zum Thema autonome Waffen gestartet. Wurden Krieg und Kriegstechnologien jemals so öffentlich diskutiert – und sollten diese Themen so öffentlich diskutiert werden?
Paul Scharre: Die Geschichte der Regulierung der Kriegsführung reicht bis in die Antike zurück. Lange Zeit aber wurden Gespräche diesbezüglich fast ausschließlich von Regierungen und Experten geführt. Künstliche Intelligenz (KI) jedoch hat das Interesse der breiten Öffentlichkeit auf sich gezogen. Und es werden zahlreiche Fragen gestellt: Ist KI gefährlich? Wollen wir überhaupt Waffen, die für sich selbst entscheiden können, wen sie auf dem Schlachtfeld töten sollen? Es ist wichtig, dass in dieser Diskussion jeder miteinbezogen wird, denn jeder hat ein Interesse an der Zukunft, die wir gerade gestalten.
Sie haben die Regulierung der Kriegsführung angesprochen. Müssen wir bestehende Verträge und Regeln zur Kriegsführung aufgrund von KI-Waffensystemen neu schreiben oder sogar komplett überarbeiten?
Das Kriegsrecht enthält keine Bestimmungen über autonome Waffen. Es besagt nicht, dass ein Mensch die Entscheidung darüber treffen muss, wen er auf dem Schlachtfeld tötet. Und daraus ergeben sich zwei Standpunkte, über die wir gerade diskutieren. Der eine ist, dass es nicht darauf ankommt, wer die Entscheidung trifft, ob jemand auf dem Schlachtfeld getötet werden soll. Was zählt, ist die Einhaltung der Rechtsstaatlichkeit, um zivile Opfer so gut es geht zu vermeiden. Wenn Maschinen besser sind als Menschen, um das zu tun, dann sollen sie eingesetzt werden. Das ist die eine Sichtweise. Die andere Sichtweise ist, dass es in der Rechtsstaatlichkeit keine Bestimmungen darüber gibt, wer die Entscheidung trifft, weil diese bisher immer implizit von Menschen getroffen wurden. Nun, da Maschinen diese Fähigkeiten besitzen, benötigen wir Bestimmungen, die dafür sorgen, dass das menschliche Urteilsvermögen ein essenzieller Teil der Entscheidungskette bleibt. Ich denke, dass beide Ansichten eine gewisse Berechtigung haben. Die entscheidende Frage ist also: Muss der Mensch bei der Anwendung tödlicher Gewalt einbezogen werden – und wenn ja, auf welcher Ebene?
Ein Begriff, der dabei eine Rolle spielt, ist die Kontrolle. Kann der Mensch diese Kontrolle in Zukunft verlieren, wenn er sich vollends auf KI-Technologie verlässt?
Wir müssen sicherstellen, dass wir Maschinen einsetzen, die mit menschlicher Absicht arbeiten. Brauchen wir den Menschen, der das Auto manuell steuert? Wenn wir selbstfahrende Fahrzeuge hätten, die sicherer sind, könnten wir eine enorme Anzahl von Leben retten. Die physische Kontrolle durch Menschen wäre dann vielleicht nicht die beste Option. Wir suchen nach einer ähnlichen Lösung für die Kriegsführung. Das haben wir heute aber nicht. Wir haben zielsuchende Munition, die selbstständig manövrieren kann, um ein Ziel zu treffen – und das könnte in einigen Fällen ja auch besser sein. Die Frage ist also: Wie können wir sicherstellen, dass diese Waffen im Einklang mit dem menschlichen Urteilsvermögen funktionieren?
Autonomie
Paul Scharre unterscheidet in seinem Buch „Army of None“ zwischen mehreren Dimensionen von Autonomie, die von Komplexität, Verhältnis zwischen Mensch und Maschine sowie der Intelligenz des Systems abhängig sind. Das Verhältnis zwischen Maschine und Mensch unterteilt Scharre in drei Subkategorien: halbautonome Systeme, überwachte autonome Systeme und komplett autonome Systeme. Halbautonome Systeme erfassen Informationen unabhängig vom Menschen, sind jedoch von dessen Input abhängig, um ihrer Aufgabe nachgehen zu können. Der Mensch ist demnach direkt in den Entscheidungsablauf eingebunden. Überwachte autonome Systeme hingegen funktionieren ohne Input einer Person – diese kann jedoch zu jederzeit eingreifen, falls nötig. Komplett autonome Systeme funktionieren ebenfalls unabhängig – und Menschen können bei der Ausführung der Aufgabe auch nicht mehr entscheidend eingreifen. Die israelische IAI Harop, ein unbemanntes Luftfahrzeug der israelischen Armee, ist ein Beispiel eines komplett autonomen Waffensystems. Sie ist darauf ausgelegt, gegnerische Radarsysteme zu erkennen und auszuschalten.
Können autonome Waffen wirklich menschlichen Absichten entsprechen, wenn sie eingesetzt werden – da Menschen oft nicht wirklich verstehen, wie die KI zu ihren Schlussfolgerungen und damit zu ihren Entscheidungen kommt?
Die Frage müsste eher laute: Welches technische Wissen benötigt man tatsächlich, um sich einer solchen Technologie zu bedienen? Muss ich beispielsweise im Detail verstehen, wie eine Mikrowelle funktioniert, um mich einer zu bedienen? Ich weiß auch nicht genau, wie ein Auto funktioniert. Ich habe ein grobes Verständnis davon, wie ein Motor funktioniert – aber im Detail könnte ich das nicht erklären. Wir brauchen also ein Verständnis von den Möglichkeiten und Fähigkeiten, die eine Maschine besitzt – egal ob im persönlichen oder militärischen Kontext. Eine bestimmte Berufsgruppe, das Militär, setzt diese Technologien ein. Sie kennen die Grenzen der Technologie und unter welchen Umständen diese eingesetzt werden kann.
Wie genau sollte KI denn beispielsweise eingesetzt werden?
KI wird derzeit eingesetzt, um beispielsweise Satelliten- oder Drohnenbilder zu identifizieren. Diese Technologie ist über eine Dekade alt mittlerweile. In der Hinsicht ist KI also überaus hilfreich, auch in der Kriegsführung. Wenn Sie aber der KI die Frage stellen, ob die Person mit dem Gewehr ein gegnerischer Kämpfer ist, wird die Beantwortung dieser Frage ungleich schwieriger. Die KI kann das Gewehr in den Händen der Person erkennen – das alleine macht diese aber nicht zu einem gegnerischen Kämpfer. Kontext ist in der Hinsicht also überaus wichtig. Es könnte sich ja beispielsweise auch um einen Bauern handeln, der sein in einem Kriegsgebiet liegendes Land verteidigen will. Oder die Person mit dem Gewehr in der Hand ist verletzt oder hat sich bereits ergeben. Das sind Situationen, in denen ich sagen würde, dass die Entscheidung durch einen Menschen doch sinnvoll ist.
Wenn Menschen über das Abschießen einer tödlichen Waffe entscheiden, gibt es einen Verantwortlichen. Wer sollte die Verantwortung tragen, wenn eine KI über den Einsatz tödlicher Waffen entscheidet?
Das ist eine schwierige Frage. Es macht ja keinen Sinn, eine Maschine verantwortlich zu machen. Wir müssen aber sehr vorsichtig mit der Vorstellung umgehen, dass wir nur einen Menschen als moralischen Sündenbock in der Entscheidungskette haben wollen. Ein Grund, warum wir beispielsweise Piloten haben, ist, damit wir mit dem Finger auf jemanden zeigen können, wenn etwas passieren sollte. Das ist nicht unbedingt eine gute Lösung. Bei den Flugzeugabstürzen der Boeing 737Max wurden zuallererst die Piloten verantwortlich gemacht. Diese haben eventuell dazu beigetragen, waren jedoch nicht der ursprüngliche Grund. Der Grund war eine fehlerhafte Software, die es niemals durch die zahlreichen Testphasen hätte schaffen dürfen. Verantwortlich war also nicht nur der Pilot, sondern auch zahlreiche andere Personen. Bei letalen autonomen Waffen könnte es also durchaus zu Vorfällen kommen, in denen ein Fehler menschlichen Ursprungs einer Fehlfunktion zugrunde liegt. Es könnte aber auch sein, dass es sich lediglich um einen Unfall handelt. Unfälle passieren, sowohl beim Militär als auch in der Zivilgesellschaft. Nehmen wir ein Beispiel: Der Angriff durch ein autonomes Waffensystem, ausgelöst durch einen Fehler, tötet zahlreiche Menschen. Wäre der Angriff mit Absicht durchgeführt worden, müsste er als Kriegsverbrechen eingestuft werden. Wird er aber nicht, da es sich um einen Fehler, um einen Unfall handelt. Sich das einzugestehen, ist jedoch sehr unangenehm.
Gelinde gesagt … Die nächste Frage geht in eine sehr ähnliche Richtung und bezieht sich auf ein Argument, das sehr oft vorgebracht wird. Können KI-gesteuerte autonome Waffensysteme humaner agieren?
KI an sich ist kein moralisches, humanes Wesen. KI hat keine Empathie. Ich denke, die Frage ist eher, ob wir KI nutzen können, um die Kriegsführung humaner zu gestalten, um zivile Kriegsopfer zu minimieren, um präziser zu agieren. Die Antwort ist: wahrscheinlich schon, wenn wir die Technologie richtig einsetzen. Wir müssen aber noch einen Weg finden, KI einzusetzen, ohne unsere Menschlichkeit zu verlieren.
Automatisch, automatisiert oder autonom?
Die Begriffe automatisch, automatisiert oder autonom werden im täglichen Sprachgebrauch oft synonym gebraucht. Im Kontext letaler Waffensysteme gibt es jedoch entscheidende inhaltliche Unterschiede. Als automatisch werden jene Systeme bezeichnet, bei denen keine „Entscheidungsfindung“ bei der Ausführung einer Aufgabe stattfindet (Beispiel: Thermostat). Automatisierte Systeme hingegen handeln auf Basis des Inputs von außen und gegebenenfalls anderer Variablen (Beispiel: Smart-Thermometer, der Tageszeit und Außentemperatur in Betracht zieht). Unter einem autonomen System versteht man hingegen Systeme, deren Aufgabe man versteht – nicht aber unbedingt, wie diese die gestellte Aufgabe bewältigen.
Haben Menschen überhaupt noch einen Platz im Krieg, wenn KI zukünftig schneller und präziser handeln kann?
Ich denke, das läuft auf die Frage hinaus, welche Aufgaben noch von Menschen übernommen werden sollen – nicht etwa, weil Maschinen diese Aufgaben nicht ausfüllen können, sondern weil Maschinen bestimmte Aufgaben nicht übernehmen sollen. Wir sehen in anderen Bereichen, dass KI den Menschen langsam verdrängt. Nehmen wir Schach als Beispiel. Deep Blue schlug den Schachweltmeister Garry Kasparow Ende der Neunzigerjahre. Daraufhin haben Schachgroßmeister mit Schachcomputern zusammengearbeitet und das Spiel weiterentwickelt. Der Mensch leistete anfangs noch einen Mehrwert im Zusammenspiel zwischen Mensch und Maschine. Das ist aber längst nicht mehr der Fall. Heutzutage aber sind Schachcomputer so weiterentwickelt, dass Menschen ihnen einfach „nur in die Quere kommen“. Das sind aber sehr spezifische Bereiche, das reale Leben ist ungleich komplexer, sodass ich denke, dass wir Menschen auf jeden Fall noch involvieren wollen.
Sollten Programmierer und Entwickler letaler Waffensysteme zukünftig auch als Soldaten gelten?
Nein, weil sie keine Soldaten sind. Das sind Ingenieure, die dafür verantwortlich sind, dass ihre Systeme verlässlich sind und verschiedene Kriterien erfüllen. Es ist weiterhin das Militär, das über den Einsatz dieser Waffen entscheidet. Es ist auch wichtig, dass diese Entscheidung weiterhin beim Militär bleibt. Diese Entscheidung darf dem Militär im Vorfeld auch nicht durch die Ingenieure abgenommen werden. Man kann sich Autonomie als eine Art Schwungrad für die menschliche Handlungsfähigkeit vorstellen. Ein autonomes System übernimmt menschliches Handeln, menschliche Absichten und überträgt sie auf die Maschine. Die Frage ist dann: wessen Absicht? Die Antwort lautet: die des Militärs und nicht die des Ingenieurs. Und das hat einen großen Einfluss darauf, wie Waffen designt und entwickelt werden.
Sie haben in Ihrem Buch „Army of None“, das 2019 erschien, aus einem Gespräch mit dem Undersecretary of Defense von der Obama-Administration, Frank Kendall, zitiert. Er sagte: „Wir hatten noch nie etwas, das auch nur annähernd autonom tödlich gewesen wäre.“ Kann man diese Aussage auch heute noch so unterschreiben?
Wir sehen heute Waffensystem in der Ukraine, die alle Komponenten haben, um autonom zu agieren. Von den Videos und Fotos, die wir vorliegen haben, scheint es, als wäre noch eine Person im Entscheidungsablauf involviert. Die Einzelstücke für ein autonomes System aber gibt es bereits heute schon – und die Technologie ist weit verbreitet. Wir haben auch schon den Einsatz von Waffensystemen gesehen, die bereits sehr autonomen Waffensystemen ähneln. Man müsste den Menschen eigentlich nur aus der Entscheidungskette entfernen. Ich würde also sagen, dass Technologie heutzutage autonome Waffen definitiv ermöglicht. Es ist möglich, dass wir in naher Zukunft autonome Waffensysteme in der Ukraine sehen werden. Möglich ist aber auch, dass solche Waffensysteme bereits eingesetzt werden und wir es nur nicht wissen. Ich wäre auf jeden Fall nicht überrascht, wenn wir in nächster Zukunft autonome Waffensysteme in der Ukraine sehen werden. Das ist gar nicht so unwahrscheinlich.
Zur Person
Paul Scharre ist ein ehemaliger US-Army-Ranger. Als Soldat war er im Irak und Afghanistan stationiert. Heute arbeitet er als Vizepräsident und Studiendirektor am Center for a New American Security und Autor von zwei Büchern, die sich mit dem Thema von Künstlicher Intelligenz und Kriegsführung beschäftigen. 2019 ist „Army of None – Autonomus Weapons and the future of War“ erschienen. Im Februar dieses Jahres wurde sein neustes Werk „Four Battlegrounds: Power in the Age of Artificial Intelligence“ publiziert.
Ja, AI, das geht gar nicht.
Da muss ein 19jähriger Soldat ran, der 25 Jahre Ethik studiert hat und schon immer jemanden abknallen wollte.