Was ist die aktualisierte Richtlinie des Pentagon zu Killerrobotern?

Das Pentagon hat eine herausgegeben Aktualisierung seiner Richtlinie 3000.09, die abdeckt, was sie bezeichnen Autonomie in Waffensystemen und andere rufen 'Killer-Roboter.' Aktuelle Drohnen wie die Air Force und CIA MQ-9 Schnitter per Fernbedienung bedient werden: ein Mensch sitzen vor einer Videoleinwand identifiziert Tausende von Kilometern entfernte Ziele am Boden, platziert sie im Fadenkreuz und löst a aus Höllenfeuer-Rakete oder andere Waffe. Autonome Waffen sind anders: Sie wählen ihre eigenen Ziele ohne menschliches Eingreifen. Es braucht klare Regeln, wann und wie sie verwendet werden können, und die neue Richtlinie bringt sie einen Schritt näher.

Als vor zehn Jahren die erste Version von 3000.09 veröffentlicht wurde, sahen autonome Waffen aus wie Science-Fiction. Jetzt sind sie sehr real. Das behauptet die UNO Von der Türkei gelieferte Drohnen griffen autonom Ziele an in Libyen im Jahr 2020 und Russland stationiert jetzt herumlungernde Munition in der Ukraine mit autonome Fähigkeit.

Viele Aktivisten, wie die Kampagne gegen Killerroboter, wollen ein völliges Verbot autonomer Waffen und bestehen darauf, dass jede ferngesteuerte Waffe darunter bleibt sinnvolle menschliche Kontrolle jederzeit. Die UN hat darüber debattiert, wie das geht kontrollieren solche Waffen seit vielen Jahren.

Wie die neue Richtlinie jedoch deutlich macht, hält das Pentagon an einer anderen Linie fest.

„Das Verteidigungsministerium hat sich konsequent gegen einen politischen Standard der ‚sinnvollen menschlichen Kontrolle‘ ausgesprochen, wenn es sowohl um autonome Systeme als auch um KI-Systeme geht.“ Gregory Allen, Leiter des Project on AI Governance an der Zentrum für strategische und internationale Studien, erzählte mir. „Der bevorzugte Fachbegriff des Verteidigungsministeriums ist ‚angemessenes Maß an menschlichem Urteilsvermögen‘, was die Tatsache widerspiegelt, dass in einigen Fällen – zum Beispiel autonome Überwachungsflugzeuge und einige Arten von autonomen Cyberwaffen – das angemessene Maß an menschlicher Kontrolle gering bis gar nicht vorhanden sein kann .“

Welche autonomen Waffen wären unter welchen Umständen erlaubt? Allen glaubt, dass die vorherige Version der Richtlinie so unklar war, dass sie jede Entwicklung in diesem Bereich verhinderte.

„Die Verwirrung war so weit verbreitet – auch unter einigen hochrangigen DoD-Führungskräften – dass Beamte davon absahen, einige Systeme zu entwickeln, die nicht nur von der Richtlinie erlaubt, sondern auch ausdrücklich von der Anforderung der Überprüfung durch hochrangige Personen ausgenommen waren“, sagt Allen.

Keine einzige Waffe wurde in den zehn Jahren seit ihrer Veröffentlichung dem Überprüfungsprozess für autonome Waffen unterzogen, der in der ursprünglichen 3000.09 vorgesehen war.

Allen schrieb eine Aufsatz dazu für CSIS im vergangenen Jahr vier Bereiche beschrieben, in denen gearbeitet werden musste – die formale Definition autonomer Waffensysteme, die Aussage, was „KI-fähig“ für die Richtlinie bedeutet, wie der Überprüfungsprozess mit der Umschulung von Modellen für maschinelles Lernen umgehen wird, und die Klärung, welche Arten von Waffen erforderlich sind den mühsamen Überprüfungsprozess durchlaufen.

„Das Verteidigungsministerium hat sie alle implementiert“, sagt Allen.

Im Prinzip sollte dies also sicherstellen, was das DoD als „starkes und anhaltendes Engagement dafür, ein transparenter globaler Marktführer bei der Einführung verantwortungsvoller Richtlinien für die militärische Nutzung autonomer Systeme“ zu sein.

Es gibt jedoch einige Ergänzungen, die als Schlupflöcher angesehen werden könnten, wie eine Ausnahme von der hochrangigen Überprüfung für autonome Waffen zur Verteidigung von Drohnen, die nicht auf Menschen abzielen („Anti-Material-Waffen“), die aber auf Flugkörper und andere Drohnen zielen dürfen und möglicherweise andere Systeme.

„Das Wort ‚Verteidigung‘ macht eine Menge Arbeit“, Zak Kallenborn, sagte mir ein Policy Fellow an der Schar School of Policy and Government an der George Mason University. „Wenn eine Drohne in feindlichem Gebiet operiert, könnte fast jede Waffe als ‚Verteidigung‘ der Plattform ausgelegt werden.“

Kallenborn weist auch darauf hin, dass zwar effektiv autonome Waffen wie Landminen seit über einem Jahrhundert im Einsatz sind, sich die Landschaft jedoch aufgrund der Fortschritte in der KI und insbesondere beim maschinellen Lernen schnell verändert. Diese haben zu Systemen geführt, die sehr leistungsfähig sind, aber technisch spröde – Wenn sie versagen, versagen sie auf spektakuläre Weise, wie es zum Beispiel kein Mensch tun würde eine Schildkröte mit einem Gewehr verwechseln.

„Die Autonomie durch KI verdient angesichts der Brüchigkeit und mangelnden Erklärbarkeit der derzeit dominierenden Ansätze definitiv mehr Aufmerksamkeit“, sagt Kallenborn.

Das Update ist nicht groß. Aber es zeigt das anhaltende Engagement des Pentagons für die Entwicklung effektiver autonomer Waffen und einen Glauben, dem sie entsprechen können das humanitäre Völkerrecht — Zivilisten von Militärangehörigen zu unterscheiden, zu versuchen, Zivilisten keinen Schaden zuzufügen, und nur verhältnismäßige und notwendige Gewalt anzuwenden.

Aktivisten glauben, dass die KI nicht das nötige Verständnis besitzen wird, um in Kriegszeiten moralische Urteile zu fällen, und riskiert, eine Welt zu schaffen, in der der Krieg automatisiert ist und Menschen nicht mehr die Kontrolle haben. Andere glauben, das US-Militär wird es sein von Gegnern mit autonomen Waffen übertroffen werden es sei denn, KI wird auf taktischer Ebene integriert, und das zu viel menschliche Beteiligung verlangsamt Militärroboter.

Der Streit wird wahrscheinlich fortgesetzt, auch wenn autonome Waffen auftauchen, und die Ergebnisse werden genau verfolgt. Wie auch immer, es scheint, dass die Killerroboter kommen.

Quelle: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/