KI-Ethik und KI-Recht stellen schwierige Fragen zu diesem neuen Versprechen, indem Hersteller von tanzenden Robotern sagen, dass sie die KI-Waffenisierung verhindern werden

Sie haben vielleicht letzte Woche in den Nachrichten gesehen oder in den sozialen Medien das angekündigte Versprechen einiger Roboterhersteller zu ihren erklärten Zielen gesehen, die KI-Bewaffnung von Allzweckrobotern zu vermeiden. Ich werde Sie gleich durch die Details führen, also machen Sie sich keine Sorgen, wenn Sie noch nicht Wind von der Sache bekommen haben.

Die Reaktion auf diese Ankündigung war schnell und, vielleicht wie in unserer polarisierten Gesellschaft üblich, sowohl lobend als auch manchmal spöttisch kritisch oder geradezu gehässig skeptisch.

Es ist eine Geschichte aus zwei Welten.

In der einen Welt sagen einige, dass dies genau das ist, was wir brauchen für ihren Verlust verantwortlich. KI-Roboter-Entwickler zu erklären.

Gott sei Dank, dass Sie auf der richtigen Seite eines Problems stehen, das allmählich sichtbarer und besorgniserregender wird. Diese niedlichen tanzenden Roboter sind beunruhigend, weil es ziemlich einfach ist, sie so umzurüsten, dass sie Waffen tragen und auf die schlimmsten Arten benutzt werden (Sie können dies selbst überprüfen, indem Sie zu den sozialen Medien gehen, und es gibt reichlich Videos, die tanzende Roboter zeigen, die mit Maschinengewehren bewaffnet sind und andere Waffen).

Die Kehrseite dieser Medaille besagt, dass das sogenannte Pfand nichts weiter als ein Marketing- oder PR-Trick ist (nebenbei bemerkt, kennt jemand den Unterschied zwischen einem Pfand und einer Spende?). Jedenfalls mahnen die Zweifler, dass dies ein zügelloses Tugendsignal im Zusammenhang mit tanzenden Robotern sei. Sie sehen, die Tatsache zu beklagen, dass Allzweckroboter bewaffnet werden können, ist sicherlich eine lohnende und ernsthaft gesuchte Überlegung, obwohl die bloße Behauptung, dass ein Hersteller dies nicht tun wird, wahrscheinlich ein leeres Versprechen ist, behaupten einige.

Alles in allem bringt die ganze Angelegenheit eine ganze Reihe von Überlegungen zur KI-Ethik und zum KI-Recht mit sich. Wir werden das Thema akribisch auspacken und sehen, wie dies ein Doppelschlag aus einem ethischen und rechtlichen KI-Sumpf ist. Für meine laufende und umfassende Berichterstattung über KI-Ethik und KI-Recht siehe den Link hier und den Link hier, nur um ein paar zu nennen.

Ich werde mich in dieser Diskussion auch auf meine früheren Analysen der Gefahren der KI-Bewaffnung beziehen, wie z. B. meine eingehende Bewertung unter den Link hier. Vielleicht möchten Sie sich diesen Diskurs ansehen, um weitere Details hinter den Kulissen zu erhalten.

Der offene Brief, der eine Dose Würmer öffnet

Beginnen wir diese Analyse mit einer sorgfältigen Schritt-für-Schritt-Untersuchung des Offenen Briefs, der kürzlich von sechs relativ bekannten fortschrittlichen Roboterherstellern veröffentlicht wurde, nämlich Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics und Unitree. Im Großen und Ganzen schätze ich, dass Sie hauptsächlich die Roboter von Boston Dynamics gesehen haben, wie die, die auf allen Vieren herumtänzeln. Sie sehen aus, als ob sie hundeähnlich wären, und wir freuen uns, sie herumhuschen zu sehen.

Wie ich zuvor und wiederholt vorgewarnt habe, ist die Verwendung solcher „tanzender“ Roboter, um die breite Öffentlichkeit davon zu überzeugen, dass diese Roboter niedlich und liebenswert sind, leider irreführend und führt zu den zahlreichen Fallstricken ihrer Vermenschlichung. Wir fangen an, an diese gehärteten Metall- und Plastikteile zu denken, als wären sie das Äquivalent eines kuscheligen, treuen Hundes. Unsere Bereitschaft, diese Roboter zu akzeptieren, basiert auf einem falschen Gefühl von Sicherheit und Gewissheit. Sicher, Sie müssen Geld verdienen, und die Chancen dafür werden erhöht, indem Sie um tanzende Roboter herumparadieren, aber dies lässt leider die wahre Tatsache aus oder verbirgt scheinbar, dass diese Roboter Roboter sind und dass die KI, die die Roboter steuert, falsch entwickelt werden kann oder schief gehen.

Betrachten Sie diese Auswirkungen der KI (Auszug aus meinem Artikel über die KI-Bewaffnung, zu finden unter den Link hier):

  • Die KI könnte auf einen Fehler stoßen, der dazu führt, dass sie in die Irre geht
  • Die KI ist möglicherweise überfordert und reagiert nicht mehr
  • KI kann Entwicklerfehler enthalten, die zu unberechenbarem Verhalten führen
  • Die KI könnte durch einen implantierten Übeltätervirus beschädigt sein
  • KI könnte in Echtzeit von Cyberhackern übernommen werden
  • KI kann aufgrund ihrer Komplexität als unvorhersehbar angesehen werden
  • KI könnte rechnerisch die „falsche“ Entscheidung treffen (relativ)
  • Usw.

Das sind Punkte in Bezug auf KI, die von Anfang an wirklich entwickelt wurde, um das Richtige zu tun.

Zusätzlich zu diesen Überlegungen müssen Sie KI-Systeme einbeziehen, die von Anfang an entwickelt wurden, um schlechte Dinge zu tun. Sie können KI haben, die für wohltätige Zwecke entwickelt wurde, oft als bezeichnet KI für immer. Sie können auch KI haben, die absichtlich für schlechte Zwecke entwickelt wurde, bekannt als KI für schlecht. Darüber hinaus können Sie haben KI für immer das korrumpiert oder ins Werdende versetzt wird KI für schlecht.

Übrigens hat das nichts damit zu tun, dass KI empfindungsfähig wird, was ich erwähne, weil einige immer wieder ausrufen, dass die heutige KI entweder empfindungsfähig ist oder kurz davor steht, empfindungsfähig zu werden. Nicht so. Ich nehme diese Mythen in meiner Analyse auseinander den Link hier.

Stellen wir also sicher, dass wir uns bezüglich der Natur der heutigen KI auf derselben Seite befinden.

Es gibt heute keine KI, die empfindungsfähig ist. Wir haben das nicht. Wir wissen nicht, ob empfindungsfähige KI möglich sein wird. Niemand kann treffend vorhersagen, ob wir eine empfindungsfähige KI erreichen werden oder ob die empfindungsfähige KI irgendwie auf wundersame Weise spontan in einer Form einer rechnergestützten kognitiven Supernova entstehen wird (normalerweise als Singularität bezeichnet, siehe meine Berichterstattung unter den Link hier).

Die Art von KI, auf die ich mich konzentriere, besteht aus der nicht-empfindungsfähigen KI, die wir heute haben. Wenn wir wild über empfindungsfähige KI spekulieren wollten, könnte diese Diskussion in eine radikal andere Richtung gehen. Eine empfindungsfähige KI wäre angeblich von menschlicher Qualität. Sie müssten bedenken, dass die empfindungsfähige KI das kognitive Äquivalent eines Menschen ist. Mehr noch, da einige spekulieren, dass wir eine superintelligente KI haben könnten, ist es denkbar, dass eine solche KI am Ende klüger als Menschen sein könnte (zu meiner Erforschung einer superintelligenten KI als Möglichkeit siehe die Berichterstattung hier).

Ich würde dringend vorschlagen, dass wir die Dinge auf dem Boden der Tatsachen halten und die heutige rechnerische, nicht-empfindungsfähige KI in Betracht ziehen.

Machen Sie sich bewusst, dass die heutige KI nicht in der Lage ist, in irgendeiner Weise auf Augenhöhe mit dem menschlichen Denken zu „denken“. Wenn Sie mit Alexa oder Siri interagieren, scheinen die Konversationsfähigkeiten den menschlichen Fähigkeiten ähnlich zu sein, aber die Realität ist, dass sie rechnerisch ist und menschliche Kognition fehlt. Die jüngste Ära der KI hat in großem Umfang maschinelles Lernen (ML) und Deep Learning (DL) genutzt, die den rechnergestützten Musterabgleich nutzen. Dies hat zu KI-Systemen geführt, die den Anschein menschenähnlicher Neigungen erwecken. In der Zwischenzeit gibt es heute keine KI, die einen Anschein von gesundem Menschenverstand hat und auch nicht über die kognitive Verwunderung robusten menschlichen Denkens verfügt.

Seien Sie sehr vorsichtig bei der Anthropomorphisierung der heutigen KI.

ML/DL ist eine Form des computergestützten Musterabgleichs. Der übliche Ansatz besteht darin, dass Sie Daten zu einer Entscheidungsaufgabe zusammenstellen. Sie speisen die Daten in die ML/DL-Computermodelle ein. Diese Modelle versuchen, mathematische Muster zu finden. Nachdem solche Muster gefunden wurden, verwendet das KI-System diese Muster, wenn es auf neue Daten stößt. Bei der Präsentation neuer Daten werden die auf den „alten“ oder historischen Daten basierenden Muster angewendet, um eine aktuelle Entscheidung zu treffen.

Ich denke, Sie können sich vorstellen, wohin das führt. Wenn Menschen, die die nach dem Muster getroffenen Entscheidungen getroffen haben, ungünstige Vorurteile eingebaut haben, stehen die Chancen gut, dass die Daten dies auf subtile, aber signifikante Weise widerspiegeln. Machine Learning oder Deep Learning Computational Pattern Matching versucht einfach, die Daten entsprechend mathematisch nachzuahmen. Es gibt keinen Anschein von gesundem Menschenverstand oder anderen empfindungsfähigen Aspekten der von KI erstellten Modellierung per se.

Darüber hinaus erkennen die KI-Entwickler möglicherweise auch nicht, was vor sich geht. Die obskure Mathematik in ML/DL könnte es schwierig machen, die jetzt verborgenen Vorurteile aufzuspüren. Sie würden zu Recht hoffen und erwarten, dass die KI-Entwickler auf die potenziell vergrabenen Vorurteile testen würden, obwohl dies schwieriger ist, als es scheinen mag. Es besteht eine solide Chance, dass selbst bei relativ umfangreichen Tests immer noch Vorurteile in den Mustervergleichsmodellen der ML/DL eingebettet sind.

Sie könnten das berühmte oder berüchtigte Sprichwort von Garbage-in-Garbage-out verwenden. Die Sache ist die, dass dies eher Vorurteilen ähnelt, die heimtückisch als Vorurteile in die KI einfließen. Die algorithmische Entscheidungsfindung (ADM) der KI wird zwangsläufig mit Ungerechtigkeiten beladen.

Nicht gut.

All dies hat bemerkenswerte Auswirkungen auf die KI-Ethik und bietet einen praktischen Einblick in die gewonnenen Erkenntnisse (noch bevor alle Lektionen geschehen), wenn es darum geht, KI gesetzlich zu verankern.

Neben der Anwendung von KI-Ethikregeln im Allgemeinen stellt sich die entsprechende Frage, ob wir Gesetze haben sollten, die verschiedene Verwendungen von KI regeln. Auf Bundes-, Landes- und lokaler Ebene werden neue Gesetze verbreitet, die den Umfang und die Art der Gestaltung von KI betreffen. Der Versuch, solche Gesetze zu entwerfen und zu erlassen, erfolgt schrittweise. Die KI-Ethik dient zumindest als wohlüberlegte Notlösung und wird mit ziemlicher Sicherheit bis zu einem gewissen Grad direkt in diese neuen Gesetze aufgenommen.

Beachten Sie, dass einige vehement argumentieren, dass wir keine neuen Gesetze brauchen, die KI abdecken, und dass unsere bestehenden Gesetze ausreichen. Sie warnen davor, dass wir, wenn wir einige dieser KI-Gesetze erlassen, die goldene Gans töten werden, indem wir gegen Fortschritte in der KI vorgehen, die immense gesellschaftliche Vorteile bieten.

In früheren Kolumnen habe ich die verschiedenen nationalen und internationalen Bemühungen zur Ausarbeitung und Verabschiedung von Gesetzen zur Regulierung von KI behandelt, siehe den Link hier, zum Beispiel. Ich habe auch die verschiedenen Prinzipien und Richtlinien der KI-Ethik behandelt, die verschiedene Nationen identifiziert und angenommen haben, darunter zum Beispiel die Bemühungen der Vereinten Nationen wie die UNESCO-Reihe der KI-Ethik, die fast 200 Länder angenommen haben, siehe den Link hier.

Hier ist eine hilfreiche Keystone-Liste von ethischen KI-Kriterien oder Merkmalen in Bezug auf KI-Systeme, die ich zuvor eingehend untersucht habe:

  • Transparenz
  • Gerechtigkeit & Fairness
  • Nicht-Maleficence
  • Verantwortung
  • Datenschutz
  • Wohltätigkeit
  • Freiheit & Autonomie
  • Vertrauen
  • Nachhaltigkeit
  • Würde
  • Solidarität

Diese Prinzipien der KI-Ethik sollten ernsthaft von KI-Entwicklern angewendet werden, zusammen mit denen, die KI-Entwicklungsbemühungen verwalten, und sogar von denen, die letztendlich KI-Systeme einsetzen und warten.

Alle Beteiligten während des gesamten KI-Lebenszyklus der Entwicklung und Nutzung werden im Rahmen der Einhaltung der etablierten Normen der ethischen KI berücksichtigt. Dies ist ein wichtiges Highlight, da die übliche Annahme ist, dass „nur Programmierer“ oder diejenigen, die die KI programmieren, den Grundsätzen der KI-Ethik unterliegen. Wie bereits hier betont, braucht es ein Dorf, um KI zu entwickeln und einzusetzen, und dafür muss das gesamte Dorf mit den KI-Ethikvorschriften vertraut sein und sich an diese halten.

Jetzt, da ich eine hilfreiche Grundlage für den Einstieg in den Offenen Brief gelegt habe, sind wir bereit, einzutauchen.

Der offizielle Betreff des Offenen Briefes lautet:

  • "Ein offener Brief an die Robotikindustrie und unsere Gemeinschaften: Allzweckroboter sollten nicht bewaffnet werden“ (wie online veröffentlicht).

So weit, so gut.

Der Titel mutet fast wie Eiscreme und Apfelkuchen an. Wie könnte irgendjemand dies als einstigen Aufruf bestreiten, die Bewaffnung von KI-Robotern zu vermeiden?

Lesen Sie weiter, um zu sehen.

Zunächst als Denkanstoß hier der offizielle Eröffnungsabsatz des Offenen Briefs:

  • „Wir gehören zu den weltweit führenden Unternehmen, die sich der Einführung neuer Generationen fortschrittlicher mobiler Robotik in die Gesellschaft verschrieben haben. Diese neuen Generationen von Robotern sind zugänglicher, einfacher zu bedienen, autonomer, erschwinglicher und anpassungsfähiger als frühere Generationen und in der Lage, an Orte zu navigieren, die zuvor für automatisierte oder ferngesteuerte Technologien nicht zugänglich waren. Wir glauben, dass fortschrittliche mobile Roboter der Gesellschaft als Mitarbeiter in der Industrie und Begleiter in unseren Häusern großen Nutzen bringen werden“ (laut Online-Veröffentlichung).

Die Sonnenseite des Aufkommens dieser Art von Robotern ist, dass wir mit vielen großartigen Vorteilen rechnen können. Daran besteht kein Zweifel. Möglicherweise haben Sie einen Roboter in Ihrem Haus, der diese Jetson-ähnlichen Aktivitäten wie das Reinigen Ihres Hauses, das Abwaschen Ihres Geschirrs und andere Aufgaben im Haushalt ausführen kann. Wir werden fortschrittliche Roboter für den Einsatz in Fabriken und Produktionsstätten haben. Roboter können möglicherweise in enge Räume kriechen oder manövrieren, beispielsweise wenn ein Gebäude einstürzt und Menschenleben auf dem Spiel stehen, um gerettet zu werden. Usw.

Nebenbei könnte Sie meine kürzliche augenkritische Berichterstattung über den Tesla AI Day interessieren, bei dem Elon Musk eine Art Laufroboter als die Zukunft für Tesla und die Gesellschaft darstellte, siehe den Link hier.

Zurück zum eigentlichen Thema. Wenn wir ernsthaft über tanzende oder laufende Roboter diskutieren, müssen wir Kompromisse oder den Gesamt-ROI (Return on Investment) dieser Verwendung von KI berücksichtigen. Wir sollten uns nicht zu sehr in Vorteile verlieben lassen, wenn auch Kosten zu berücksichtigen sind.

Ein glänzendes neues Spielzeug kann ziemlich scharfe Kanten haben.

All dies spornt einen wichtigen, aber etwas stillen Punkt an, dass ein Teil des Grundes, warum das Problem der KI-Bewaffnung jetzt auftaucht, in der Weiterentwicklung der KI in Richtung autonomer Aktivitäten liegt. Wir haben normalerweise erwartet, dass Waffen im Allgemeinen von Menschen bedient werden. Ein Mensch trifft die Entscheidung, ob er die Waffe abfeuert oder angreift. Wir können diesen Menschen vermutlich für seine Taten zur Rechenschaft ziehen.

KI, die entwickelt wurde, um autonom zu arbeiten, oder die dazu gebracht werden kann, würde den Menschen scheinbar aus dem Kreis nehmen. Die KI trifft dann algorithmisch rechnerische Entscheidungen, die dazu führen können, dass Menschen getötet oder verletzt werden. Abgesehen von den offensichtlichen Bedenken wegen mangelnder Kontrolle über die KI haben Sie auch Bedenken, dass wir möglicherweise eine mühsame Zeit damit verbringen, die Verantwortung für die Aktionen der KI festzunageln. Wir haben keinen Menschen, der unser offensichtlicher Anstifter ist.

Mir ist klar, dass einige glauben, dass wir die KI einfach und direkt für ihre Handlungen verantwortlich machen sollten, als ob die KI empfindungsfähig geworden wäre oder anderweitig eine Rechtspersönlichkeit erhalten hätte (siehe meine Berichterstattung über die Debatten über die Erlangung der Rechtspersönlichkeit der KI unter den Link hier). Das wird vorerst nicht funktionieren. Wir müssen die KI bis zu den Menschen zurückverfolgen, die sie entweder entwickelt oder eingesetzt haben. Sie werden zweifellos versuchen, sich legal der Verantwortung zu entziehen, indem sie versuchen zu behaupten, dass die KI über das hinausgegangen ist, was sie sich vorgestellt hatten. Dies ist ein wachsender Streit, mit dem wir uns auseinandersetzen müssen (siehe meine Schriften zum KI-Gesetz für Einblicke in die damit verbundenen umstrittenen Themen).

Die Vereinten Nationen (UN) haben über das Übereinkommen über bestimmte konventionelle Waffen (CCW) in Genf elf unverbindliche Leitprinzipien für tödliche autonome Waffen festgelegt, wie aus dem online veröffentlichten offiziellen Bericht hervorgeht (einschließlich Verweisen auf einschlägiges humanitäres Völkerrecht oder HVR-Bestimmungen). , einschließlich:

(a) Das humanitäre Völkerrecht gilt weiterhin uneingeschränkt für alle Waffensysteme, einschließlich der möglichen Entwicklung und Nutzung tödlicher autonomer Waffensysteme.

(b) Die menschliche Verantwortung für Entscheidungen über den Einsatz von Waffensystemen muss erhalten bleiben, da die Verantwortung nicht auf Maschinen übertragen werden kann. Dies sollte über den gesamten Lebenszyklus des Waffensystems hinweg berücksichtigt werden;

(c) Die Mensch-Maschine-Interaktion, die verschiedene Formen annehmen und in verschiedenen Phasen des Lebenszyklus einer Waffe umgesetzt werden kann, sollte sicherstellen, dass der potenzielle Einsatz von Waffensystemen auf der Grundlage neuer Technologien im Bereich tödlicher autonomer Waffensysteme möglich ist Einhaltung des geltenden internationalen Rechts, insbesondere des humanitären Völkerrechts. Bei der Bestimmung der Qualität und des Umfangs der Mensch-Maschine-Interaktion sollten eine Reihe von Faktoren berücksichtigt werden, darunter der Einsatzkontext sowie die Merkmale und Fähigkeiten des Waffensystems als Ganzes;

(d) Die Rechenschaftspflicht für die Entwicklung, den Einsatz und die Nutzung neuer Waffensysteme im Rahmen des CCW muss im Einklang mit geltendem Völkerrecht sichergestellt werden, unter anderem durch den Betrieb solcher Systeme innerhalb einer verantwortungsvollen Kette menschlicher Befehle und Kontrolle;

(e) Im Einklang mit den völkerrechtlichen Verpflichtungen der Staaten muss bei der Erforschung, Entwicklung, dem Erwerb oder der Einführung einer neuen Waffe, eines neuen Mittels oder einer neuen Methode der Kriegsführung festgestellt werden, ob deren Einsatz unter bestimmten oder allen Umständen zulässig wäre nach internationalem Recht verboten;

(f) Bei der Entwicklung oder dem Erwerb neuer Waffensysteme auf der Grundlage neuer Technologien im Bereich tödlicher autonomer Waffensysteme, physischer Sicherheit, angemessener nichtphysischer Schutzmaßnahmen (einschließlich Cybersicherheit gegen Hacking oder Datenfälschung) besteht das Risiko des Erwerbs durch terroristische Gruppen und das Risiko einer Verbreitung sollte berücksichtigt werden;

(g) Risikobewertungen und Maßnahmen zur Risikominderung sollten Teil des Entwurfs-, Entwicklungs-, Test- und Einsatzzyklus neuer Technologien in allen Waffensystemen sein;

(h) Der Einsatz neuer Technologien im Bereich tödlicher autonomer Waffensysteme sollte in Betracht gezogen werden, um die Einhaltung des humanitären Völkerrechts und anderer anwendbarer internationaler rechtlicher Verpflichtungen aufrechtzuerhalten.

(i) Bei der Ausarbeitung potenzieller politischer Maßnahmen sollten neue Technologien im Bereich tödlicher autonomer Waffensysteme nicht anthropomorphisiert werden.

(j) Diskussionen und mögliche politische Maßnahmen im Rahmen des CCW sollten den Fortschritt oder den Zugang zu friedlicher Nutzung intelligenter autonomer Technologien nicht behindern;

(k) Das CCW bietet einen geeigneten Rahmen für die Behandlung der Frage neuer Technologien im Bereich tödlicher autonomer Waffensysteme im Kontext der Ziele und Zwecke des Übereinkommens, das ein Gleichgewicht zwischen militärischer Notwendigkeit und humanitären Erwägungen anstrebt.

Diese und andere verschiedene Gesetze des Krieges und der Gesetze des bewaffneten Konflikts oder IHL (International Humanitarian Laws) dienen als wichtige und immer vielversprechende Leitlinien für die Überlegung, was wir versuchen könnten, gegen das Aufkommen autonomer Systeme zu tun, die bewaffnet sind, sei es durch Schlussstein Design oder durch nachträgliche Methoden.

Einige sagen, wir sollten diese autonomen KI-Systeme, die bewaffnet werden können, vollständig verbieten. Das ist richtig, die Welt sollte Gas geben und lautstark fordern, dass autonome KI-Systeme niemals bewaffnet werden dürfen. Es soll ein Totalverbot verhängt werden. Ende der Geschichte. Punkt, Punkt.

Nun, wir können uns aufrichtig wünschen, dass ein Verbot tödlicher bewaffneter autonomer Systeme strikt und gehorsam eingehalten wird. Das Problem ist, dass sich in jedem der aufrichtigsten Verbote viel Spielraum finden lässt. Wie sie sagen, sind Regeln dazu da, gebrochen zu werden. Sie können darauf wetten, dass dort, wo die Dinge locker sind, Gesindel Lücken aufspüren und versuchen wird, sich mit einem Augenzwinkern an den Regeln vorbeizubewegen.

Hier sind einige potenzielle Schlupflöcher, die eine Überlegung wert sind:

  • Behauptungen von Nichttödlichkeit. Stellen Sie nicht-tödliche autonome Waffensysteme her (scheinbar in Ordnung, da sie außerhalb der Verbotsgrenze liegen), die Sie dann im Handumdrehen in tödlich verwandeln können (Sie werden das Verbot nur in letzter Minute überschreiten).
  • Nur Ansprüche des autonomen Systems. Halten Sie das Verbot aufrecht, indem Sie keine tödlichen autonomen Systeme entwickeln, und machen Sie in der Zwischenzeit ebenso große Fortschritte bei der Entwicklung alltäglicher autonomer Systeme, die (noch) nicht waffenfähig sind, die Sie aber gegen einen Cent nachrüsten können, damit sie waffenfähig sind.
  • Behauptungen, nicht als Einheit integriert zu sein. Stellen Sie autonome Systeme her, die überhaupt nicht bewaffnet sind, und wenn die Zeit kommt, Huckepack-Bewaffnung, so dass Sie versuchen können, vehement zu argumentieren, dass sie zwei separate Elemente sind und daher behaupten, dass sie nicht in die Rubrik eines All-in-One fallen autonomes Waffensystem oder sein Cousin.
  • Behauptet, dass es nicht autonom ist. Machen Sie ein Waffensystem, das keine autonomen Fähigkeiten zu haben scheint. Lassen Sie in diesem vermeintlich nicht-autonomen System Raum für die Einführung von KI-basierter Autonomie. Schließen Sie bei Bedarf die Autonomie an und Sie können loslegen (bis dahin haben Sie anscheinend nicht gegen das Verbot verstoßen).
  • Andere

Es gibt noch viele weitere ausdrückliche Schwierigkeiten bei dem Versuch, tödliche autonome Waffensysteme völlig zu verbieten. Ich werde noch ein paar davon behandeln.

Einige Experten argumentieren, dass ein Verbot nicht besonders sinnvoll sei und es stattdessen regulatorische Bestimmungen geben sollte. Die Idee ist, dass diese Geräte erlaubt, aber streng überwacht werden. Es wird eine Litanei rechtmäßiger Verwendungszwecke dargelegt, zusammen mit rechtmäßigen Zielmethoden, rechtmäßigen Arten von Fähigkeiten, rechtmäßiger Verhältnismäßigkeit und Ähnlichem.

Ihrer Ansicht nach ist ein direktes Verbot so, als würde man den Kopf in den Sand stecken und so tun, als ob der Elefant im Raum nicht existierte. Diese Behauptung bringt jedoch das Blut derjenigen zum Kochen, die mit dem Argument kontern, dass man durch die Einführung eines Verbots die Versuchung, solche Systeme zu verfolgen, drastisch verringern könne. Sicher, einige werden das Verbot zur Schau stellen, aber zumindest hoffen wir, dass die meisten es nicht tun werden. Sie können Ihre Aufmerksamkeit dann auf die Zurschaustellenden richten und müssen Ihre Aufmerksamkeit nicht auf alle richten.

Diese Debatten gehen immer weiter.

Eine andere oft erwähnte Sorge ist, dass, selbst wenn die Guten sich an das Verbot halten, die Bösen dies nicht tun werden. Das bringt die Guten in eine miese Lage. Die Bösen werden diese Art von bewaffneten autonomen Systemen haben und die Guten nicht. Sobald sich herausstellt, dass die Bösen sie haben, wird es für die Guten zu spät sein, sie einzuholen. Kurz gesagt, das einzig Kluge ist, sich darauf vorzubereiten, Feuer mit Feuer zu bekämpfen.

Es gibt auch den klassischen Abschreckungsstreit. Wenn sich die Guten für bewaffnete autonome Systeme entscheiden, kann dies genutzt werden, um die Bösen davon abzuhalten, in einen Streit zu geraten. Entweder werden die Guten besser bewaffnet sein und so die Bösen davon abbringen, oder die Guten werden bereit sein, wenn die Bösen vielleicht enthüllen, dass sie diese Systeme die ganze Zeit heimlich entwickelt haben.

Ein Gegenstück zu diesen Gegenmaßnahmen besteht darin, dass man durch die Schaffung waffenfähiger autonomer Systeme ein Wettrüsten führt. Die andere Seite wird das Gleiche anstreben. Selbst wenn sie technologisch nicht in der Lage sind, solche Systeme neu zu schaffen, werden sie nun in der Lage sein, die Pläne der „Guten“ zu stehlen, die High-Tech-Eingeweide zurückzuentwickeln oder alles nachzuahmen, was sie als Bewährtes ansehen Weg, die Arbeit zu erledigen.

Aha, manche Entgegnung, all dies könnte dazu führen, dass Konflikte durch einen Anschein von Gegenseitigkeit reduziert werden. Wenn Seite A weiß, dass Seite B diese tödlichen autonomen Systemwaffen hat, und Seite B weiß, dass Seite A sie hat, könnten sie festsitzen und nicht zu Schlägen kommen. Dies hat diese ausgeprägte Aura gegenseitig versicherter Zerstörung (MAD) Vibes.

Und so weiter.

Den zweiten Absatz genau betrachten

Wir haben hierin bereits viel behandelt und bisher nur den ersten oder einleitenden Absatz des Offenen Briefs betrachtet (es gibt insgesamt vier Absätze).

Zeit, einen Blick auf den zweiten Absatz zu werfen, los geht's:

  • „Wie bei jeder neuen Technologie, die neue Fähigkeiten bietet, bietet das Aufkommen fortschrittlicher mobiler Roboter die Möglichkeit des Missbrauchs. Unzuverlässige Personen könnten sie verwenden, um Bürgerrechte zu verletzen oder andere zu bedrohen, zu verletzen oder einzuschüchtern. Ein Bereich von besonderer Bedeutung ist die Bewaffnung. Wir glauben, dass das Hinzufügen von Waffen zu Robotern, die ferngesteuert oder autonom betrieben werden, der Öffentlichkeit weithin zugänglich sind und in der Lage sind, zu zuvor unzugänglichen Orten zu navigieren, an denen Menschen leben und arbeiten, neue Schadensrisiken und ernsthafte ethische Probleme aufwirft. Bewaffnete Anwendungen dieser neu leistungsfähigen Roboter werden auch das Vertrauen der Öffentlichkeit in die Technologie in einer Weise beeinträchtigen, die den enormen Nutzen, den sie der Gesellschaft bringen werden, beeinträchtigt. Aus diesen Gründen unterstützen wir die Bewaffnung unserer Allzweckroboter mit fortschrittlicher Mobilität nicht. Für diejenigen von uns, die in der Vergangenheit zu diesem Thema gesprochen haben, und diejenigen, die sich zum ersten Mal engagieren, spüren wir jetzt eine erneute Dringlichkeit angesichts der zunehmenden öffentlichen Besorgnis in den letzten Monaten, die von einer kleinen Anzahl von Menschen verursacht wurde, die ihren Notbehelf sichtbar bekannt gemacht haben Bemühungen zur Bewaffnung kommerziell erhältlicher Roboter“ (wie online veröffentlicht).

Wenn Sie diesen zweiten Absatz lesen, können Sie hoffentlich erkennen, wie mein früherer Diskurs hierin über die KI-Bewaffnung in den Vordergrund tritt.

Lassen Sie uns ein paar zusätzliche Punkte untersuchen.

Ein gewisses Bedenken hinsichtlich eines bestimmten Formulierungsaspekts, der bei einigen für Aufsehen gesorgt hat, ist, dass die Erzählung zu betonen scheint, dass „unzuverlässige Personen“ diese KI-Roboter missbrauchen könnten. Ja, in der Tat könnten es schlechte Menschen oder Übeltäter sein, die hinterhältige Taten begehen, die KI-Roboter „missbrauchen“.

Gleichzeitig müssen wir, wie zu Beginn dieser Diskussion erwähnt, auch klarstellen, dass die KI selbst schief gehen könnte, möglicherweise aufgrund von eingebetteten Fehlern oder Fehlern und anderen derartigen Komplikationen. Die geäußerte Sorge ist, dass nur die Chancen betont werden unzuverlässige Menschen ist, dass es andere nachteilige Möglichkeiten zu ignorieren scheint. Obwohl die meisten KI-Unternehmen und -Anbieter dies nur ungern zugeben, gibt es eine Fülle von Problemen mit KI-Systemen, die die Sicherheit und Zuverlässigkeit autonomer Systeme untergraben können. Für meine Berichterstattung über KI-Sicherheit und die Notwendigkeit strenger und nachweisbarer Sicherheitsvorkehrungen siehe den Link hier, beispielsweise.

Ein weiterer bemerkenswerter Punkt, der unter denjenigen aufgekommen ist, die den Offenen Brief untersucht haben, ist die darin enthaltene Behauptung, dass das öffentliche Vertrauen in KI-Roboter untergraben werden könnte.

Einerseits ist dies eine gültige Behauptung. Wenn KI-Roboter verwendet werden, um böse Gebote abzugeben, können Sie darauf wetten, dass die Öffentlichkeit ziemlich sauer wird. Wenn die Öffentlichkeit gedämpft wird, können Sie darauf wetten, dass der Gesetzgeber in den Streifzug springen und versuchen wird, Gesetze zu erlassen, die gegen KI-Roboter und Hersteller von KI-Robotern vorgehen. Dies wiederum könnte die KI-Robotikbranche lähmen, wenn die Gesetze allumfassend sind und Bemühungen im Zusammenhang mit den Vorteilen von KI-Robotern unterbinden. In gewisser Weise könnte das Baby mit dem Bade ausgeschüttet werden (ein alter Ausdruck, der es wahrscheinlich verdient, in den Ruhestand versetzt zu werden).

Die naheliegende Frage, die ebenfalls aufgeworfen wird, ist, ob diese Behauptung, einen Rückgang des öffentlichen Vertrauens in KI-Roboter abzuwenden, ein etwas eigennütziges Credo ist oder ob es zum Wohle von uns allen ist (kann es beides sein?).

Du entscheidest.

Kommen wir nun zum besonders gehaltvollen Teil des Offenen Briefes:

  • „Wir versprechen, dass wir unsere Allzweckroboter mit fortschrittlicher Mobilität oder die von uns entwickelte Software, die fortschrittliche Robotik ermöglicht, nicht bewaffnen werden, und wir werden andere nicht dabei unterstützen. Wenn möglich, werden wir die beabsichtigten Anwendungen unserer Kunden sorgfältig prüfen, um eine mögliche Bewaffnung zu vermeiden. Wir verpflichten uns auch, die Entwicklung technologischer Merkmale zu untersuchen, die diese Risiken mindern oder verringern könnten. Um es klar zu sagen, wir nehmen keine Probleme mit bestehenden Technologien auf, die Nationen und ihre Regierungsbehörden verwenden, um sich zu verteidigen und ihre Gesetze aufrechtzuerhalten“ (wie online veröffentlicht).

Wir können das auspacken.

Setzen Sie sich hin und bereiten Sie sich entsprechend vor.

Bist du bereit für eine feurige Polarisierung?

Auf der positiven Seite kündigen einige lautstark an, dass diese Hersteller von KI-Robotern ein solches Versprechen abgeben würden. Es scheint, dass diese Roboterhersteller dankbar versuchen werden, ihre „allgemeinen“ Roboter mit fortschrittlicher Mobilität nicht zu bewaffnen. Darüber hinaus heißt es in dem Offenen Brief, dass sie andere, die dies tun, nicht unterstützen werden.

Kritiker fragen sich, ob hier eine schlaue Wortschmiede vor sich geht.

Wo beginnt und endet beispielsweise „advanced-mobility“? Wenn ein Roboterhersteller a einfach-Mobilitäts-KI-Roboter und nicht ein fortgeschrittener (was ein undefiniertes Stück Techie-Jargon ist), wird das aus dem Geltungsbereich dessen ausgeschlossen, was wird nicht bewaffnet werden? Daher ist es anscheinend in Ordnung, KI-Roboter mit einfacher Mobilität zu bewaffnen, solange sie nicht so genannt werden advanced.

Gleiches gilt für die Formulierung von Allzweckrobotern. Wenn ein KI-Roboter speziell für die Bewaffnung entwickelt wurde und es daher nicht ist, sagen wir a allgemeiner Zweck Roboter, wird das zu einem praktikablen Ausschluss aus dem Anwendungsbereich?

Sie könnten mit diesen Spitzfindigkeiten streiten und inbrünstig argumentieren, dass dies nur ein Offener Brief ist und kein fünfzigseitiges Rechtsdokument, das jeden Winkel und jede Ritze buchstabiert.

Dies bringt uns zu den scheinbar eher makroökonomischen Bedenken, die von einigen geäußert werden. Was bedeutet im Wesentlichen ein „Versprechen“?

Manche fragen, wo ist das Rindfleisch?

Ein Unternehmen, das ein solches Versprechen abgibt, tut dies scheinbar ohne wirklichen Anteil am Spiel. Wenn die Führungsspitze einer Firma, die diese Zusage unterschreibt, beschließt, die Zusage nicht länger einzuhalten, was passiert dann mit dieser Firma? Werden die Führungskräfte kurzerhand gefeuert? Wird das Unternehmen schließen und sich ausgiebig dafür entschuldigen, gegen das Versprechen verstoßen zu haben? Usw.

Soweit ersichtlich, gibt es keine besondere Strafe oder Bestrafung für eine Verletzung des Pfandrechts.

Sie könnten argumentieren, dass die Möglichkeit eines Reputationsschadens besteht. Ein Verpfändungsunternehmen könnte auf dem Markt gebrandmarkt werden, weil es ein Versprechen abgegeben hat, das es nicht mehr einhält. Dies setzt natürlich auch voraus, dass sich die Menschen daran erinnern, dass das Versprechen abgegeben wurde. Es wird auch davon ausgegangen, dass die Verletzung des Versprechens irgendwie entdeckt wird (es scheint ausgesprochen unwahrscheinlich, dass eine Firma alles sagen wird, wenn sie dies tut). Der Pfandverletzer müsste gerufen werden, und doch könnte ein solches Problem zu einem bloßen Lärm im anhaltenden Tsunami von Nachrichten über Hersteller von KI-Robotik werden.

Betrachten Sie einen anderen Winkel, der aufgetaucht ist.

Eine Pfandfirma wird von einer größeren Firma aufgekauft. Das größere Unternehmen entscheidet sich dafür, die Allzweckroboter mit fortschrittlicher Mobilität in KI-bewaffnete Versionen umzuwandeln.

Ist dies ein Verstoß gegen das Pfand?

Die größere Firma könnte darauf bestehen, dass es sich nicht um eine Verletzung handelt, da sie (die größere Firma) nie die Zusage gemacht hat. In der Zwischenzeit werden die harmlosen KI-Roboter, die die kleinere Firma mit scheinbar altruistischsten Absichten zusammengestellt und entwickelt hat, fast über Nacht zu Waffen umgebaut.

Untergräbt irgendwie das Versprechen, obwohl man sagen könnte, dass die kleinere Firma nicht wusste, dass dies eines Tages passieren würde. Sie waren ernsthaft in ihrem Verlangen. Es lag außerhalb ihrer Kontrolle, wofür sich die größere Einkaufsfirma entschied.

Manche fragen auch, ob hier eine gesetzliche Haftung besteht.

Eine Verpfändungsfirma beschließt in einigen Monaten, dass sie die Verpfändung nicht einlösen wird. Sie haben einen Sinneswandel erlebt. Kann die Firma verklagt werden, weil sie die von ihr abgegebene Zusage aufgegeben hat? Wer würde klagen? Was wäre die Grundlage für die Klage? Es ergeben sich eine Reihe rechtlicher Fragen. Wie sie sagen, können Sie so ziemlich jeden verklagen, aber ob Sie sich durchsetzen werden, ist eine ganz andere Sache.

Stellen Sie sich das anders vor. Eine Pfandfirma erhält die Gelegenheit, ein wirklich großes Geschäft zu machen, indem sie eine ganze Reihe ihrer Allzweckroboter mit fortschrittlicher Mobilität an ein riesiges Unternehmen verkauft, das bereit ist, einen hohen Preis zu zahlen, um die Roboter zu bekommen. Es ist eines dieser einmaligen Zillionen-Dollar-Kaufgeschäfte.

Was sollte das KI-Robotikunternehmen tun?

Wenn die KI-Robotik-Verpfändungsfirma börsennotiert ist, würde sie mit ziemlicher Sicherheit den Verkauf anstreben (dasselbe könnte man von einer Firma in Privatbesitz sagen, wenn auch nicht ganz so). Stellen Sie sich vor, dass die Verpfändungsfirma besorgt ist, dass der Käufer versuchen könnte, die Roboter als Waffe einzusetzen, obwohl, sagen wir mal, eine solche Diskussion nicht auf dem Tisch liegt. Es wird nur gemunkelt, dass der Käufer dies tun könnte.

Dementsprechend legt die Verpfändungsfirma in ihrer Lizenzierung fest, dass die Roboter nicht bewaffnet werden sollen. Der Käufer sträubt sich gegen diese Sprache und tritt vom Kauf zurück.

Wie viel Gewinn hat das versprechende KI-Robotikunternehmen gerade weglaufen lassen?

Gibt es einen Punkt, an dem der in der Hand liegende Gewinn die Einbeziehung der Lizenzbeschränkungsanforderung überwiegt (oder vielleicht die Beschränkung legal formuliert, um Spielraum zu lassen und das Geschäft dennoch zum Laufen zu bringen)? Ich denke, Sie können das Dilemma sehen, das damit verbunden ist. Tonnenweise solcher Szenarien lassen sich leicht heraufbeschwören. Die Frage ist, ob dieses Versprechen Bestand haben wird. Wenn ja, was für Zähne?

Kurz gesagt, wie zu Beginn dieser Diskussion erwähnt, sind einige aufgeregt, dass diese Art von Versprechen gemacht wird, während andere eine düsterere Einschätzung haben, ob das Versprechen Bestand hat.

Wir fahren fort.

Ein Versprechen in Gang bringen

Im vierten und letzten Absatz des Offenen Briefs heißt es:

  • „Wir verstehen, dass unser Engagement allein nicht ausreicht, um diese Risiken vollständig anzugehen, und deshalb fordern wir die politischen Entscheidungsträger auf, mit uns zusammenzuarbeiten, um die sichere Nutzung dieser Roboter zu fördern und ihren Missbrauch zu verbieten. Wir fordern auch alle Organisationen, Entwickler, Forscher und Benutzer in der Robotik-Community auf, ähnliche Zusagen zu machen, keine Waffen an solchen Robotern zu bauen, zu genehmigen, zu unterstützen oder deren Anbringung zu ermöglichen. Wir sind überzeugt, dass der Nutzen dieser Technologien für die Menschheit das Risiko des Missbrauchs bei weitem überwiegt, und wir freuen uns auf eine strahlende Zukunft, in der Menschen und Roboter Seite an Seite arbeiten, um einige der Herausforderungen der Welt anzugehen“ (laut Online-Veröffentlichung).

Dieser letzte Teil des Offenen Briefs enthält mehrere zusätzliche Elemente, die Zorn erregt haben.

Die Anrufung politischer Entscheidungsträger kann gut oder schlecht beraten sein, behaupten einige. Sie könnten politische Entscheidungsträger bekommen, die sich in diesen Angelegenheiten nicht auskennen, die dann das klassische voreilige Urteil treffen und Gesetze und Vorschriften erarbeiten, die den Fortschritt bei KI-Robotern an sich reißen. Wie bereits erwähnt, wird die Innovation, die den Fortschritt der KI-Roboter vorantreibt, möglicherweise gestört oder mit Füßen getreten.

Stellen Sie besser sicher, dass Sie wissen, wonach Sie fragen, sagen die Kritiker.

Das Gegenargument ist natürlich, dass die Erzählung eindeutig besagt, dass politische Entscheidungsträger mit KI-Robotikfirmen zusammenarbeiten sollten, um herauszufinden, wie man solche Gesetze und Vorschriften voraussichtlich sinnvoll erlassen kann. Das Gegenteil des Gegenarguments ist, dass die politischen Entscheidungsträger den Herstellern von KI-Robotik als treu ergeben angesehen werden könnten, wenn sie ihren Launen nachkommen. Das Gegenargument zum Gegenargument ist, dass es natürlich eine Notwendigkeit ist, mit denen zusammenzuarbeiten, die sich mit der Technologie auskennen, sonst wird das Ergebnis möglicherweise ins Wanken geraten. Usw.

Auf einer vielleicht spitzfindigen Basis hatten einige Sodbrennen über die Linie, die alle auffordert, ähnliche Zusagen zu machen, wie es nicht zu tun anbringen Waffen bis hin zu Allzweckrobotern mit fortschrittlicher Mobilität. Das Schlüsselwort dort ist das Wort anbringen. Wenn jemand einen KI-Roboter herstellt, der Waffen integriert oder nahtlos einbettet, scheint das den Wortlaut von zu umgehen anbringen etwas. Sie können es jetzt sehen, jemand argumentiert vehement, dass die Waffe nicht angebracht ist, sie ist ein vollständiger Bestandteil des KI-Roboters. Komm darüber hinweg, rufen sie, wir sind nicht im Rahmen dieses Versprechens, und sie hätten sogar sagen können, dass sie es waren.

Dies führt zu einer weiteren Beschwerde über die mangelnde Klebrigkeit des Pfandes.

Kann eine Firma oder irgendjemand, der sich dafür entscheidet, diese Verpfändung abzugeben, jederzeit, wenn er dies wünscht, und aus welchem ​​Grund auch immer, sich als nicht verpfändet erklären?

Scheinbar so.

Es wird viel darüber geredet, Versprechen abzugeben und welche Zugkraft sie verleihen.

Fazit

Huch, könnte man sagen, diese Unternehmen, die versuchen, das Richtige zu tun, werden dafür getrommelt, dass sie versuchen, das Richtige zu tun.

Was ist aus unserer Welt geworden?

Jeder, der ein solches Versprechen abgibt, sollte im Zweifelsfall zu Recht kommen, könnten Sie leidenschaftlich behaupten. Sie treten in die Öffentlichkeit, um einen mutigen und wichtigen Beitrag zu leisten. Wenn wir anfangen, sie dafür zu beschmutzen, wird es die Sache sicherlich noch schlimmer machen. Niemand wird ein solches Versprechen abgeben wollen. Firmen und andere werden es nicht einmal versuchen. Sie werden sich verstecken und die Gesellschaft nicht davor warnen, in was diese süßen tanzenden Roboter auf gefährliche Weise verwandelt werden können.

Skeptiker verkünden, dass der Weg, die Gesellschaft zur Vernunft zu bringen, andere Maßnahmen erfordert, wie zum Beispiel den Verzicht auf den phantasievollen Akt, die herumtollenden tanzenden KI-Roboter zur Schau zu stellen. Oder machen Sie es zumindest zu einem ausgewogeneren Akt. Anstatt zum Beispiel nur geliebte haustiertreue Hunde nachzuahmen, veranschaulichen Sie, wie die tanzenden Roboter eher wilden, entfesselten, wütenden Wölfen ähneln können, die Menschen ohne zu zögern in Stücke reißen können.

Das werde mehr Aufmerksamkeit erregen als Zusagen, beschwören sie.

Zusagen können zweifellos ein ziemliches Rätsel sein.

Wie Mahatma Gandhi eloquent sagte: „Ganz gleich, wie explizit das Versprechen ist, die Menschen werden den Text drehen und verdrehen, um sie ihrem eigenen Zweck anzupassen.“

Vielleicht um hier mit einer erhebenden Bemerkung abzuschließen, sagte Thomas Jefferson Folgendes über Versprechen: „Wir verpfänden einander unser Leben, unser Vermögen und unsere heilige Ehre.“

Wenn es um KI-Roboter, ihre Autonomie, ihre Bewaffnung und dergleichen geht, werden wir letztendlich alle zusammen dabei sein. Unser gegenseitiges Versprechen muss zumindest sein, dass wir diese Angelegenheiten im Vordergrund halten, uns bemühen werden, Wege zu finden, mit diesen Fortschritten fertig zu werden, und irgendwie unseren Weg finden, unsere Ehre, unser Vermögen und unser Leben zu sichern.

Können wir das versichern?

Hoffentlich.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- Roboterhersteller-sagen-sie-werden-eine-KI-Waffe-abwehren/