KI-Ethik kämpft mit dem feurigen Doppelschlag beider KI-basierter autonomer Waffensysteme und der Ausbeutung von KI-gesteuerten autonomen Systemen, die teuflisch bewaffnet sind

Diese erstaunlichen tanzenden vierbeinigen Roboter.

Ich bin mir sicher, dass Sie diese viralen Videos der vierbeinigen Robotersysteme gesehen haben, die auf scheinbar entzückende und hundeähnliche, geliebte Weise tanzen und tänzeln. Wir scheinen es zu genießen, diesen KI-gesteuerten Robotern dabei zuzusehen, wie sie über Hindernisse klettern und scheinbar einen empfindlichen Halt finden, wenn sie auf Kisten sitzen oder unsicher auf beschwipsten Schrankoberseiten platziert wurden. Ihre menschlichen Betreuer stupsen oder schubsen die herumtollenden vierbeinigen Roboter manchmal, was äußerst unfair erscheint und Ihren Zorn über die brutale Behandlung durch diese genialen Humanoiden leicht erregen kann.

Ich frage mich allerdings, ob Sie die nicht so viralen Videos eines ganz anderen Kalibers gesehen haben.

Bereiten Sie sich vor.

Es gibt weit verbreitete Videos, die die gleiche Art von vierbeinigen Robotern zeigen, die mit ausgeprägten Waffen der einen oder anderen Art ausgestattet sind.

Beispielsweise wird ein Maschinengewehr oder eine ähnliche Schusswaffe auf einem ansonsten bekannten tanzenden und tänzelnden Roboter montiert. Zwischen dem vierbeinigen Roboter und dem Schussmechanismus der Waffe besteht eine elektronische Verbindung. Man sieht, wie das jetzt bewaffnete computerlaufende Gerät mit großen Schritten zu der Stelle schreitet, an der ein Volltrefferziel platziert wurde, und das Maschinengewehr wird heftig auf das Ziel abgefeuert. Nachdem er das anschließend teilweise zerstörte Ziel getroffen hat, tanzt und tänzelt der vierbeinige Roboter um nahegelegene Hindernisse herum und stellt sich auf, um die gleiche Aktion bei anderen neuen Zielen immer wieder zu wiederholen.

Nicht ganz das, was Sie erwartet hätten. Das nimmt sicherlich die Unbeschwertheit und die relative Freude, diesen kuscheligen vierbeinigen Robotern offen dabei zuzusehen, wie sie ihr Ding machen. Willkommen in der harten Realität des Scheinens harmlos Autonome Systeme werden in scharfe Waffen umgewandelt oder umgewandelt. Ohne großen Aufwand können Sie ein als „nicht waffenfähig“ angesehenes autonomes System über Nacht so nachrüsten, dass es vollwertige Waffen enthält.

Unter manchen Umständen ist es fast kinderleicht.

Ich werde dieses heiß kontroverse Thema diskutieren und auf die recht heftigen Bedenken hinsichtlich der KI-Ethik eingehen, die auftauchen. Wir werden eine Reise in autonome Systeme, KI, autonome Fahrzeuge, Bewaffnung und eine Reihe verwandter ethischer KI-Kampfthemen unternehmen. Meine fortlaufende und ausführliche Berichterstattung über KI-Ethik und ethische KI finden Sie unter den Link hier und den Link hier, nur um ein paar zu nennen.

Beginnen wir mit einigen grundlegenden Eckpfeilern.

Akzeptieren Sie zur Diskussion, dass es zwei Hauptmethoden gibt, autonome Systeme, die mit Waffen bewaffnet sind, zu kategorisieren:

1) Autonome Waffensysteme (von Entwurf)

2) Autonome Systeme, die waffenfähig sind (nachträglich)

Es gibt einen wichtigen Unterschied zwischen den beiden Kategorien.

Zunächst definieren wir eine autonomes Waffensystem von Anfang an eine computerisierte Kreation zu sein, die gezielt als Waffe gedacht ist. Die Entwickler hatten vor, eine Waffe zu entwickeln. Ihr ausdrückliches Ziel ist es, eine Waffe herzustellen. Sie wussten, dass sie Waffen mit den neuesten autonomen Systemtechnologien integrieren konnten. Dies ist eine Waffe, die auf der Welle der High-Tech reitet und autonome Bewegung und autonome Aktionen ermöglicht (ich werde gleich ausführlicher darauf eingehen).

Im Gegensatz dazu werden wir uns im zweiten Fall mit der Frage autonomer Systeme befassen, die überhaupt keine besondere Neigung zu Waffen haben. Dabei handelt es sich um autonome Systeme, die für andere Zwecke entwickelt werden. Stellen Sie sich ein autonomes Fahrzeug wie ein selbstfahrendes Auto vor, das Mobilität für alle bietet und dazu beiträgt, die Tausenden von Todesfällen pro Jahr zu reduzieren, die durch von Menschen gesteuerte und von Menschen gesteuerte Autos verursacht werden (siehe meine ausführliche Berichterstattung). bei den Link hier). Keine Waffe scheint für diese optimistischen, gesellschaftlich vorantreibenden Bemühungen in Betracht zu kommen, die Menschen vom Steuer zu befreien und stattdessen die KI auf den Fahrersitz zu verlegen.

Aber diese harmlosen autonomen Systeme können als Waffe eingesetzt werden, wenn der Mensch dies möchte.

Ich bezeichne diese zweite Kategorie dann als autonome Systeme, die bewaffnet sind. Das autonome System wurde ursprünglich und gezielt für einen vermutlich nicht waffentechnischen Zweck entwickelt. Trotzdem wird die träumerische altruistische Hoffnung von jemandem irgendwo zunichte gemacht, der auf die hinterhältige Idee kommt, dass diese Erfindung als Waffe eingesetzt werden könnte. Plötzlich ist das autonome System, das kuschelig schien, zu einer tödlichen Waffe geworden, indem man es mit irgendeiner Art von Waffenfähigkeiten verknüpft hat (wie etwa die bereits erwähnten vierbeinigen, hundeähnlichen Roboter, deren Merkmale um ein Maschinengewehr oder eine ähnliche Schusswaffe erweitert sind). .

Bedauerlicherweise liegen die beiden Kategorien am Ende einigermaßen am gleichen Punkt, nämlich der Bereitstellung der Fähigkeit, autonome Systeme für Waffen auf potenziell tödlicher Basis zu nutzen.

Der Prozess, zu diesem Endpunkt zu gelangen, wird wahrscheinlich anders sein.

Bei rein bewaffneten autonomen Systemen, die als Waffen eingestuft wurden, stehen die Bewaffnungsaspekte typischerweise im Vordergrund. Man könnte sagen, dass die Facetten des autonomen Systems den Eckpfeiler jeder Waffe bilden, die in Betracht gezogen wird. Der Denkprozess der Entwickler ähnelt in gewisser Weise der Frage, wie eine Waffe das Aufkommen autonomer Systeme nutzen kann.

Die andere Perspektive entspricht normalerweise überhaupt nicht dieser Denkweise. Die Entwickler wollen ein hochmodernes autonomes System entwickeln, vielleicht zum Wohle der Menschheit. Diese Entwickler haben ihr ganzes Herzblut in die Entwicklung des autonomen Systems gesteckt. Das ist der Kern ihrer Erfindung. Sie könnten sich nicht vorstellen, dass irgendjemand ihr wundersam nützliches Gerät an sich reißen oder untergraben würde. Sie sind begeistert von den gesellschaftlichen Vorteilen, die mit der Gestaltung und Produktion des autonomen Systems verbunden sind.

Nehmen wir an, irgendwann erkennen Dritte, dass das autonome System umgestaltet werden kann, um es zu einer Waffe zu machen. Vielleicht bringen sie die Entwickler dazu, ihnen das autonome System für angeblich hochtrabende Zwecke zur Verfügung zu stellen. Hinter verschlossenen Türen entscheiden sich diese Übeltäter dafür, dem autonomen System heimlich eine Waffenkapazität hinzuzufügen. Voila, Unschuld wurde zur Waffe.

So muss es nicht weitergehen.

Vielleicht wurde den Entwicklern gesagt, dass sie ein harmloses autonomes System entwickeln würden, doch diejenigen, die die Bemühungen finanzierten oder leiteten, hatten andere Ziele im Sinn. Vielleicht begannen die Bemühungen um ein autonomes System tatsächlich harmlos, aber als dann Rechnungen bezahlt werden mussten, schloss die Führung einen Deal mit einer Finanzierungsquelle ab, die die autonomen Systeme aus schändlichen Gründen will. Eine andere Möglichkeit besteht darin, dass die Entwickler wussten, dass eine spätere Verwendung als Waffe dienen könnte, sie aber davon ausgingen, dass sie diese erschütternde Brücke überqueren würden, wenn oder falls sie jemals entstehen würde. Usw.

Es gibt viele, viele unterschiedliche Wege, wie sich das alles entwickelt.

Es könnte für Sie von Interesse sein, dass ich in früheren Kolumnen beschrieben habe, dass es ein wachsendes Bewusstsein für KI-Ethik gibt Dual-Use Elemente der zeitgenössischen KI, siehe den Link hier. Lassen Sie mich Sie kurz auf den neuesten Stand bringen.

Ein KI-System, das positiv gedacht ist, kann manchmal am Rande des Schlechten stehen, vielleicht durch ein paar recht einfache Änderungen, und wird dementsprechend als Dual-Use-System angesehen. Kürzlich war in den Nachrichten ein KI-System, das entwickelt wurde, um möglicherweise tödliche Chemikalien zu entdecken, wobei die Entwickler sicherstellen wollten, dass wir solche schlecht konzipierten Chemikalien vermeiden oder uns vor ihnen in Acht nehmen können. Es stellt sich heraus, dass die KI einigermaßen leicht angepasst werden könnte, um gezielt diese Killerchemikalien aufzudecken und so den Bösewichten möglicherweise zu ermöglichen, zu wissen, welche Arten von Chemikalien sie möglicherweise für ihre abgründigen bösen Pläne erfinden könnten.

Autonome Systeme können nachweislich in diesen Dual-Use-Bereich passen.

Bis zu einem gewissen Grad ist das der Grund, warum KI-Ethik und Ethische KI ein so wichtiges Thema sind. Die Grundsätze der KI-Ethik veranlassen uns, wachsam zu bleiben. KI-Technologen können sich manchmal mit Technologie beschäftigen, insbesondere mit der Optimierung von Hightech. Sie berücksichtigen nicht unbedingt die größeren gesellschaftlichen Auswirkungen. Eine KI-Ethik-Denkweise zu haben und diese integral in die KI-Entwicklung und -Einführung zu integrieren, ist entscheidend für die Herstellung angemessener KI, einschließlich (vielleicht überraschend oder ironischerweise) der Bewertung, wie KI-Ethik von Unternehmen angenommen wird.

Neben der Anwendung von KI-Ethikregeln im Allgemeinen stellt sich die entsprechende Frage, ob wir Gesetze haben sollten, die verschiedene Verwendungen von KI regeln. Auf Bundes-, Landes- und lokaler Ebene werden neue Gesetze verbreitet, die den Umfang und die Art der Gestaltung von KI betreffen. Der Versuch, solche Gesetze zu entwerfen und zu erlassen, erfolgt schrittweise. Die KI-Ethik dient zumindest als wohlüberlegte Notlösung und wird mit ziemlicher Sicherheit bis zu einem gewissen Grad direkt in diese neuen Gesetze aufgenommen.

Seien Sie sich bewusst, dass einige hartnäckig argumentieren, dass wir keine neuen Gesetze zur KI benötigen und dass unsere bestehenden Gesetze ausreichen. Tatsächlich warnen sie davor, dass wir, wenn wir einige dieser KI-Gesetze erlassen, die goldene Gans unterbieten werden, indem wir gegen Fortschritte in der KI vorgehen, die immense gesellschaftliche Vorteile bieten.

Die Autonomie und die Waffe als zwei Gebote

Es gibt ein Schlagwort, mit dem einige vor waffenfähigen autonomen Systemen aller Art warnen, die allgemein als autonome Systeme bezeichnet werden Schlachterbots.

Dies wirft einen weiteren Aspekt auf, über den wir nachdenken sollten.

Muss ein autonomes Waffensystem und/oder ein autonomes System, das mit Waffen ausgerüstet wurde, überwiegend tödliche Roboter oder Killerroboter sein?

Einige würden argumentieren, dass wir entschieden haben können nicht tödlich auch bewaffnete autonome Systeme. Unter diesem Gesichtspunkt wäre es daher völlig unangemessen, Formulierungen wie „Schlachtroboter“ oder „Killerroboter“ zu verwenden. Eine nicht-tödliche Variante wäre vermutlich in der Lage, Schaden einzudämmen oder herbeizuführen, der nicht tödliche Folgen hat. Solche Systeme töten nicht, sie verursachen nur eine geringere Verletzungskapazität. Überbewerten Sie die Fähigkeiten nicht, sagen diejenigen, die darauf bestehen, dass wir uns nicht mit einer regelrechten Tötungsmaschine beschäftigen müssen.

Somit könnten wir Folgendes haben:

  • Tödliche autonome Waffensysteme
  • Tödliche autonome Systeme, die zu Waffen gemacht wurden
  • Nichttödliche autonome Waffensysteme
  • Nichttödliche autonome Systeme, die zu Waffen gemacht wurden

Das Gegenargument ist natürlich, dass jedes autonome System, das als Waffe eingesetzt wurde, das Potenzial zu haben scheint, in den Bereich der Tödlichkeit abzurutschen, selbst wenn es angeblich nur für den Einsatz auf nichttödlicher Basis vorgesehen ist. Der schrittweise zweistufige Übergang von der nicht-tödlichen zur tödlichen Waffe wird schnell bewältigt, sobald Sie in einem autonomen System bereits eine Waffe in die Hand genommen haben. Es würde Ihnen schwer fallen, eine eiserne Garantie dafür zu geben, dass die Nicht-Tödlichen nicht in die Arena der Tödlichen vorgedrungen sind (obwohl einige dies in einem mathematischen Anschein versuchen).

Bevor wir näher auf dieses Gesamtthema der autonomen Systeme und der Bewaffnung eingehen, könnte es hilfreich sein, auf etwas anderes hinzuweisen, das vielleicht offensichtlich ist, aber nicht unbedingt sichtbar im Vordergrund steht.

Hier ist es für alle:

  • Es gibt einen KI-Aspekt, der fester Bestandteil des autonomen Systems ist
  • Es gibt einen Waffenaspekt, der die Waffenseite dieser Gleichung darstellt
  • Die KI könnte auch mit den Waffen verbunden sein

Packen wir das aus.

Wir gehen davon aus, dass die heutigen autonomen Systeme KI als zugrunde liegendes computergestütztes Mittel zur Hervorbringung der autonomen Facetten benötigen. Ich erwähne dies, weil Sie versuchen könnten zu argumentieren, dass wir möglicherweise nicht KI-bezogene Technologien und Techniken verwenden, um die autonomen Systeme zu realisieren, was zwar wahr ist, aber immer unwahrscheinlicher erscheint. Grundsätzlich ermöglicht KI tendenziell ein höheres Maß an Autonomie, und die meisten nutzen KI-Hightech entsprechend.

Okay, wir haben also eine KI-basierte Fähigkeit, die irgendwie in das autonome System integriert ist und dazu dient, das autonome System zu leiten und zu kontrollieren.

Halten Sie das als Faustregel immer griffbereit.

Es scheint offensichtlich, dass wir auch über irgendeine Art von Bewaffnung verfügen müssen. Warum diskutieren wir sonst hier über das Thema autonomer Systeme? und Waffen. Also, ja, offensichtlich gibt es die eine oder andere Art von Waffe.

Ich werde mich nicht näher mit der Art der Waffen befassen, die eingesetzt werden könnten. Sie können einfach jede Waffe ersetzen, die Ihnen in den Sinn kommt. Möglicherweise gibt es punktgenaue Waffen. Es könnte massenhaft zerstörerische Waffen geben. Es könnte etwas mit Kugeln oder Projektilen sein. Es könnte sich um etwas handeln, das Chemikalien oder atomare flüchtige Bestandteile enthält. Die Liste ist endlos.

Die zusätzliche Überlegung ist, ob KI mit Waffen verbunden ist oder nicht. Die KI könnte die Waffen lediglich auf die Schippe nehmen. Im Fall des vierbeinigen Roboters, der eine Waffe abfeuerte, wird die Waffe möglicherweise von einem Menschen abgefeuert, der über eine Fernbedienung zum Auslösen der Waffe verfügt. Der hundeähnliche Roboter navigiert durch eine Szene und dann liegt es an einem entfernten Menschen, den Abzug zu betätigen.

Andererseits könnte die KI sozusagen der Auslöser sein. Die KI könnte nicht nur zum Navigieren und Manövrieren, sondern auch zum Aktivieren der Waffe entwickelt worden sein. In diesem Sinne erledigt die KI alles von A bis Z. Es besteht keine Abhängigkeit von einem entfernten Menschen, der die Bewaffnung übernimmt. Stattdessen ist die KI darauf programmiert, dies zu tun.

Um dies in diesem speziellen Anwendungsfall autonomer, bewaffneter Systeme zu verdeutlichen, haben wir folgende Möglichkeiten:

  • Autonomes System: Die KI betreibt das autonome System völlig selbstständig
  • Autonomes System: KI steuert das autonome System, aber auch ein Mensch kann eingreifen
  • Waffen: Ein entfernter Mensch steuert die Waffen (die KI nicht)
  • Waffen: Die KI steuert die Waffen, aber auch ein Mensch kann eingreifen
  • Waffen: Die KI betreibt die Bewaffnung völlig selbstständig

Ich habe bereits zuvor die Variationen eines „Mensch-in-the-Loop“ in Bezug auf autonome Systeme und autonome Fahrzeuge behandelt, siehe den Link hier.

Wenn man sich diese spaßorientierten Videos der tanzenden und tänzelnden vierbeinigen Roboter ansieht, geht man normalerweise davon aus, dass es sich dabei um Roboter handelt, die ausschließlich von der KI navigierbar gesteuert werden (nun ja, das ist der Brauch oder gilt als angemessene Etikette unter jenen, die tief in der Bewegung sind). in diese Angelegenheiten). Das können Sie auch zu Recht annehmen. Das weiß man natürlich nicht genau. Es könnte sein, dass ein menschlicher Fernbediener die Roboter steuert. Es besteht auch die Möglichkeit, dass die KI einen Teil der Führung übernimmt und ein entfernter menschlicher Bediener dies ebenfalls übernimmt und der KI möglicherweise hilft, wenn der Roboter in eine schwierige Position gerät und rechnerisch keine brauchbare Möglichkeit berechnen kann, sich freizubewegen.

Das Wesentliche dabei ist, dass es zahlreiche Varianten gibt, wie KI und autonome Systeme und Waffen miteinander vermischt werden können. Einige verfügen über eine KI, die das autonome System betreibt, aber nicht die Waffen. Ein Mensch steuert vielleicht aus der Ferne die Waffen. Ein anderer Aspekt ist, dass die Bewaffnung möglicherweise vorher aktiviert wird und das autonome System die aktivierte Waffe liefert, sodass die KI nicht direkt an der Auslösung der Waffe per se beteiligt war, sondern stattdessen als Liefervehikel fungierte. Und es könnte sein, dass die KI ein sprichwörtlicher Alleskönner ist und auch die gesamte Bandbreite autonomer Systemaspekte bis hin zum Waffeneinsatz übernimmt.

Treffen Sie Ihre Wahl.

Bedenken Sie in der Zwischenzeit bitte, dass bei Debatten zu diesem Thema der Mensch-in-the-Loop ein wichtiger Faktor ist.

Einige sind der Meinung, dass, wenn die KI das Zielen und Schießen übernimmt (oder was auch immer die Waffe mit sich bringt), die ganze Ausrüstung und der Haufen ins No-No-Land übergegangen sind. Dies unterscheidet sich scheinbar von herkömmlichen „Fire-and-Forget“-Waffen, die über eine vorab gezielte, vom Menschen bestimmte Auswahl verfügen, wie etwa eine Patrouillendrohne, die eine Rakete bereithält, um auf ein Ziel abzufeuern bereits von einem Menschen gewählt.

Manche fragen sich, warum autonome Systeme, die mit Waffen ausgestattet sind, nicht immer einen Menschen einbeziehen, der den gesamten Prozess, in dem sich das autonome System in einem aktiven Zustand befindet, im Auge behält. Es scheint, als wären wir besser dran, wenn eine strenge Anforderung darin bestünde, dass alle derartigen bewaffneten autonomen Systeme einen Menschen im Auge haben müssen, entweder für den Betrieb des autonomen Systems oder für den Betrieb der Waffen (oder für beides). . Es mag durchaus klug erscheinen, in diesem KI-Mix eine vermeintlich sichere und sichere menschliche Hand zu behalten.

Machen Sie sich auf eine lange Liste von Gründen gefasst, warum dies nicht unbedingt machbar ist.

Bedenken Sie diese Schwierigkeiten:

  • Human-in-the-Loop ist möglicherweise nicht schnell genug, um rechtzeitig zu reagieren
  • Human-in-the-Loop verfügt möglicherweise nicht über genügend Informationen, um pflichtbewusst zu reagieren
  • Human-in-the-Loop ist zum benötigten Zeitpunkt möglicherweise nicht verfügbar
  • Human-in-the-Loop ist möglicherweise unentschlossen und reagiert nicht, wenn es nötig ist
  • Human-in-the-Loop könnte (relativ) die „falsche“ Entscheidung treffen
  • Human-in-the-Loop ist zum benötigten Zeitpunkt möglicherweise nicht vom System aus erreichbar
  • Der Mensch könnte verwirrt und überfordert sein
  • Usw.

Sie sind zweifellos versucht, einen Blick auf diese Liste menschlicher Schwächen und Einschränkungen zu werfen und dann zu dem feierlichen Schluss zu kommen, dass es scheinbar sinnvoll ist, den „Mensch in der Schleife“ herauszuschneiden und stattdessen immer KI zu verwenden. Dies könnte entweder der Ausschluss des Human-in-the-Loop sein oder es der KI ermöglichen, ein tief verwurzeltes Human-in-the-Loop-Design außer Kraft zu setzen. Sehen Sie sich meine Analyse an, wie Meinungsverschiedenheiten zwischen KI und einem „Human-in-the-Loop“ zu prekären Situationen führen können, behandelt unter den Link hier.

Oft bleibt eine herabwürdigende Liste dieser Art von Nachteilen, die sich in Echtzeit auf den Menschen konzentrieren, von selbst und hinterlässt den bleibenden Eindruck, dass die KI irgendwie eine weitaus klügere Wahl sein muss, als einen Menschen auf dem Laufenden zu halten . Tappen Sie nicht in diese tückische Falle. Es gibt ernüchternde Kompromisse.

Bedenken Sie diese Auswirkungen der KI:

  • Die KI könnte auf einen Fehler stoßen, der dazu führt, dass sie in die Irre geht
  • Die KI ist möglicherweise überfordert und reagiert nicht mehr
  • KI kann Entwicklerfehler enthalten, die zu unberechenbarem Verhalten führen
  • Die KI könnte durch einen implantierten Übeltätervirus beschädigt sein
  • KI könnte in Echtzeit von Cyberhackern übernommen werden
  • KI kann aufgrund ihrer Komplexität als unvorhersehbar angesehen werden
  • KI könnte rechnerisch die „falsche“ Entscheidung treffen (relativ)
  • Usw.

Ich vertraue darauf, dass Sie erkennen können, dass es Kompromisse zwischen der Verwendung eines Human-in-the-Loop und der alleinigen Abhängigkeit von KI gibt. Falls Sie versucht sind zu behaupten, dass die fertige Lösung darin besteht, beide zu verwenden, möchte ich nur betonen, dass Sie das Beste aus beiden Welten, aber auch das Schlechteste aus beiden Welten herausholen können. Gehen Sie nicht davon aus, dass es immer und mit Sicherheit das Beste aus beiden Welten sein wird.

Möglicherweise waren Sie von einem der oben aufgeführten Nachteile von KI etwas überrascht, insbesondere von der Tatsache, dass die KI es sein könnte unberechenbar. Wir sind es gewohnt zu glauben, dass KI streng logisch und mathematisch präzise sein soll. Daher können Sie auch davon ausgehen, dass die KI vollständig vorhersehbar ist. Wir sollen genau wissen, was KI tun wird. Punkt, Ende der Geschichte.

Es tut mir leid, dass dieser Ballon platzt, aber dieser Mythos der Vorhersehbarkeit ist eine Fehlbezeichnung. Die Größe und Komplexität moderner KI ist häufig ein Sumpf, der sich kaum vorhersehen lässt. Dies zeigt sich in der Aufregung um ethische KI über einige heutige Anwendungen von maschinellem Lernen (ML) und Deep Learning (DL). Ich erkläre es gleich etwas ausführlicher.

Vielleicht möchten Sie auch einen Blick auf meine neueste Analyse der bevorstehenden Trends werfen, die darauf abzielen, mithilfe der neuesten KI-Sicherheit überprüfbare und mathematisch nachweisbar korrekte KI-Systeme sicherzustellen den Link hier.

Grübeln über die Verkehrsregeln

Ich hatte den Begriff „Targets“ und „Targeting“ erwähnt, bei dem es sich um eine ziemlich umfangreiche Terminologie handelt, die besondere Aufmerksamkeit verdient.

Wir können darüber nachdenken:

  • Ziele, die Menschen sind
  • Ziele, die keine Menschen, sondern Lebewesen sind
  • Ziele, die als Eigentum ausgelegt werden

Nehmen wir an, wir hätten ein autonomes System, das zu Waffen gemacht wurde. Die KI wird zur Führung des autonomen Systems und für die Bewaffnung eingesetzt. Die KI erledigt alles von A bis Z. Ein „Human-in-the-Loop“ ist nicht vorgesehen. Beim Targeting wählt die KI die Ziele aus. Es gibt kein von Menschen etabliertes Pre-Targeting. Stattdessen wurde die KI so programmiert, dass sie generell ermittelt, ob es Menschen gibt, die ins Visier genommen werden sollen (vielleicht scannt sie nach feindlichen Aktionen, bestimmten Arten von Uniformen usw.).

Bist du mir bisher dabei?

Dieses Szenario ist so ziemlich dasjenige, das den größten Aufschrei über bewaffnete autonome Systeme hervorruft.

Die geäußerte Sorge besteht darin, dass die KI (mindestens) drei Dinge tut, die ihr nicht gestattet sein sollten:

  • Menschen als Ziele ins Visier nehmen
  • Targeting ohne den Einsatz eines Human-in-the-Loop
  • Potenziell unvorhersehbar handelnly

Beachten Sie, dass die Besorgnis über die Unvorhersehbarkeit der KI ausdrücklich erwähnt wird. Es könnte sein, dass die KI zwar so programmiert wurde, dass sie auf bestimmte Arten von Menschen abzielt, die KI-Programmierung jedoch nicht das ist, was wir dachten, und die KI letztendlich auf „Freunde“ abzielt, zusätzlich zu denen, die die KI eigentlich als „Feinde“ auffassen sollte ” (oder vielleicht anstelle von). Darüber hinaus könnte die Unvorhersehbarkeit der KI selbst dann, wenn wir uns für die Einbindung einer Human-in-the-Loop-Bestimmung entscheiden, dazu führen, dass die KI, wenn sie mit dem Human-in-the-Loop kommunizieren soll, dies nicht tut so und agiert ohne jegliches menschliches Eingreifen.

Es könnte für Sie von Interesse sein, dass das Internationale Komitee vom Roten Kreuz (IKRK) eine übergreifende Drei-Punkte-Position zu autonomen Waffensystemen dargelegt hat, die auf diese Art von Bedenken eingeht (laut Website des IKRK):

1. „Unvorhersehbare autonome Waffensysteme sollten ausdrücklich verboten werden , insbesondere wegen ihrer wahllosen Auswirkungen. Dies ließe sich am besten durch ein Verbot autonomer Waffensysteme erreichen, die so konzipiert oder eingesetzt werden, dass ihre Auswirkungen nicht ausreichend verstanden, vorhergesagt und erklärt werden können.“

2. „Im Lichte ethischer Erwägungen zum Schutz der Menschheit und zur Wahrung der Regeln des humanitären Völkerrechts zum Schutz von Zivilisten und Kombattanten außerhalb des Kampfes, Der Einsatz autonomer Waffensysteme gegen Menschen sollte ausgeschlossen werden. Dies ließe sich am besten durch ein Verbot autonomer Waffensysteme erreichen, die dazu bestimmt sind oder verwendet werden, Gewalt gegen Personen auszuüben.“

3. „Um Zivilisten und zivile Objekte zu schützen, die Regeln des humanitären Völkerrechts aufrechtzuerhalten und die Menschheit zu schützen, sollten die Entwicklung und der Einsatz autonomer Waffensysteme, die nicht verboten wären, reguliert werden, unter anderem durch eine Kombination aus: Grenzen für die Arten von Zielen, beispielsweise die Beschränkung auf Objekte, die ihrer Natur nach militärische Ziele sind; Grenzen hinsichtlich der Dauer, des geografischen Umfangs und des Umfangs der Nutzung, einschließlich um menschliches Urteilsvermögen und Kontrolle in Bezug auf einen bestimmten Angriff zu ermöglichen; Grenzen der Einsatzsituationen, beispielsweise die Beschränkung auf Situationen, in denen sich keine Zivilisten oder zivilen Objekte aufhalten; RAnforderungen an die Mensch-Maschine-Interaktion, insbesondere um eine wirksame menschliche Überwachung sowie ein rechtzeitiges Eingreifen und Deaktivieren sicherzustellen.“

In einem ähnlichen Zusammenhang haben die Vereinten Nationen (UN) im Rahmen des Übereinkommens über bestimmte konventionelle Waffen (CCW) in Genf elf unverbindliche Leitprinzipien für tödliche autonome Waffen festgelegt, wie aus dem online veröffentlichten offiziellen Bericht hervorgeht (einschließlich Verweisen auf einschlägige internationale humanitäre Hilfe). Gesetz oder IHL-Bestimmungen):

(a) Das humanitäre Völkerrecht gilt weiterhin uneingeschränkt für alle Waffensysteme, einschließlich der möglichen Entwicklung und Nutzung tödlicher autonomer Waffensysteme.

(b) Die menschliche Verantwortung für Entscheidungen über den Einsatz von Waffensystemen muss erhalten bleiben, da die Verantwortung nicht auf Maschinen übertragen werden kann. Dies sollte über den gesamten Lebenszyklus des Waffensystems hinweg berücksichtigt werden;

(c) Die Mensch-Maschine-Interaktion, die verschiedene Formen annehmen und in verschiedenen Phasen des Lebenszyklus einer Waffe umgesetzt werden kann, sollte sicherstellen, dass der potenzielle Einsatz von Waffensystemen auf der Grundlage neuer Technologien im Bereich tödlicher autonomer Waffensysteme möglich ist Einhaltung des geltenden internationalen Rechts, insbesondere des humanitären Völkerrechts. Bei der Bestimmung der Qualität und des Umfangs der Mensch-Maschine-Interaktion sollten eine Reihe von Faktoren berücksichtigt werden, darunter der Einsatzkontext sowie die Merkmale und Fähigkeiten des Waffensystems als Ganzes;

(d) Die Rechenschaftspflicht für die Entwicklung, den Einsatz und die Nutzung neuer Waffensysteme im Rahmen des CCW muss im Einklang mit geltendem Völkerrecht sichergestellt werden, unter anderem durch den Betrieb solcher Systeme innerhalb einer verantwortungsvollen Kette menschlicher Befehle und Kontrolle;

(e) Im Einklang mit den völkerrechtlichen Verpflichtungen der Staaten muss bei der Erforschung, Entwicklung, dem Erwerb oder der Einführung einer neuen Waffe, eines neuen Mittels oder einer neuen Methode der Kriegsführung festgestellt werden, ob deren Einsatz unter bestimmten oder allen Umständen zulässig wäre nach internationalem Recht verboten;

(f) Bei der Entwicklung oder dem Erwerb neuer Waffensysteme auf der Grundlage neuer Technologien im Bereich tödlicher autonomer Waffensysteme, physischer Sicherheit, angemessener nichtphysischer Schutzmaßnahmen (einschließlich Cybersicherheit gegen Hacking oder Datenfälschung) besteht das Risiko des Erwerbs durch terroristische Gruppen und das Risiko einer Verbreitung sollte berücksichtigt werden;

(g) Risikobewertungen und Maßnahmen zur Risikominderung sollten Teil des Entwurfs-, Entwicklungs-, Test- und Einsatzzyklus neuer Technologien in allen Waffensystemen sein;

(h) Der Einsatz neuer Technologien im Bereich tödlicher autonomer Waffensysteme sollte in Betracht gezogen werden, um die Einhaltung des humanitären Völkerrechts und anderer anwendbarer internationaler rechtlicher Verpflichtungen aufrechtzuerhalten.

(i) Bei der Ausarbeitung potenzieller politischer Maßnahmen sollten neue Technologien im Bereich tödlicher autonomer Waffensysteme nicht anthropomorphisiert werden.

(j) Diskussionen und mögliche politische Maßnahmen im Rahmen des CCW sollten den Fortschritt oder den Zugang zu friedlicher Nutzung intelligenter autonomer Technologien nicht behindern;

(k) Das CCW bietet einen geeigneten Rahmen für die Behandlung der Frage neuer Technologien im Bereich tödlicher autonomer Waffensysteme im Kontext der Ziele und Zwecke des Übereinkommens, das ein Gleichgewicht zwischen militärischer Notwendigkeit und humanitären Erwägungen anstrebt.

Das Dilemma, in dem wir uns befinden

Diese verschiedenen Kriegsgesetze, Gesetze für bewaffnete Konflikte oder IHL (International Humanitarian Laws) dienen als wichtiger und immer vielversprechender Leitfaden für die Überlegung, was wir gegen das Aufkommen autonomer Systeme tun könnten, die waffenfähig sind, sei es durch Keystone-Design oder durch nachträgliche Methoden.

Wir können uns aufrichtig wünschen, dass ein Verbot tödlich bewaffneter autonomer Systeme strikt und gehorsam eingehalten wird. Das Problem besteht darin, dass selbst die ernsthaftesten Verbote zwangsläufig viel Spielraum bieten. Wie sie sagen, sind Regeln dazu da, gebrochen zu werden. Man kann darauf wetten, dass dort, wo es locker zugeht, das Gesindel Lücken aufspürt und versucht, die Regeln augenzwinkernd zu umgehen.

Hier sind einige potenzielle Schlupflöcher, die eine Überlegung wert sind:

  • Behauptungen von Nichttödlichkeit. Machen nicht tödlich autonome Waffensysteme (scheinbar in Ordnung, da es außerhalb der Verbotsgrenze liegt), die Sie dann im Handumdrehen in tödliche Systeme umwandeln können (Sie werden das Verbot erst in letzter Minute überwinden).
  • Nur Ansprüche des autonomen Systems. Halten Sie das Verbot aufrecht, indem Sie keine tödlichen autonomen Systeme entwickeln, und machen Sie in der Zwischenzeit ebenso große Fortschritte bei der Entwicklung alltäglicher autonomer Systeme, die (noch) nicht waffenfähig sind, die Sie aber gegen einen Cent nachrüsten können, damit sie waffenfähig sind.
  • Behauptungen, nicht als Einheit integriert zu sein. Erstellen Sie autonome Systeme, die überhaupt nicht mit Waffen ausgestattet sind, und wenn es soweit ist, nutzen Sie die Waffen so, dass Sie vehement argumentieren können, dass es sich um zwei separate Elemente handelt, und daher behaupten können, dass sie nicht in die Rubrik eines All-in-One-Systems fallen autonomes Waffensystem oder sein Cousin.
  • Behauptet, dass es nicht autonom ist. Erstellen Sie ein Waffensystem, das scheinbar keine autonomen Fähigkeiten besitzt. Lassen Sie in diesem vermutlich nicht autonomen System Raum für den Einsatz KI-basierter Autonomie. Schließen Sie bei Bedarf die Autonomie an, und schon kann es losgehen (bis dahin haben Sie anscheinend nicht gegen das Verbot verstoßen).
  • Andere

Es gibt noch viele weitere ausdrückliche Schwierigkeiten bei dem Versuch, tödliche autonome Waffensysteme völlig zu verbieten. Ich werde noch ein paar davon behandeln.

Einige Experten argumentieren, dass ein Verbot nicht besonders sinnvoll sei und es stattdessen regulatorische Bestimmungen geben sollte. Die Idee ist, dass diese Geräte erlaubt, aber streng überwacht werden. Es wird eine Litanei rechtmäßiger Verwendungszwecke dargelegt, zusammen mit rechtmäßigen Zielmethoden, rechtmäßigen Arten von Fähigkeiten, rechtmäßiger Verhältnismäßigkeit und Ähnlichem.

Ihrer Ansicht nach ist ein direktes Verbot so, als würde man den Kopf in den Sand stecken und so tun, als ob der Elefant im Raum nicht existierte. Diese Behauptung bringt jedoch das Blut derjenigen zum Kochen, die mit dem Argument kontern, dass man durch die Einführung eines Verbots die Versuchung, solche Systeme zu verfolgen, drastisch verringern könne. Sicher, einige werden das Verbot zur Schau stellen, aber zumindest hoffen wir, dass die meisten es nicht tun werden. Sie können Ihre Aufmerksamkeit dann auf die Zurschaustellenden richten und müssen Ihre Aufmerksamkeit nicht auf alle richten.

Diese Debatten gehen immer weiter.

Eine weitere häufig geäußerte Sorge ist, dass selbst wenn die Guten sich an das Verbot halten, die Bösen es nicht tun werden. Das bringt das Gute in eine schlechte Lage. Die Bösen werden solche autonomen Waffensysteme haben, die Guten jedoch nicht. Sobald sich herausstellt, dass die Bösen sie haben, wird es für die Guten zu spät sein, aufzuholen. Kurz gesagt: Das Einzige, was man tun kann, ist, sich darauf vorzubereiten, Feuer mit Feuer zu bekämpfen.

Es gibt auch die klassische Abschreckungsbehauptung. Wenn sich die Guten dafür entscheiden, bewaffnete autonome Systeme zu entwickeln, kann dies genutzt werden, um die Bösen davon abzuhalten, sich auf einen Streit einzulassen. Entweder werden die Guten besser bewaffnet sein und so die Bösen abschrecken, oder die Guten werden bereit sein, wenn die Bösen vielleicht enthüllen, dass sie diese Systeme die ganze Zeit heimlich ausgedacht haben.

Ein Gegenstück zu diesen Gegenmaßnahmen besteht darin, dass man durch die Schaffung waffenfähiger autonomer Systeme ein Wettrüsten führt. Die andere Seite wird das Gleiche anstreben. Selbst wenn sie technologisch nicht in der Lage sind, solche Systeme neu zu schaffen, werden sie nun in der Lage sein, die Pläne der „Guten“ zu stehlen, die High-Tech-Eingeweide zurückzuentwickeln oder alles nachzuahmen, was sie als Bewährtes ansehen Weg, die Arbeit zu erledigen.

Aha, einige entgegnen, das alles könnte dazu führen, dass die Konflikte durch den Anschein von Gegenseitigkeit reduziert werden. Wenn Seite A weiß, dass Seite B über diese tödlichen Waffen autonomer Systeme verfügt, und Seite B weiß, dass Seite A sie hat, bleiben sie möglicherweise ruhig und geraten nicht in Streit. Dies hat die ausgeprägte Aura der MAD-Stimmung (Mutually Assured Destruction).

Und so weiter.

Die KI in der Autonomie

Stellen wir sicher, dass wir uns über die Natur der heutigen KI einig sind.

Es gibt heute keine KI, die empfindungsfähig ist. Wir haben das nicht. Wir wissen nicht, ob empfindungsfähige KI möglich sein wird. Niemand kann treffend vorhersagen, ob wir eine empfindungsfähige KI erreichen werden oder ob die empfindungsfähige KI irgendwie auf wundersame Weise spontan in einer Form einer rechnergestützten kognitiven Supernova entstehen wird (normalerweise als Singularität bezeichnet, siehe meine Berichterstattung unter den Link hier).

Die Art von KI, auf die ich mich konzentriere, besteht aus der nicht-empfindungsfähigen KI, die wir heute haben. Wollten wir wild darüber spekulieren empfindungsfähig AI, diese Diskussion könnte in eine radikal andere Richtung gehen. Eine empfindungsfähige KI wäre angeblich von menschlicher Qualität. Sie müssten bedenken, dass die empfindungsfähige KI das kognitive Äquivalent eines Menschen ist. Mehr noch, da einige spekulieren, dass wir eine superintelligente KI haben könnten, ist es denkbar, dass eine solche KI am Ende klüger als Menschen sein könnte (zu meiner Erforschung einer superintelligenten KI als Möglichkeit siehe die Berichterstattung hier).

Lassen Sie uns die Dinge bodenständiger halten und die heutige rechnerische, nicht-empfindungsfähige KI betrachten.

Machen Sie sich bewusst, dass die heutige KI nicht in der Lage ist, in irgendeiner Weise auf Augenhöhe mit dem menschlichen Denken zu „denken“. Wenn Sie mit Alexa oder Siri interagieren, scheinen die Konversationsfähigkeiten den menschlichen Fähigkeiten ähnlich zu sein, aber die Realität ist, dass sie rechnerisch ist und menschliche Kognition fehlt. Die jüngste Ära der KI hat in großem Umfang maschinelles Lernen (ML) und Deep Learning (DL) genutzt, die den rechnergestützten Musterabgleich nutzen. Dies hat zu KI-Systemen geführt, die den Anschein menschenähnlicher Neigungen erwecken. In der Zwischenzeit gibt es heute keine KI, die einen Anschein von gesundem Menschenverstand hat und auch nicht über die kognitive Verwunderung robusten menschlichen Denkens verfügt.

Seien Sie sehr vorsichtig bei der Anthropomorphisierung der heutigen KI.

ML/DL ist eine Form des computergestützten Musterabgleichs. Der übliche Ansatz besteht darin, dass Sie Daten zu einer Entscheidungsaufgabe zusammenstellen. Sie speisen die Daten in die ML/DL-Computermodelle ein. Diese Modelle versuchen, mathematische Muster zu finden. Nachdem solche Muster gefunden wurden, verwendet das KI-System diese Muster, wenn es auf neue Daten stößt. Bei der Präsentation neuer Daten werden die auf den „alten“ oder historischen Daten basierenden Muster angewendet, um eine aktuelle Entscheidung zu treffen.

Ich denke, Sie können sich vorstellen, wohin das führt. Wenn Menschen, die die nach dem Muster getroffenen Entscheidungen getroffen haben, ungünstige Vorurteile eingebaut haben, stehen die Chancen gut, dass die Daten dies auf subtile, aber signifikante Weise widerspiegeln. Machine Learning oder Deep Learning Computational Pattern Matching versucht einfach, die Daten entsprechend mathematisch nachzuahmen. Es gibt keinen Anschein von gesundem Menschenverstand oder anderen empfindungsfähigen Aspekten der von KI erstellten Modellierung per se.

Darüber hinaus erkennen die KI-Entwickler möglicherweise auch nicht, was vor sich geht. Die obskure Mathematik in der ML/DL könnte es schwierig machen, die jetzt verborgenen Vorurteile aufzuspüren. Sie würden zu Recht hoffen und erwarten, dass die KI-Entwickler auf die potenziell vergrabenen Vorurteile testen würden, obwohl dies schwieriger ist, als es scheinen mag. Es besteht eine solide Chance, dass selbst bei relativ umfangreichen Tests immer noch Verzerrungen in den Mustererkennungsmodellen der ML/DL eingebettet sind.

Sie könnten das berühmte oder berüchtigte Sprichwort von Garbage-in-Garbage-out verwenden. Die Sache ist die, dass dies eher Vorurteilen ähnelt, die heimtückisch als Vorurteile in die KI einfließen. Die algorithmische Entscheidungsfindung (ADM) der KI wird zwangsläufig mit Ungerechtigkeiten beladen.

Nicht gut.

Mit diesem zusätzlichen grundlegenden Hintergrund wenden wir uns noch einmal dem Thema autonome Systeme und Waffen zu. Wir haben zuvor gesehen, dass die KI in die autonome Systemkomponente eindringt und auch in die Waffenkomponente eintreten kann. Die KI von heute ist nicht empfindungsfähig. Dies ist es wert, wiederholt zu werden, und ich werde dies hervorheben, um weitere Einblicke in diese Angelegenheiten zu erhalten.

Sehen wir uns einige Szenarien an, um zu sehen, wie wichtig dies ist. Ich werde bei diesem Thema für einen Moment aus der Kriegsorientierung ausbrechen und zeigen, wie es viele andere soziale Milieus durchdringt. Stabilisieren Sie sich entsprechend.

Ein KI-basiertes autonomes System wie ein autonomes Fahrzeug, von dem wir sagen, dass es überhaupt nichts mit Waffen zu tun hat, bahnt sich seinen Weg durch einen normalen Ort. Ein Mensch kommt vorbei, um das autonome Fahrzeug zu nutzen. Die Person ist mit einer unheilvollen Waffe bewaffnet. Nehmen Sie zur Diskussion in diesem speziellen Szenario an, dass die Person etwas Unangenehmes im Sinn hat. Die Person steigt in das autonome Fahrzeug (mit ihrer Waffe, verborgen oder nicht verborgen, so oder so).

Das autonome Fahrzeug fährt zu dem vom Fahrer gewünschten Ziel. In diesem Fall befördert die KI diesen Passagier einfach programmgesteuert von einem Abholort zu einem bestimmten Ziel, so wie sie es möglicherweise schon bei Dutzenden oder Hunderten von Fahrten jeden Tag getan hat.

Wäre es ein menschlicher Fahrer und ein von Menschen gesteuertes Fahrzeug gewesen, bestünde vermutlich eine gewisse Chance, dass der menschliche Fahrer erkennen würde, dass der Passagier bewaffnet ist und offenbar böse Absichten hat. Der menschliche Fahrer könnte sich weigern, das Fahrzeug zu fahren. Oder der menschliche Fahrer fährt zur Polizeistation. Oder vielleicht versucht der menschliche Fahrer, den bewaffneten Passagier zu überwältigen (es liegen Berichten zufolge Vorfälle vor) oder ihn vom Gebrauch seiner Waffe abzubringen. Es ist ziemlich kompliziert und es kann jede Menge Variationen geben. Es fällt Ihnen schwer, zu behaupten, dass es zur Lösung einer solchen misslichen Lage nur eine richtige Antwort gibt. Leider ist die Situation beunruhigend und offensichtlich gefährlich.

In diesem Fall ist es unwahrscheinlich, dass die KI für solche Möglichkeiten programmiert ist. Kurz gesagt, der bewaffnete Passagier könnte seine Waffe während der Fahrt im autonomen Fahrzeug einsetzen können. Das KI-Fahrsystem fährt weiter und das autonome Fahrzeug fährt weiter zum angegebenen Ziel des Passagiers (vorausgesetzt, das Ziel gilt nicht anderweitig als außerhalb der Fahrgrenzen).

Die meisten modernen KI-Fahrsysteme konzentrieren sich rechnerisch nur auf die Fahrbahn und nicht auf die Anstrengungen des Fahrers.

Es kann noch schlimmer kommen.

Angenommen, jemand möchte einen Haufen Lebensmittel an einen Ort transportieren lassen, der zusätzliche Lebensmittel für Bedürftige bereitstellt. Die Person fordert ein autonomes Fahrzeug an und legt die Einkaufstüten auf den Rücksitz des Fahrzeugs. Sie machen nicht mit und nutzen lediglich das autonome Fahrzeug, um die Lebensmitteltüten für sie auszuliefern.

Scheint vollkommen in Ordnung zu sein.

Stellen Sie sich vor, dass eine heimtückische Person sich stattdessen dafür entscheidet, irgendeine Form von Waffe in das autonome Fahrzeug einzubauen, anstatt die friedlichere Vorstellung von Einkaufstüten. Ich denke, Sie können sich vorstellen, was passieren könnte. Dies ist eine Sorge, die ich in meinen Kolumnen immer wieder angemahnt und gewarnt habe und mit der wir uns eher früher als später auseinandersetzen müssen.

Eine mögliche Antwort auf solche Szenarien ist, dass vielleicht alle autonomen Fahrzeuge so programmiert werden könnten, dass sie mithilfe ihrer Kameras und anderer Sensoren erkennen, ob ein potenzieller Passagier bewaffnet ist und böse Absichten hegt. Vielleicht wäre die KI darauf programmiert. Oder die KI alarmiert elektronisch und lautlos einen entfernten menschlichen Bediener, der dann über die Kameras den Passagier visuell und auf andere Weise untersucht und möglicherweise mit ihm interagiert. Dies alles ist Teil einer komplexen und potenziell hartnäckigen Schar von Würmern, so dass es erhebliche Datenschutzprobleme und eine Vielzahl anderer potenzieller ethischer Bedenken hinsichtlich der KI aufwirft. Sehen Sie sich meine Berichterstattung an den Link hier.

Eine andere, etwas ähnliche Alternative besteht darin, dass die KI eine Art eingebettete Ethikprogrammierung enthält, die versucht, die KI in die Lage zu versetzen, ethische oder moralische Urteile zu fällen, die normalerweise menschlichen Entscheidungsträgern vorbehalten sind. Ich habe diese sich zusammenbrauenden Arten von KI-eingebetteten computergestützten Ethik-Prognostikern untersucht den Link hier und den Link hier.

Um auf ein Schlachtfeldszenario zurückzukommen: Stellen Sie sich vor, dass ein tödliches autonomes Waffensystem über einer Kampfzone kreuzt. Die KI betreibt das autonome System. Die KI bedient die Waffen an Bord. Wir hatten bereits zuvor die Möglichkeit in Betracht gezogen, dass die KI so programmiert werden könnte, dass sie nach scheinbar feindseligen Bewegungen oder anderen Anzeichen menschlicher Ziele sucht, die als gültige Kämpfer gelten.

Sollte dieselbe KI eine Art ethisch orientierte Komponente haben, die danach strebt, rechnerisch zu überlegen, was ein Mensch in der Schleife tun könnte, und gewissermaßen anstelle eines Menschen in der Schleife zu agieren?

Einige sagen ja, lasst uns das weiterverfolgen. Manche schrecken entsetzt zurück und sagen, es sei entweder unmöglich oder verletze auf andere Weise die Heiligkeit der Menschheit.

Noch eine Dose Würmer.

Fazit

Für diejenigen unter Ihnen, die sich für dieses Thema interessieren, gibt es noch viel mehr zu besprechen.

Ich gebe Ihnen einen kurzen Vorgeschmack auf ein quälendes Rätsel.

Normalerweise gehen wir davon aus, dass letztendlich ein Mensch für alles, was während eines Krieges geschieht, zur Verantwortung gezogen wird. Wenn die KI ein autonomes Waffensystem steuert oder ein autonomes System steuert, das möglicherweise zu einer Waffe gemacht wurde, und dieses System auf dem Schlachtfeld etwas tut, was als skrupellos angesehen wird, wer oder was soll dafür verantwortlich gemacht werden?

Sie könnten argumentieren, dass KI zur Rechenschaft gezogen werden sollte. Aber wenn ja, was bedeutet das genau? Wir betrachten die heutige KI noch nicht als Verkörperung der Rechtspersönlichkeit, siehe meine Erklärung unter den Link hier. Bei der KI gibt es kein Anstecken des Schwanzes am Esel. Wenn KI eines Tages empfindungsfähig wird, können Sie es vielleicht versuchen. Bis dahin ist dies noch eine gewisse Reichweite (und welche Art von Strafen oder Auswirkungen die KI erleiden würde, siehe meine Analyse unter). den Link hier und den Link hier, beispielsweise).

Wenn die KI nicht der verantwortliche Verdächtige ist, könnten wir natürlich sagen, dass der oder die Menschen, die die KI entwickelt haben, zur Rechenschaft gezogen werden sollten. Können Sie dies tun, wenn die KI lediglich ein autonomes System betreibt und einige Menschen hinzukommen, die es mit Waffen kombinieren? Verfolgen Sie die KI-Entwickler? Oder diejenigen, die die KI eingesetzt haben? Oder nur der bewaffnete Schauspieler?

Ich vertraue darauf, dass Sie den Eindruck bekommen, dass ich in meiner herzlichen Diskussion nur die Spitze des Eisbergs berührt habe.

Lassen Sie uns zunächst damit fortfahren und diesen Diskurs abschließen. Sie erinnern sich vielleicht an John Lyly in Euphues: Die Anatomie des Witzes stellte 1578 denkwürdigerweise fest, dass in der Liebe und im Krieg alles gerecht sei.

Hätte er an die Entstehung autonomer Waffensysteme gedacht und auch an die Entstehung autonomer Systeme, die mit Waffen ausgestattet sind?

Das müssen wir uns unbedingt sofort in den Kopf setzen.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- Waffensysteme-und-die-Ausbeutung-von-KI-gesteuerten-autonomen-Systemen-die-teuflisch-bewaffnet sind/