Das Implantieren rechtlicher Überlegungen in KI könnte auf intelligente Weise eine Ausrichtung auf menschliche Werte erreichen, sagt KI-Ethik und KI-Recht

In der heutigen Kolumne werde ich unzählige scheinbar unterschiedliche KI-bezogene Themen zu einem schön gewebten Stoff zusammenweben.

Sind Sie bereit?

Stellen Sie sich vor, Sie verwenden eine KI-gestützte App, die Sie bei einer wichtigen Aufgabe unterstützt. Vielleicht handelt es sich um eine finanzielle oder gesundheitliche Angelegenheit. Das Wesentliche ist, dass Sie sich auf die KI verlassen, um das Richtige zu tun und auf eine vermeintlich sichere und solide Weise zu arbeiten.

Angenommen, die KI begibt sich auf unethisches Gebiet.

Sie werden vielleicht nicht erkennen, dass die KI dies tut.

Beispielsweise könnte sich die KI auf möglicherweise verborgene diskriminierende Faktoren wie Rasse oder Geschlecht verlassen, obwohl Sie möglicherweise keine brauchbaren Mittel haben, um die unangemessene Verwendung zu erkennen. Da kriegt man ganz allein den Kürzeren durch eine KI, die entweder von vornherein auf problematische Weise konstruiert oder in brenzlige und grenzwertige ethische Gefährdungen gelenkt wurde (davon erzähle ich gleich noch mehr). das gleich).

Was können Sie tun oder was kann gegen KI getan werden, die sich dafür entscheidet, einen unethischen Weg einzuschlagen?

Neben dem Versuch, die KI im Voraus so zu konstruieren, dass sie diese Art von heimtückischen Aktionen nicht ausführt, habe ich zuvor auch detailliert beschrieben, dass es ein wachsendes Interesse an der Einbettung von gibt KI-Ethik-Check Komponente in den aufkeimenden Morast von ansonsten Wildwest-KI-Systemen, die auf den Markt geworfen werden. Die Idee ist, dass wir, um zu versuchen und zu verhindern, dass eine KI-infundierte App ethische Dimensionen verlässt, zusätzliche KI verwenden könnten, um eine Überprüfung durchzuführen. Diese hinzugefügte KI kann sich außerhalb der angestrebten KI-App befinden oder eine direkt in die KI eingebettete oder implantierte Komponente sein, die wir noch einmal überprüfen möchten.

Wie ich bereits gesagt habe, siehe den Link hier: „Ein neuerdings aufkommender Trend besteht darin, ethische Leitplanken in die KI einzubauen, die greifen, wenn der Rest eines KI-Systems damit beginnt, vorgegebene ethische Grenzen zu überschreiten. In gewisser Weise besteht das Ziel darin, die KI selbst zu nutzen, um sich davor zu bewahren, ethisch schief zu gehen. Man könnte sagen, dass wir darauf abzielen, dass KI sich selbst heilt“ (Lance Eliot, „Crafting Ethical AI That Monitors Unethical AI And Tries To Deter Bad AI From Acting Up“, Forbes, 28. März 2022).

Vielleicht finden Sie auch mein Buch von relevantem Interesse KI-Wächter-Bots, manchmal auch als Schutzengel bezeichnet, das die technischen Grundlagen dieser hochmodernen KI-in-KI-eingebetteten Double-Checker abdeckt, siehe den Link hier.

Unter dem Strich könnte Ihr Speck glücklicherweise durch die Verwendung eines eingebetteten KI-Elements zur doppelten Ethikprüfung gerettet werden, das entwickelt und in eine von Ihnen verwendete KI-App implantiert wurde. Aber wird das als Wächter ausreichen, um wirklich sicherzustellen, dass die KI Sie nicht völlig steif macht und sich auf noch schädlicheres Terrain wagt?

Sie sehen, die KI-App könnte angeblich funktionieren illegal handelt.

Es ist eine Sache, KI zu haben, die in eine Grauzone dessen geht, was wir als ethisches oder unethisches Verhalten betrachten. Ein ebenso beunruhigendes Verhalten und wahrscheinlich zunehmende Besorgnis bringt eine KI mit sich, die den Hai sozusagen überspringt und in die schäbige Dunkelheit völlig rechtswidriger Handlungen hinabsteigt.

Rechtswidrige KI ist schlecht. Es ist schlecht, illegale KI unbeaufsichtigt zu lassen. Einige Rechtsgelehrte sind offen besorgt darüber, dass das Aufkommen und die Verbreitung von KI unseren Anschein der KI allmählich und erschreckend untergraben werden Rechtsstaatlichkeit, siehe meine Analyse unter den Link hier.

Warten Sie eine Sekunde, werden Sie vielleicht sagen.

Sie könnten versucht sein zu glauben, dass KI-Entwickler dies tun würden hört niemals Programmieren Sie ihre KI so, dass sie gegen das Gesetz verstößt. Unvorstellbar. Nur böse Bösewichte würden dies tun (wobei übrigens zu bedenken ist, dass es solche gibt, die KI absichtlich für böse Zwecke entwickeln und einsetzen, ein wachsendes Interessengebiet für Kriminelle und andere, die KI für schändliche Aktivitäten einsetzen möchten).

Tut mir leid, aber es ist Wunschdenken anzunehmen, dass alle nicht bösen KI-Entwickler strikt sicherstellen werden, dass ihre KI vollständig gesetzestreu ist. Es könnte sein, dass sich die KI selbst anpasst und in illegale Aktivitäten abdriftet. Natürlich besteht auch die Möglichkeit, dass die KI-Entwickler entweder wollten, dass die KI illegal handelt, oder dass ihnen beim Erstellen der KI nicht bewusst war, was illegale oder legale Handlungen sind (ja, das ist durchaus möglich, nämlich dass a ein verkopftes All-Tech-KI-Team kann die rechtlichen Spielereien ihrer KI ignorieren, was nicht zu entschuldigen ist und dennoch mit alarmierender Häufigkeit vorkommt).

Was kann dagegen getan werden?

Noch einmal, neben dem Versuch, sicherzustellen, dass die KI-out-the-gate eisern und rechtmäßig ist, besteht ein zusätzlicher Ansatz, um Dampf zu machen, darin, eine KI-Komponente einzubetten oder zu implantieren, die den Rest der KI-App rechtlich doppelt überprüft. Diese zusätzliche KI sitzt ruhig und oft unangekündigt da und beobachtet den Rest der KI, um zu versuchen und zu erkennen, ob die KI abtrünnig wird oder zumindest die Grenzen gesetzlicher oder behördlicher Beschränkungen überschreitet.

Wir haben jetzt also zwei Arten von KI-Doppelprüfungen, die potenziell in eine KI-App eingebettet sind:

  • KI-Ethik-Doppelprüfer: In Echtzeit bewertet diese Komponente oder das KI-Add-In den Rest der KI auf ethisches und unethisches Verhalten, das die KI zeigt
  • AI Legal Double-Checker: In Echtzeit bewertet diese Komponente oder das KI-Add-In den Rest der KI, um sicherzustellen, dass sie innerhalb der gesetzlichen Eckpfeiler bleibt, und um aufkommende illegale Aktivitäten durch die KI zu erkennen

Zur Verdeutlichung, das sind relativ neue Konzepte und als solche könnte sich die KI, die Sie heute verwenden, in einem dieser gegenwärtigen Zustände befinden:

  • KI, die überhaupt keine Doppelprüfer enthält
  • KI, die einen KI-Ethik-Double-Checker enthält, aber keine anderen Double-Checker
  • AI, die einen AI Legal Double-Checker enthält, aber keine anderen Double-Checker
  • KI, die sowohl einen KI-Ethik-Doppelprüfer als auch einen KI-Rechts-Doppelprüfer hat
  • Andere

Es gibt einige ausgesprochen knifflige Aspekte, wenn sowohl der KI-Ethik-Doppelprüfer als auch der KI-Rechts-Doppelprüfer in einer KI-App als verwandte Brüder und Schwestern nebeneinander arbeiten. Dies ist eine Art Dualismus, der schwieriger zu koordinieren sein kann, als Sie vielleicht annehmen (ich denke, wir alle wissen, dass Brüder und Schwestern die engsten Bindungen haben können, obwohl sie von Zeit zu Zeit auch wie die Dickens kämpfen und sich energisch widersetzen können Ansichten).

Ich habe ausführlich diese Art von mühsam diskutiert Dualismus: „In der KI für soziales Wohl tritt ein vernachlässigter Dualismus auf, der darin besteht, dass in fortgeschrittenen KI-Systemen sowohl die Rolle künstlicher moralischer Entscheidungsträger als auch künstlicher rechtlicher Überlegungen nicht berücksichtigt werden. Die Bemühungen von KI-Forschern und KI-Entwicklern konzentrierten sich in der Regel darauf, wie man künstliche moralische Agenten herstellt und einbettet, um die moralische Entscheidungsfindung zu leiten, wenn ein KI-System im Feld operiert, aber sie haben sich nicht auch auf die Verwendung künstlicher juristischer Argumentationsfähigkeiten konzentriert und diese gekoppelt , was für solide moralische und rechtliche Ergebnisse gleichermaßen notwendig ist“ (Lance Eliot, „The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good“, Harvard University CRCS Annual Conference 2020, Harvard Center for Research and Computation Society)

Wenn Sie darüber nachdenken möchten, warum es Spannungen zwischen einem KI-Ethik-Doppelprüfer und einem KI-Rechts-Doppelprüfer geben könnte, finden Sie vielleicht dieses bemerkenswerte Zitat von umwerfender konzeptioneller Würdigkeit: „Das Gesetz kann eine bestimmte Handlung zulassen, obwohl diese Handlung unmoralisch ist; und das Gesetz kann eine Handlung verbieten, obwohl diese Handlung moralisch erlaubt oder sogar moralisch erforderlich ist“ (Shelly Kagan, Die Grenzen der Moral, 1998).

Lassen Sie uns unseren Fokus etwas verschieben und sehen, wie diese Doppelkontrolle in ein anderes stark untersuchtes KI-Thema passt, nämlich Verantwortliche KI oder eine konzertierte Betrachtung der Angleichung menschlicher Werte und KI.

Die allgemeine Vorstellung ist, dass wir eine KI wollen, die sich an angemessene und wünschenswerte menschliche Werte hält. Einige bezeichnen dies als Verantwortliche KI. Andere diskutieren ähnlich Rechenschaftspflichtige KI, Vertrauenswürdige KI und KI-Ausrichtung, die alle dasselbe Eckpfeilerprinzip berühren. Für meine Erörterung dieser wichtigen Themen siehe den Link hier und den Link hier, nur um ein paar zu nennen.

Wie können wir KI dazu bringen, sich an menschlichen Werten auszurichten?

Wie bereits angedeutet, würden wir hoffen, dass KI-Entwickler sich der Entwicklung von KI bewusst sind, die eine verantwortungsbewusste KI-Einhaltung erreicht. Bedauerlicherweise könnten sie dies aus den zuvor erläuterten Gründen nicht tun. Darüber hinaus könnten sie dies versuchen, und dennoch landet die KI bei der Selbstanpassung über den hervorstechenden Bereich ethischen Verhaltens hinaus oder möglicherweise in rechtswidrige Gewässer.

In Ordnung, wir müssen dann unsere handlichen Dandy-Doppelprüfer als Mittel in Betracht ziehen, um diese Risiken und Risiken abzusichern. Die Verwendung eines gut durchdachten KI-Ethik-Double-Checkers kann wesentlich dazu beitragen, KI an menschlichen Werten auszurichten. In ähnlicher Weise kann der Einsatz einer gut durchdachten KI-Rechtsprüfung wesentlich dazu beitragen, KI an menschlichen Werten auszurichten.

Daher würde ein entscheidendes und noch nicht bekanntes Mittel, um zu verantwortungsbewusster KI, vertrauenswürdiger KI, verantwortlicher KI, KI-Ausrichtung usw AI Legal Double-Checker, der unermüdlich als Double-Check für die KI fungiert, in die sie eingebettet sind.

In dieser Diskussion hierin möchte ich etwas näher auf das Wesen und die Konstruktionen von KI-Rechtsprüfungen eingehen, die in KI eingebettet sein könnten. Um dies zu tun, könnte es hilfreich sein, Ihnen einige zusätzliche Hintergrundinformationen zum Gesamtthema mitzuteilen KI & Recht.

Für eine sachliche Untersuchung, wie sich KI und das Gesetz vermischen, siehe meine Diskussion unter den Link hier. In meinem kritischen Blick auf die KI & Recht Kopplung biete ich diese einfache Vorstellung von zwei Hauptmöglichkeiten, KI und das Gesetz miteinander in Beziehung zu setzen:

  • (1) Auf KI anwendbares Recht: Die Formulierung, Verabschiedung und Durchsetzung von Gesetzen zur Regulierung oder Steuerung der künstlichen Intelligenz in unserer Gesellschaft
  • (2) AI-angewandtes Recht: Technologie der künstlichen Intelligenz, die entwickelt und im Recht angewendet wird, einschließlich AI-based Legal Reasoning (AILR), die in Hightech-Apps von LegalTech integriert ist, um Anwaltsaufgaben autonom oder halbautonom durchzuführen

Der erste aufgeführte Standpunkt besteht darin, zu überlegen, wie bestehende und neue Gesetze die KI regeln werden. Die zweite aufgeführte Perspektive hat mit der Anwendung von KI auf das Gesetz zu tun.

Diese letztere Kategorie beinhaltet normalerweise den Einsatz von KI-basiertem Legal Reasoning (AILR) in verschiedenen Online-Tools, die von Anwälten verwendet werden. Beispielsweise könnte KI Teil eines Contract Life Cycle Management (CLM)-Pakets sein, das Anwälten dabei hilft, Vertragssprache zu identifizieren, die für die Ausarbeitung neuer Verträge nützlich ist, oder Verträge mit rechtlich schwammiger Sprache erkennt, die Pannen oder Gesetzeslücken zulässt (Für meinen Blick auf sogenannte „Gesetzesgerüche“, die von KI wahrgenommen werden können, siehe den Link hier).

Wir werden KI unweigerlich auf das Gesetz anwenden lassen, das der Öffentlichkeit zur Verfügung steht und das keinen Anwalt erfordert, um auf dem Laufenden zu sein. Im Moment ist die Bereitstellung von KI-basierten Rechtsberatungs-Apps aufgrund verschiedener Einschränkungen, einschließlich des UPL (Unauthorized Practical of Law), eine heikle und kontroverse Angelegenheit, siehe meine Diskussion unter den Link hier.

Ich habe diese Einführung über KI & Recht angesprochen, um darauf hinzuweisen, dass eine weitere instrumentelle Verwendung von KI, die auf das Recht angewendet wird, darin besteht, KI-rechtliche Doppelprüfer zu erstellen.

Ja, die gleiche Art von technologischem Können, die mit der Anwendung von KI auf das Gesetz verbunden ist, kann als doppelte Pflicht dienen, indem die KI als eingebetteter oder implantierter KI-rechtlicher Doppelprüfer verwendet wird. Der AI Legal Double-Checker ist eine Komponente, die sich mit rechtlichen Facetten auskennen muss. Wenn der Rest der KI-App verschiedene Aktionen ausführt, prüft der AI Legal Double-Checker, ob die KI-App dies legal und innerhalb der gesetzlichen Beschränkungen tut.

Eine Double-Checker-Komponente von AI Legal muss nicht unbedingt die gesamte Bandbreite an allem abdecken, was es über das Gesetz zu wissen gibt. Abhängig von der Art der KI-App in Bezug auf den Zweck und die Aktionen der KI insgesamt, kann der AI Legal Double-Checker in Bezug auf das darin enthaltene juristische Fachwissen viel enger gefasst sein.

Ich habe einen nützlichen Rahmen identifiziert, um zu zeigen, wie sich KI im Rechtsbereich über eine Reihe von autonomen Fähigkeiten erstreckt, die als Autonomieebenen (Levels of Autonomy, LoA) bekannt sind. Eine Übersicht finden Sie unter my Forbes Kolumnenbeitrag vom 21. November 2022, „The No-Nonsense Comprehensive Conpelling Case For Why Lawyers Need To Know About AI And The Law“ unter den Link hier, und für eine detaillierte technische Beschreibung siehe meinen ausführlichen Forschungsartikel im MIT Computational Law Journal vom 7. Dezember 2021, vgl den Link hier.

Der Rahmen erläutert fünf Ebenen der KI, wie sie in rechtlichen Bemühungen verwendet werden:

  • Stufe 0: Keine Automatisierung für KI-basierte juristische Arbeit
  • Level 1: Einfache Assistenzautomatisierung für KI-basierte juristische Arbeit
  • Stufe 2: Erweiterte Assistenzautomatisierung für KI-basierte juristische Arbeit
  • Level 3: Teilautonome Automatisierung für KI-basierte juristische Arbeit
  • Level 4: Domäne autonom für KI-basierte juristische Arbeit
  • Stufe 5: Vollständig autonom für KI-basierte juristische Arbeit

Ich werde sie hier kurz beschreiben.

Stufe 0 wird als Stufe ohne Automatisierung betrachtet. Rechtliche Argumentation und juristische Aufgaben werden mit manuellen Methoden durchgeführt und erfolgen hauptsächlich über papierbasierte Ansätze.

Stufe 1 besteht aus einer einfachen Assistenzautomatisierung für KI-Rechtsbegründung. Beispiele für diese Kategorie wären die Nutzung der alltäglichen computergestützten Textverarbeitung, die Nutzung alltäglicher computergestützter Tabellenkalkulationen, der Zugriff auf elektronische Rechtsdokumente, die elektronisch gespeichert und abgerufen werden, und so weiter.

Stufe 2 besteht aus erweiterter Assistenzautomatisierung für KI-Rechtsbegründung. Beispiele für diese Kategorie wären die Verwendung von rudimentärer Verarbeitung natürlicher Sprache (NLP) im Abfragestil, vereinfachte Elemente des maschinellen Lernens (ML), statistische Analysewerkzeuge für Vorhersagen von Rechtsfällen usw.

Level 3 besteht aus halbautonomer Automatisierung für KI-Rechtsbegründung. Beispiele für diese Kategorie wären die Verwendung fortgeschrittener wissensbasierter Systeme (KBS) für rechtliches Denken, die Verwendung von maschinellem Lernen und Deep Learning (ML/DL) für rechtliches Denken, fortgeschrittenes NLP und so weiter.

Level 4 besteht aus domänenautonomen computerbasierten Systemen für KI-Rechtsbegründung. Auf dieser Ebene wird der konzeptionelle Begriff der Operational Design Domains (ODDs) wiederverwendet, wie er für selbstfahrende Autos verwendet wird, aber auf den rechtlichen Bereich angewendet wird. Rechtsbereiche können nach Funktionsbereichen wie Familienrecht, Immobilienrecht, Insolvenzrecht, Umweltrecht, Steuerrecht usw. klassifiziert werden.

Level 5 besteht aus vollständig autonomen computerbasierten Systemen für KI-Rechtsbegründung. In gewissem Sinne ist Level 5 die Obermenge von Level 4, da es alle möglichen Rechtsbereiche umfasst. Bitte beachten Sie, dass dies eine ziemlich große Aufgabe ist.

Sie können sich diese Autonomiegrade auf Augenhöhe mit den verwandten Verwendungen vorstellen, wenn Sie über selbstfahrende Autos und autonome Fahrzeuge sprechen (ebenfalls basierend auf dem offiziellen SAE-Standard, siehe meine Berichterstattung unter den Link hier). Wir haben noch keine selbstfahrenden Autos der SAE-Stufe 5. Wir nähern uns den selbstfahrenden Autos der SAE-Stufe 4. Die meisten konventionellen Autos sind auf SAE-Level 2, während einige der neueren Autos auf SAE-Level 3 stoßen.

Im juristischen Bereich haben wir Level 5 AILR noch nicht. Wir berühren etwas Level 4, wenn auch in extrem schmalen ODDs. Level 3 beginnt das Licht der Welt zu erblicken, während die Hauptstütze von AILR heute hauptsächlich auf Level 2 liegt.

Ein kürzlich erschienener Forschungsartikel über KI, wie sie auf das Gesetz angewendet wird, hat eine Typisierung postuliert, die als bekannt ist Gesetz informiert Kodex. Der Forscher erklärt dazu: „Eines der Hauptziele der Gesetz informiert Kodex Die Agenda besteht darin, der KI beizubringen, dem Geist des Gesetzes zu folgen“ (John J. Nay, „Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans“, Northwestern Journal of Technology und geistiges Eigentum, Band 20, im Erscheinen). Es gibt einige wesentliche Überlegungen, die die Gesetz informiert Kodex Mantra auftaucht, und ich werde Sie durch einige dieser Grundprinzipien führen.

Bevor ich in das Thema eintauche, möchte ich zunächst einige wesentliche Grundlagen zu KI und insbesondere zu KI-Ethik und KI-Recht legen, um sicherzustellen, dass die Diskussion kontextuell sinnvoll ist.

Das steigende Bewusstsein für ethische KI und auch KI-Recht

Die jüngste Ära der KI wurde zunächst als beendet angesehen KI für immer, was bedeutet, dass wir KI zur Verbesserung der Menschheit einsetzen könnten. Auf den Fersen von KI für immer kam die Erkenntnis, dass wir auch eingetaucht sind KI für schlecht. Dies schließt KI ein, die so entwickelt oder selbst verändert wurde, dass sie diskriminierend ist und rechnerische Entscheidungen trifft, die unangemessene Vorurteile mit sich bringen. Manchmal ist die KI so aufgebaut, während sie in anderen Fällen in dieses ungünstige Gebiet eindringt.

Ich möchte ganz sicher gehen, dass wir uns bezüglich der Natur der heutigen KI auf derselben Seite befinden.

Es gibt heute keine KI, die empfindungsfähig ist. Wir haben das nicht. Wir wissen nicht, ob empfindungsfähige KI möglich sein wird. Niemand kann treffend vorhersagen, ob wir eine empfindungsfähige KI erreichen werden oder ob die empfindungsfähige KI irgendwie auf wundersame Weise spontan in einer Form einer rechnergestützten kognitiven Supernova entstehen wird (normalerweise als Singularität bezeichnet, siehe meine Berichterstattung unter den Link hier).

Die Art von KI, auf die ich mich konzentriere, besteht aus der nicht-empfindungsfähigen KI, die wir heute haben. Wenn wir wild über empfindungsfähige KI spekulieren wollten, könnte diese Diskussion in eine radikal andere Richtung gehen. Eine empfindungsfähige KI wäre angeblich von menschlicher Qualität. Sie müssten bedenken, dass die empfindungsfähige KI das kognitive Äquivalent eines Menschen ist. Mehr noch, da einige spekulieren, dass wir eine superintelligente KI haben könnten, ist es denkbar, dass eine solche KI am Ende klüger als Menschen sein könnte (zu meiner Erforschung einer superintelligenten KI als Möglichkeit siehe die Berichterstattung hier).

Ich würde dringend vorschlagen, dass wir die Dinge auf dem Boden der Tatsachen halten und die heutige rechnerische, nicht-empfindungsfähige KI in Betracht ziehen.

Machen Sie sich bewusst, dass die heutige KI nicht in der Lage ist, in irgendeiner Weise auf Augenhöhe mit dem menschlichen Denken zu „denken“. Wenn Sie mit Alexa oder Siri interagieren, scheinen die Konversationsfähigkeiten den menschlichen Fähigkeiten ähnlich zu sein, aber die Realität ist, dass sie rechnerisch ist und menschliche Kognition fehlt. Die jüngste Ära der KI hat in großem Umfang maschinelles Lernen (ML) und Deep Learning (DL) genutzt, die den rechnergestützten Musterabgleich nutzen. Dies hat zu KI-Systemen geführt, die den Anschein menschenähnlicher Neigungen erwecken. In der Zwischenzeit gibt es heute keine KI, die einen Anschein von gesundem Menschenverstand hat und auch nicht über die kognitive Verwunderung robusten menschlichen Denkens verfügt.

Seien Sie sehr vorsichtig bei der Anthropomorphisierung der heutigen KI.

ML/DL ist eine Form des computergestützten Musterabgleichs. Der übliche Ansatz besteht darin, dass Sie Daten zu einer Entscheidungsaufgabe zusammenstellen. Sie speisen die Daten in die ML/DL-Computermodelle ein. Diese Modelle versuchen, mathematische Muster zu finden. Nachdem solche Muster gefunden wurden, verwendet das KI-System diese Muster, wenn es auf neue Daten stößt. Bei der Präsentation neuer Daten werden die auf den „alten“ oder historischen Daten basierenden Muster angewendet, um eine aktuelle Entscheidung zu treffen.

Ich denke, Sie können sich vorstellen, wohin das führt. Wenn Menschen, die die nach dem Muster getroffenen Entscheidungen getroffen haben, ungünstige Vorurteile eingebaut haben, stehen die Chancen gut, dass die Daten dies auf subtile, aber signifikante Weise widerspiegeln. Machine Learning oder Deep Learning Computational Pattern Matching versucht einfach, die Daten entsprechend mathematisch nachzuahmen. Es gibt keinen Anschein von gesundem Menschenverstand oder anderen empfindungsfähigen Aspekten der von KI erstellten Modellierung per se.

Darüber hinaus erkennen die KI-Entwickler möglicherweise auch nicht, was vor sich geht. Die obskure Mathematik in ML/DL könnte es schwierig machen, die jetzt verborgenen Vorurteile aufzuspüren. Sie würden zu Recht hoffen und erwarten, dass die KI-Entwickler auf die potenziell vergrabenen Vorurteile testen würden, obwohl dies schwieriger ist, als es scheinen mag. Es besteht eine solide Chance, dass selbst bei relativ umfangreichen Tests immer noch Vorurteile in den Mustervergleichsmodellen der ML/DL eingebettet sind.

Sie könnten das berühmte oder berüchtigte Sprichwort von Garbage-in-Garbage-out verwenden. Die Sache ist die, dass dies eher Vorurteilen ähnelt, die heimtückisch als Vorurteile in die KI einfließen. Die algorithmische Entscheidungsfindung (ADM) der KI wird zwangsläufig mit Ungerechtigkeiten beladen.

Nicht gut.

All dies hat bemerkenswerte Auswirkungen auf die KI-Ethik und bietet einen praktischen Einblick in die gewonnenen Erkenntnisse (noch bevor alle Lektionen geschehen), wenn es darum geht, KI gesetzlich zu verankern.

Neben der Anwendung von KI-Ethikregeln im Allgemeinen stellt sich die entsprechende Frage, ob wir Gesetze haben sollten, die verschiedene Verwendungen von KI regeln. Auf Bundes-, Landes- und lokaler Ebene werden neue Gesetze verbreitet, die den Umfang und die Art der Gestaltung von KI betreffen. Der Versuch, solche Gesetze zu entwerfen und zu erlassen, erfolgt schrittweise. Die KI-Ethik dient zumindest als wohlüberlegte Notlösung und wird mit ziemlicher Sicherheit bis zu einem gewissen Grad direkt in diese neuen Gesetze aufgenommen.

Beachten Sie, dass einige vehement argumentieren, dass wir keine neuen Gesetze brauchen, die KI abdecken, und dass unsere bestehenden Gesetze ausreichen. Sie warnen davor, dass wir, wenn wir einige dieser KI-Gesetze erlassen, die goldene Gans töten werden, indem wir gegen Fortschritte in der KI vorgehen, die immense gesellschaftliche Vorteile bieten.

In früheren Kolumnen habe ich die verschiedenen nationalen und internationalen Bemühungen zur Ausarbeitung und Verabschiedung von Gesetzen zur Regulierung von KI behandelt, siehe den Link hier, zum Beispiel. Ich habe auch die verschiedenen Prinzipien und Richtlinien der KI-Ethik behandelt, die verschiedene Nationen identifiziert und angenommen haben, darunter zum Beispiel die Bemühungen der Vereinten Nationen wie die UNESCO-Reihe der KI-Ethik, die fast 200 Länder angenommen haben, siehe den Link hier.

Hier ist eine hilfreiche Keystone-Liste von ethischen KI-Kriterien oder Merkmalen in Bezug auf KI-Systeme, die ich zuvor eingehend untersucht habe:

  • Transparenz
  • Gerechtigkeit & Fairness
  • Nicht-Maleficence
  • Verantwortung
  • Datenschutz
  • Wohltätigkeit
  • Freiheit & Autonomie
  • Vertrauen
  • Nachhaltigkeit
  • Würde
  • Solidarität

Diese Prinzipien der KI-Ethik sollten ernsthaft von KI-Entwicklern angewendet werden, zusammen mit denen, die KI-Entwicklungsbemühungen verwalten, und sogar von denen, die letztendlich KI-Systeme einsetzen und warten.

Alle Beteiligten während des gesamten KI-Lebenszyklus der Entwicklung und Nutzung werden im Rahmen der Einhaltung der etablierten Normen der ethischen KI berücksichtigt. Dies ist ein wichtiges Highlight, da die übliche Annahme ist, dass „nur Programmierer“ oder diejenigen, die die KI programmieren, den Grundsätzen der KI-Ethik unterliegen. Wie bereits hier betont, braucht es ein Dorf, um KI zu entwickeln und einzusetzen, und dafür muss das gesamte Dorf mit den KI-Ethikvorschriften vertraut sein und sich an diese halten.

Die habe ich kürzlich auch untersucht AI-Bill of Rights Dies ist der offizielle Titel des offiziellen Dokuments der US-Regierung mit dem Titel „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People“, das das Ergebnis jahrelanger Bemühungen des Office of Science and Technology Policy (OSTP ). Das OSTP ist eine föderale Einrichtung, die dazu dient, den amerikanischen Präsidenten und das US-Exekutivbüro in verschiedenen technologischen, wissenschaftlichen und technischen Aspekten von nationaler Bedeutung zu beraten. In diesem Sinne kann man sagen, dass diese AI Bill of Rights ein Dokument ist, das vom bestehenden US-Weißen Haus genehmigt und gebilligt wurde.

In der AI Bill of Rights gibt es fünf Schlüsselkategorien:

  • Sichere und effektive Systeme
  • Algorithmischer Diskriminierungsschutz
  • Datenschutz
  • Hinweis und Erklärung
  • Menschliche Alternativen, Rücksichtnahme und Rückfall

Ich habe diese Gebote sorgfältig überprüft, seht ihr den Link hier.

Jetzt, da ich eine hilfreiche Grundlage zu diesen verwandten Themen zu KI-Ethik und KI-Recht gelegt habe, sind wir bereit, in das berauschende Thema der KI-rechtlichen Doppelkontrolle und des Bereichs der KI einzusteigen Gesetz informiert Kodex.

In KI eingebettete KI-Rechtsprüfer für die Ausrichtung auf Mensch und Werte

beziehe ich mich manchmal auf AI Legal Double-Checker über ein Akronym von AI-LDC. Dies ist visuell etwas verwirrend für diejenigen, die mit dem Akronym nicht vertraut sind. Daher werde ich dieses spezielle Akronym in dieser Diskussion nicht verwenden, wollte es Ihnen aber als Warnung erwähnen.

Um einige der Komplexitäten der Double-Checker von AI Legal zu entpacken, lassen Sie uns diese Hauptpunkte ansprechen:

  • Verwendung von AI Legal Double-Checkers als KI-Mechanismus zur Ausrichtung menschlicher Werte
  • Eine expansivere KI erfordert entsprechend robustere KI-rechtliche Doppelprüfer
  • AI Legal-Doppelprüfer erlassen das Gesetz und machen insbesondere kein Gesetz (vermutlich)
  • Sensibles Gleichgewicht zwischen AI Legal Verkörperung des Rechts als Regeln und Standards
  • Beweise für den Pudding verlangen, wenn es darum geht, dass KI sich an das Gesetz hält

Aus Platzgründen werde ich vorerst nur auf diese fünf Punkte eingehen, aber halten Sie bitte Ausschau nach weiterer Berichterstattung in meiner Kolumne, die zusätzliche und ebenso bemerkenswerte Überlegungen zu diesen sich schnell entwickelnden und zukunftsweisenden Themen enthält.

Legen Sie jetzt gleich Ihren Sicherheitsgurt an und machen Sie sich bereit für eine belebende Fahrt.

  • Verwendung von AI Legal Double-Checkers als KI-Mechanismus zur Ausrichtung menschlicher Werte

Es gibt zahlreiche Möglichkeiten, eine harmonische Ausrichtung zwischen KI und menschlichen Werten zu erreichen.

Wie bereits erwähnt, können wir KI-Ethikregeln erstellen und verbreiten und versuchen, KI-Entwickler und diejenigen, die KI einsetzen und betreiben, dazu zu bringen, sich an diese Grundpfeiler zu halten. Leider reicht dies allein nicht aus. Sie haben einige Entwickler, die die Botschaft unweigerlich nicht verstehen. Sie haben einige Erfinder, die ethische KI zur Schau stellen und versuchen, die etwas lockeren, vorgeschriebenen Prinzipien zu umgehen. Usw.

Die Verwendung von „Soft Law“-Ansätzen, die eine KI-Ethik beinhalten, muss fast unaufhaltsam mit „Hard Law“-Möglichkeiten wie der Verabschiedung von Gesetzen und Vorschriften einhergehen, die ein starkes Signal an alle senden, die KI erstellen oder nutzen. Der lange Arm des Gesetzes könnte Sie holen, wenn Sie KI nicht mit Bedacht einsetzen. Das Geräusch von klirrenden Gefängnistüren könnte scharfe Aufmerksamkeit erregen.

Ein großes Problem ist allerdings, dass das Scheunentor die Pferde manchmal schon rausgelassen hat. Eine eingesetzte KI wird möglicherweise alle Arten von illegalen Handlungen hervorbringen und dies auch weiterhin tun, bis sie nicht nur erwischt wird, sondern auch, bis endlich einige Strafverfolgungsmaßnahmen ergriffen werden, um den Strom rechtswidriger Handlungen zu unterbinden. All das kann dauern. Unterdessen werden Menschen auf die eine oder andere Weise geschädigt.

In diesen Streifzug kommt der AI Legal Double-Checker.

Da sich der AI Legal Double-Checker in einer KI-App befindet, kann er sofort erkennen, wenn die KI anscheinend gegen das Gesetz verstößt. Der Double-Checker von AI Legal könnte die KI aufhalten. Oder die Komponente warnt Menschen rechtzeitig vor den erkannten rechtswidrigen Aktivitäten, was die Aufseher zu dringenden Korrekturmaßnahmen veranlassen könnte. Es gibt auch die erwogene formalisierte Protokollierung, die die Komponente erstellen könnte, die einen greifbaren Anschein eines Audit-Trails zum Zwecke der Kodifizierung der nachteiligen Aktionen der KI bietet.

Unsere Gesetze sollen eine Form von Multi-Agenten-Konglomeration sein, so dass die Gesetze zwangsläufig eine Mischung aus dem sind, was die Gesellschaft versucht hat, als Ausgleich zwischen wahrscheinlich widersprüchlichen Ansichten über angemessenes und unangemessenes gesellschaftliches Verhalten zu finden. Ein AI Legal Double-Checker auf der Grundlage unserer Gesetze verkörpert daher diese Mischung.

Dies ist insbesondere mehr als nur die Programmierung einer Liste endgültiger Rechtsnormen. Gesetze sind in der Regel formbarer und streben nach übergreifenden Standards, anstatt die kleinsten mikroskopisch kleinen Regeln festzulegen. Komplexitäten sind in Hülle und Fülle vorhanden.

Um auf das zuvor erwähnte Forschungspapier zurückzukommen, können diese Überlegungen auch in Bezug auf das Streben nach KI-Ausrichtung wie folgt betrachtet werden: „Das Gesetz, die angewandte Philosophie der Multi-Agenten-Ausrichtung, erfüllt diese Kriterien auf einzigartige Weise. Ausrichtung ist ein Problem, weil wir es nicht können ex ante Spezifizieren Sie Regeln, die gutes KI-Verhalten vollständig und nachweisbar lenken. Ebenso können die Parteien eines Rechtsvertrags nicht alle Eventualitäten ihrer Beziehung vorhersehen, und die Gesetzgeber können nicht die konkreten Umstände vorhersagen, unter denen ihre Gesetze angewendet werden. Deshalb ist ein Großteil des Rechts eine Konstellation von Standards“ (ebd.).

Das Gesetz in einen AI Legal Double-Checker zu integrieren, ist viel herausfordernder, als Sie zunächst annehmen.

Mit fortschreitender KI müssen wir diese Fortschritte entsprechend nutzen. Es stellt sich heraus, dass was gut für die Gans ist, auch gut für den Gänserich ist. Diejenigen von uns, die Fortschritte in der KI machen, wie sie auf das Gesetz angewendet werden, gehen an die Grenzen der KI und schmieden zweifellos neue Fortschritte, die letztendlich in den KI-Fortschritt insgesamt einfließen können.

  • Eine expansivere KI erfordert entsprechend robustere KI-rechtliche Doppelprüfer

Ein Katz-und-Maus-Gambit steht diesem Thema gegenüber.

Die Chancen stehen gut, dass je weiter die KI voranschreitet, desto schwieriger wird es für jede Double-Checker-Komponente von AI Legal, mit Angelegenheiten fertig zu werden. Beispielsweise könnte eine KI-App, die untersucht wird, neu erfundene super hinterhältige Methoden haben, um die illegalen Aktionen der KI zu verbergen. Selbst wenn die KI keinen hinterhältigen Weg einschlägt, könnte allein die Gesamtkomplexität der KI eine entmutigende Hürde für den Versuch sein, die KI-Rechtsprüfung prüfen zu lassen.

Hier erfahren Sie, wie dies besonders bedeutsam wird.

Angenommen, ein KI-Entwickler oder eine Firma, die KI verwendet, verkündet, dass es eine KI-Rechtsprüfung gibt, die in die KI-basierte App eingebettet wurde. Voila, sie scheinen ihre Hände jetzt von weiteren Bedenken gewaschen zu haben. Der Double-Checker von AI Legal kümmert sich um alles.

Nicht so.

Die KI-Rechtsprüfung ist möglicherweise für die Art der betreffenden KI-App unzureichend. Es besteht auch die Möglichkeit, dass der AI Legal Double-Checker veraltet ist und möglicherweise nicht mit den neuesten Gesetzen in Bezug auf die AI-App aktualisiert wird. Es gibt eine Reihe von Gründen, warum die bloße Anwesenheit eines AI Legal-Doppelprüfers keine Wunderwaffe sein wird.

Betrachten Sie diese Erkenntnisse aus der zuvor zitierten Forschung: „Mit fortschreitendem Stand der Technik für KI können wir iterativ höhere Maßstäbe für nachgewiesene Rechtsverständnisfähigkeiten setzen. Wenn ein Entwickler behauptet, dass sein System über fortgeschrittene Fähigkeiten für Aufgaben verfügt, sollte er ein entsprechend fortgeschrittenes Rechtsverständnis und rechtliche Argumentationsfähigkeiten der KI nachweisen, die praktisch keine Obergrenze für Schwierigkeiten haben, wenn sie den Morast von Gesetzen und Vorschriften im Laufe der Zeit, Präzedenzfälle und Gerichtsbarkeit berücksichtigen “ (ebd.).

  • AI Legal-Doppelprüfer erlassen das Gesetz und machen insbesondere kein Gesetz (vermutlich)

Ich bin sicher, dass einige von Ihnen entsetzt über die Idee sind, diese AI Legal-Doppelprüfer zu haben.

Eine oft geäußerte Sorge ist, dass wir KI offenbar erlauben werden, unsere Gesetze für uns zu bestimmen. Meine Güte, denken Sie vielleicht, ein Stück Automatisierung wird die Menschheit überholen. Diese verdammten eingebetteten KI-rechtlichen Doppelprüfer werden die Standardkönige unserer Gesetze werden. Was auch immer sie tun, es wird das sein, was das Gesetz zu sein scheint.

Menschen werden von KI regiert.

Und diese KI-Rechtsprüfungen sind der rutschige Abhang, der uns dorthin bringt.

Ein Gegenargument ist, dass solche Gespräche Stoff für Verschwörungstheorien sind. Du postulierst wild und gerätst ins Schwitzen. Die Realität ist, dass diese KI-rechtlichen Doppelprüfer nicht empfindungsfähig sind, sie werden den Planeten nicht übernehmen, und es ist einfach absurd und immens übertrieben, über ihr existenzielles Risiko zu reden.

Alles in allem, bleiben wir bei einer ruhigen und vernünftigen Haltung und müssen uns darüber im Klaren sein, dass die AI Legal Double-Checker dazu dienen, das Gesetz angemessen widerzuspiegeln und nicht absichtlich und nicht zufällig weiter gehen, um irgendwie in den verehrten Bereich des Machens zu geraten Gesetz. Abgesehen von den Extrapolationen der Empfindsamkeit können wir sicherlich zustimmen, dass es eine echte und dringende Sorge gibt, dass der Double-Checker von AI Legal am Ende die wahre Natur eines bestimmten Gesetzes falsch darstellen könnte.

Im Gegenzug könnten Sie behaupten, dass daher dieses bestimmte „falsch dargestellte“ Gesetz im Wesentlichen neu gemacht wird, da es nicht mehr angemessen bedeutet, was mit dem tatsächlichen Gesetz beabsichtigt war. Ich vertraue darauf, dass Sie offen erkennen können, dass dies eine subtile, aber aufschlussreiche Überlegung ist. Zu jedem Zeitpunkt könnte der KI-Rechtsprüfer auf virtueller Basis neue Gesetze erlassen oder sollen wir sagen „halluzinieren“, einfach dadurch, wie die KI-Komponente das Gesetz so interpretiert, wie es ursprünglich in der KI angegeben oder verkörpert ist (für meine Berichterstattung von KI sog Halluzinationen, Siehe den Link hier).

Darauf muss streng geachtet werden.

Zu diesem Thema bietet die oben erwähnte Forschungsstudie diesen parallelen Gedanken an, um zu versuchen, das Überschreiten dieser heiligen Grenze zu vermeiden: „Wir zielen nicht darauf ab, dass KI die Legitimität hat, Gesetze zu machen, Präzedenzfälle zu schaffen oder Gesetze durchzusetzen. Tatsächlich würde dies unseren Ansatz untergraben (und wir sollten erhebliche Anstrengungen unternehmen, um dies zu verhindern). Vielmehr besteht das ehrgeizigste Ziel des Law Informing Code darin, die Verallgemeinerbarkeit bestehender Rechtskonzepte und -standards rechnerisch zu codieren und in validierte KI-Leistung einzubetten“ (ebd.).

  • Sensibles Gleichgewicht zwischen AI Legal Verkörperung des Rechts als Regeln und Standards

Gesetze sind chaotisch.

Für fast jedes Gesetz in den Büchern gibt es wahrscheinlich eine Vielzahl von Interpretationen darüber, was das Gesetz in der tatsächlichen Praxis vorschreibt. Im Sprachgebrauch der KI bezeichnen wir Gesetze als semantisch mehrdeutig. Das macht die Entwicklung von KI in Anwendung auf das Recht zu einer so spannenden und zugleich irritierenden Herausforderung. Im Gegensatz zu der genauen Berechnung von Zahlen, die Sie vielleicht bei finanzorientierten KI-Anwendungen sehen, bringt der Wunsch, unsere Gesetze in KI zu verkörpern, die Auseinandersetzung mit einem Tsunami semantischer Mehrdeutigkeiten mit sich.

In dem Buch meiner Stiftung über die Grundlagen des AI Legal Reasoning (AILR) diskutiere ich, wie frühere Versuche, Gesetze lediglich in einen Satz begrenzter Regeln zu kodifizieren, uns im Rechtsbereich nicht so weit gebracht haben, wie wir gerne gehen würden (siehe den Link hier). Die heutige AILR muss eine Integration zwischen der Verwendung von Regeln und dem, was als übergreifende Standards bezeichnet werden könnte, umfassen, die das Gesetz darstellt.

Dieses wichtige Gleichgewicht lässt sich folgendermaßen ausdrücken: „In der Praxis landen die meisten Rechtsvorschriften irgendwo auf einem Spektrum zwischen reiner Regel und reinem Standard, und die Rechtstheorie kann helfen, die richtige Kombination von „Regelhaftigkeit“ und „Standardhaftigkeit“ einzuschätzen. bei der Zielvorgabe von KI-Systemen“ (ebd.).

  • Beweise für den Pudding verlangen, wenn es darum geht, dass KI sich an das Gesetz hält

Etwas zu wollen ist etwas anderes als etwas zu haben.

Dieses bisschen Weisheit kommt auf, wenn wir anbieten, dass wir, obwohl wir AI Legal Double-Checker haben möchten, reichlich sicherstellen müssen, dass sie funktionieren und richtig funktionieren. Beachten Sie, dass dies eine weitere harte und zermürbende Hürde darstellt. Ich habe zuvor die neuesten Fortschritte und Herausforderungen bei der Verifizierung und Validierung von KI behandelt, siehe den Link hier.

Wie in der Forschungsarbeit erwähnt: „Um die Lücke zu schließen, sollte die einsetzende Partei das Verständnis des Systems für menschliche Ziele, Richtlinien und rechtliche Standards demonstrieren, bevor KI-Modelle in zunehmend agentischen Kapazitäten eingesetzt werden, z. B. vollständig autonome Fahrzeuge auf Hauptstraßen. Ein Validierungsverfahren könnte das „Verständnis“ der KI für die „Bedeutung“ von Rechtsbegriffen veranschaulichen“ (ebd.).

Fazit

Ich fordere Sie auf, in Betracht zu ziehen, sich mir bei dieser edlen Suche anzuschließen, um KI-Rechtsprüfer zu bauen und einzusetzen. Wir brauchen mehr Aufmerksamkeit und Ressourcen für dieses tugendhafte Streben.

Dies stellt auch, wie bereits erwähnt, eine doppelte Pflicht dar, um AI Legal Reasoning (AILR) zu erreichen, das zur Unterstützung von Anwälten und möglicherweise direkt von der Öffentlichkeit verwendet werden kann. In der Tat argumentieren einige vehement, dass das einzige praktikable Mittel, um zu einem umfassenderen Gefühl des Zugangs zur Justiz (A2J) zu gelangen, die Entwicklung einer KI sein wird, die Rechtsfähigkeiten verkörpert und für alle zugänglich ist.

Ein kurzer letzter Punkt für jetzt.

Die bisherige Diskussion hat betont, dass der AI Legal Double-Checker in AI eingebettet oder implantiert würde. Dies ist in der Tat der Hauptfokus derer, die diesen aufstrebenden Bereich erforschen und betreiben.

Hier ist eine Frage, über die es sich nachzudenken lohnt.

Setzen Sie Ihre Denkmütze auf.

Warum nicht in jeder Software die Doppelprüfer von AI Legal verwenden?

Das Wesentliche ist, dass wir vielleicht unseren Blickwinkel erweitern sollten, anstatt ausschließlich die KI-Rechtsprüfer in der KI zu verwenden. Alle Arten von Software können legal in die Irre gehen. KI hat zugegebenermaßen den Löwenanteil der Aufmerksamkeit aufgrund der Art und Weise erlangt, wie KI normalerweise eingesetzt wird, wie z. B. das Treffen von herzzerreißenden Entscheidungen, die sich auf den Menschen in seinem täglichen Leben auswirken. Man könnte jedoch ohne Weiteres behaupten, dass es viele Nicht-KI-Systeme gibt, die das Gleiche tun.

Im Wesentlichen sollten wir keiner Software freien Lauf lassen, um das Gesetz zu umgehen oder abzuwenden.

Denken Sie auch daran, dass ich die beiden Kategorien der Kombination von KI und Gesetz erwähnt habe. Wir haben uns hier auf die Verwendung von KI im Sinne des Gesetzes konzentriert. Auf der anderen Seite der Medaille steht die Anwendung des Gesetzes auf KI. Angenommen, wir erlassen Gesetze, die den Einsatz von AI Legal Double-Checkern erfordern.

Dies mag sich zunächst auf KI-Systeme beschränken, insbesondere solche, die als besonders risikoreich eingestuft werden. Nach und nach könnte die gleiche AI ​​Legal Double-Checker-Anforderung auch auf Nicht-AI-Software ausgeweitet werden. Wieder keine Freifahrten.

Während Sie sich mit der obigen Überlegung befassen, werde ich die Dinge als abschließenden Teaser aufpeppen. Wenn wir versuchen, KI-Rechtsprüfer zu fordern, könnten wir dies auch in Bezug auf KI-Ethik-Doppelprüfer tun. Der Einsatz eines KI-rechtlichen Double-Checkers ist nur die halbe Miete, und wir können auch die KI-Ethikbedenken nicht vernachlässigen oder vergessen.

Ich werde diesen unbeschwerten Diskurs mit einem meiner Lieblingszitate beenden. Gemäß den weisen Worten von Earl Warren, dem berühmten Juristen, der als Oberster Richter der Vereinigten Staaten diente: „Im zivilisierten Leben schwimmt das Gesetz in einem Meer von Ethik.“

Es könnte am besten sein, diese aufstrebenden und sprudelnden KI-Rechtsprüfer und KI-Ethik-Doppelprüfer lautstark in eifrigen Gebrauch zu setzen, wenn wir unseren Kopf über möglicherweise drohender schwerer See von sauren KI- und mürrischen Nicht-KI-Systemen halten wollen, die unsere Sicherheit gefährden .

Sie könnten die Rettungsweste der Menschheit sein.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- und-ai-gesetz/