KI-Ethik und KI-Recht wägen die wichtigsten Möglichkeiten zur Umsetzung der kürzlich veröffentlichten KI-Grundrechte ab, einschließlich und erstaunlicherweise durch den direkten Einsatz von KI

Es besteht kein Zweifel, dass wir in unserem täglichen Leben Blaupausen brauchen.

Wenn Sie Ihr lang ersehntes Traumhaus bauen möchten, sollten Sie zunächst einen brauchbaren Bauplan zusammenstellen.

Eine Blaupause zeigt auf greifbare und dokumentierte Weise, welche visionäre Perspektive mit weit aufgerissenen Augen in Ihrem Noggin eingeschlossen sein könnte. Diejenigen, die aufgefordert werden, Ihr geliebtes Gehöft zu errichten, können sich auf den Bauplan beziehen und die Details festnageln, wie die Arbeit erledigt werden kann. Blaupausen sind praktisch. Das Fehlen einer Blaupause ist zwangsläufig problematisch für die Bewältigung jeglicher Art von komplexer Aufgabe oder Projekt.

Lassen Sie uns diese etwas sentimentale, aber aufrichtige Hommage an Blaupausen in den Bereich der künstlichen Intelligenz (KI) verschieben.

Diejenigen unter Ihnen, die sich intensiv mit KI beschäftigen, sind sich vielleicht vage bewusst, dass eine wichtige politikorientierte Entwurf wurde kürzlich in den USA veröffentlicht, die sich nachweislich auf die Zukunft der KI bezieht. Informell bekannt als die AI-Bill of Rights, der offizielle Titel des proklamierten Whitepapers lautet „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People“ und ist online verfügbar.

Das Dokument ist das Ergebnis jahrelanger Bemühungen und sorgfältiger Studien des Office of Science and Technology Policy (OSTP). Das OSTP ist eine föderale Einrichtung, die Mitte der 1970er Jahre gegründet wurde und dazu dient, den amerikanischen Präsidenten und das US-Exekutivbüro in verschiedenen technologischen, wissenschaftlichen und technischen Aspekten von nationaler Bedeutung zu beraten. In diesem Sinne kann man sagen, dass diese AI Bill of Rights ein Dokument ist, das vom bestehenden US-Weißen Haus genehmigt und gebilligt wurde.

Die AI Bill of Rights zeigt die Menschenrechte die die Menschheit in Bezug auf das Aufkommen von KI in unserem täglichen Leben haben sollte. Ich betone diesen gewichtigen Punkt, weil einige Leute zunächst verwirrt waren, dass dies vielleicht eine Art Anerkennung der Rechtspersönlichkeit von KI war und dass dies eine Litanei von Rechten für empfindungsfähige KI und humanoide Roboter war. Nein, wir sind noch nicht da. Wie Sie gleich sehen werden, sind wir trotz der Schlagzeilen, die uns etwas anderes zu sagen scheinen, nicht in der Nähe einer empfindungsfähigen KI.

Okay, brauchen wir also eine Blaupause, die die Menschenrechte im Zeitalter der KI konkretisiert?

Ja, das tun wir mit Sicherheit.

Sie müssten fast in einer Höhle eingesperrt sein und keinen Internetzugang haben, um nicht zu wissen, dass KI bereits und zunehmend in unsere Rechte eingreift. Die jüngste Ära der KI wurde zunächst als beendet angesehen KI für immer, was bedeutet, dass wir KI zur Verbesserung der Menschheit einsetzen könnten. Auf den Fersen von KI für immer kam die Erkenntnis, dass wir auch eingetaucht sind KI für schlecht. Dies schließt KI ein, die so entwickelt oder selbst verändert wurde, dass sie diskriminierend ist und rechnerische Entscheidungen trifft, die unangemessene Vorurteile mit sich bringen. Manchmal ist die KI so aufgebaut, während sie in anderen Fällen in dieses ungünstige Gebiet eindringt.

Für meine fortlaufende und umfassende Berichterstattung und Analyse von KI-Recht, KI-Ethik und anderen wichtigen technologischen und gesellschaftlichen KI-Trends siehe den Link hier und den Link hier, nur um ein paar zu nennen.

Auspacken der KI-Bill of Rights

Ich habe die AI Bill of Rights bereits besprochen und werde hier eine kurze Zusammenfassung geben.

Nebenbei bemerkt, wenn Sie meine ausführlichen Vor- und Nachteile der kürzlich veröffentlichten KI-Bill of Rights kennenlernen möchten, habe ich meine Analyse in einem Beitrag auf der ausführlich beschrieben Jurist, Siehe den Link hierdem „Vermischten Geschmack“. Seine Jurist ist eine bemerkenswerte Online-Website für juristische Nachrichten und Kommentare, die weithin als preisgekrönter juristischer Nachrichtendienst bekannt ist, der von einem globalen Team von Jurastudenten, Reportern, Redakteuren, Kommentatoren, Korrespondenten und Inhaltsentwicklern betrieben wird und seinen Hauptsitz an der University of Pittsburgh School of hat Law in Pittsburgh, wo es vor über 25 Jahren begann. Shoutout an das hervorragende und fleißige Team von Jurist.

In der AI Bill of Rights gibt es fünf Schlüsselkategorien:

  • Sichere und effektive Systeme
  • Algorithmischer Diskriminierungsschutz
  • Datenschutz
  • Hinweis und Erklärung
  • Menschliche Alternativen, Rücksichtnahme und Rückfall

Beachten Sie, dass ich sie nicht von eins bis fünf nummeriert habe, da dies bedeuten könnte, dass sie in einer bestimmten Reihenfolge stehen oder dass eines der Rechte scheinbar wichtiger ist als das andere. Wir gehen davon aus, dass sie jeweils ihre eigenen Vorzüge haben. Sie sind alle in gewissem Sinne gleichermaßen verdienstvoll.

Als kurzen Hinweis darauf, woraus jeder besteht, hier ein Auszug aus dem offiziellen Whitepaper:

  • Sichere und effektive Systeme: „Sie sollten vor unsicheren oder ineffektiven Systemen geschützt werden. Automatisierte Systeme sollten mit Rücksprache mit verschiedenen Gemeinschaften, Interessengruppen und Fachexperten entwickelt werden, um Bedenken, Risiken und potenzielle Auswirkungen des Systems zu identifizieren.“
  • Algorithmischer Diskriminierungsschutz: „Sie sollten nicht durch Algorithmen diskriminiert werden und Systeme sollten gerecht eingesetzt und gestaltet werden. Algorithmische Diskriminierung tritt auf, wenn automatisierte Systeme zu einer ungerechtfertigten unterschiedlichen Behandlung beitragen oder Menschen aufgrund ihrer Rasse, Hautfarbe, ethnischen Zugehörigkeit, ihres Geschlechts (einschließlich Schwangerschaft, Geburt und damit zusammenhängender Erkrankungen, Geschlechtsidentität, intersexueller Status und sexuelle Orientierung), Religion oder Alter benachteiligen , nationale Herkunft, Behinderung, Veteranenstatus, genetische Informationen oder jede andere gesetzlich geschützte Klassifizierung.“
  • Datenprivatsphäre: „Sie sollten durch integrierte Schutzmaßnahmen vor missbräuchlichen Datenpraktiken geschützt werden und Sie sollten die Entscheidungsgewalt darüber haben, wie Ihre Daten verwendet werden. Sie sollten durch Designentscheidungen vor Verletzungen der Privatsphäre geschützt werden, die sicherstellen, dass solche Schutzmaßnahmen standardmäßig enthalten sind, einschließlich der Sicherstellung, dass die Datenerfassung angemessenen Erwartungen entspricht und dass nur Daten erfasst werden, die für den spezifischen Kontext unbedingt erforderlich sind.“
  • Hinweis und Erklärung: „Sie sollten wissen, dass ein automatisiertes System verwendet wird, und verstehen, wie und warum es zu Ergebnissen beiträgt, die Sie beeinflussen. Designer, Entwickler und Betreiber von automatisierten Systemen sollten eine allgemein zugängliche Dokumentation in einfacher Sprache bereitstellen, einschließlich klarer Beschreibungen der Gesamtsystemfunktion und der Rolle, die die Automatisierung spielt, Hinweise darauf geben, dass solche Systeme verwendet werden, die Person oder Organisation, die für das System verantwortlich ist, und Erklärungen dazu Ergebnisse, die klar, zeitnah und zugänglich sind.“
  • Menschliche Alternativen, Überlegung und Rückfall: „Sie sollten sich gegebenenfalls abmelden können und Zugang zu einer Person haben, die Probleme, auf die Sie stoßen, schnell prüfen und beheben kann. Sie sollten in der Lage sein, sich gegebenenfalls von automatisierten Systemen zugunsten einer menschlichen Alternative abzumelden.“

Im Großen und Ganzen sind dies Facetten der Menschenrechte, die im Zusammenhang mit KI-Ethik und KI-Recht schon seit geraumer Zeit herumgereicht werden, siehe meine Berichterstattung wie unter den Link hier. Das Weißbuch zieht scheinbar nicht auf magische Weise ein Kaninchen aus dem Hut, was ein neu entdecktes oder ausgegrabenes Recht betrifft, das bisher im Kontext der KI-Ära nicht erläutert wurde.

Das ist okay.

Man könnte behaupten, dass ihre Zusammenstellung zu einer ordentlich verpackten und formalisierten Sammlung einen wichtigen Dienst leistet. Plus, indem man als gefeierter gesalbt wird AI-Bill of Rights, bringt dies die ganze Angelegenheit weiter offen und gekonnt ins Bewusstsein der Öffentlichkeit. Es verschmilzt eine bestehende Fülle unterschiedlicher Diskussionen zu einem einzigartigen Satz, der nun von allen Arten von Interessengruppen propagiert und vermittelt werden kann.

Erlauben Sie mir, diese Liste positiver Reaktionen auf die angekündigte KI-Bill of Rights vorzustellen:

  • Bietet eine wesentliche Zusammenstellung von Keystone-Prinzipien
  • Dient als Blaupause oder Grundlage, auf der aufgebaut werden kann
  • Fungiert als lautstarker Call-to-Action
  • Weckt Interesse und zeigt, dass dies ernsthafte Überlegungen sind
  • Bringt eine Vielzahl unterschiedlicher Diskussionen zusammen
  • Entfacht und trägt zu den Bemühungen um die Einführung ethischer KI bei
  • Wird zweifellos in die Einführung von KI-Gesetzen einfließen
  • Andere

Wir müssen auch die weniger positiven Reaktionen berücksichtigen, wenn wir berücksichtigen, dass noch viel zu tun ist und dass dies nur der Beginn einer langen Reise auf dem beschwerlichen Weg der Steuerung von KI ist.

Zu den etwas harten oder sollen wir sagen konstruktiven Kritiken an der KI-Bill of Rights gehören:

  • Nicht rechtlich durchsetzbar und völlig unverbindlich
  • Nur beratend und nicht als Regierungspolitik betrachtet
  • Weniger umfassend im Vergleich zu anderen veröffentlichten Werken
  • Besteht hauptsächlich aus breiten Konzepten und es fehlen Implementierungsdetails
  • Es wird eine Herausforderung sein, sich in tatsächlich realisierbare praktische Gesetze zu verwandeln
  • Scheinbar still über das drohende Problem eines möglichen Verbots von KI in einigen Zusammenhängen
  • Erkennt am Rande die Vorteile der Verwendung von gut durchdachter KI an
  • Andere

Der vielleicht prominenteste bissige Kommentar konzentrierte sich auf die Tatsache, dass diese KI-Bill of Rights nicht rechtlich durchsetzbar ist und daher kein Wasser hält, wenn es darum geht, klare Zielpfosten zu etablieren. Einige haben gesagt, dass das Weißbuch zwar hilfreich und ermutigend ist, ihm aber entschieden die Zähne fehlen. Sie stellen in Frage, was aus einem vermeintlich hohlzahnigen Satz raffinierter Vorschriften werden kann.

Ich werde diese bissigen Bemerkungen gleich ansprechen.

In der Zwischenzeit gibt das Whitepaper ausführlich die Einschränkungen dessen an, was diese KI-Bill of Rights mit sich bringt:

  • „Der Blueprint for a AI Bill of Rights ist unverbindlich und stellt keine Politik der US-Regierung dar. Es ersetzt, modifiziert oder lenkt keine Auslegung bestehender Gesetze, Vorschriften, Richtlinien oder internationaler Instrumente. Es stellt keine verbindliche Anleitung für die Öffentlichkeit oder Bundesbehörden dar und erfordert daher nicht die Einhaltung der hier beschriebenen Grundsätze. Es ist auch nicht ausschlaggebend für die Position der US-Regierung in internationalen Verhandlungen. Die Annahme dieser Grundsätze entspricht möglicherweise nicht den Anforderungen bestehender Gesetze, Vorschriften, Richtlinien oder internationaler Instrumente oder den Anforderungen der Bundesbehörden, die sie durchsetzen. Diese Grundsätze sollen keine rechtmäßigen Aktivitäten einer Regierungsbehörde, einschließlich Strafverfolgung, nationaler Sicherheit oder Geheimdienstaktivitäten, verbieten oder einschränken“ (laut Whitepaper).

Für diejenigen, die die AI Bill of Rights schnell als rechtlich unverbindlich unterboten haben, lassen Sie uns ein kleines Gedankenexperiment zu dieser stechenden Behauptung machen. Angenommen, das Weißbuch wurde veröffentlicht und hätte die volle Kraft des Gesetzes. Ich wage zu behaupten, dass das Ergebnis etwas katastrophal wäre, zumindest in Bezug auf die rechtlichen und gesellschaftlichen Reaktionen auf die Proklamation.

Der Gesetzgeber würde sich darüber aufregen, dass die Bemühungen um die normativen Prozesse und rechtlichen Verfahren zur Zusammenstellung solcher Gesetze nicht unternommen wurden. Unternehmen würden sich zu Recht darüber aufregen, dass neue Gesetze ohne ausreichende Benachrichtigung und Kenntnis dessen, was diese Gesetze sind, hervorgebracht werden. Bestürzung und Empörung aller Art würden die Folge sein.

Kein guter Weg, um die Rechte der Menschheit in einer KI-Ära zu festigen.

Denken Sie daran, dass ich diese Diskussion zuvor damit begonnen hatte, den Wert und die Vitalität von Blaupausen anzusprechen.

Stellen Sie sich vor, jemand hätte den Schritt des Erstellens von Bauplänen übersprungen und sich sofort in den Bau Ihres Traumhauses gestürzt. Wie würde das Haus Ihrer Meinung nach aussehen? Es scheint eine faire Wette zu sein, dass das Haus nicht besonders zu dem passt, was Sie sich vorgestellt haben. Das resultierende Gehöft könnte ein völliges Durcheinander sein.

Das Wesentliche ist, dass wir Blaupausen brauchen, und wir haben jetzt eine, um voranzukommen, vernünftige KI-Gesetze zu finden und ethische KI-Annahmen zu stärken.

Ich möchte daher die Möglichkeiten ansprechen, wie aus dieser KI-Bill of Rights sozusagen ein Haus gemacht werden kann. Wie werden wir die Blaupause nutzen? Was sind die geeigneten nächsten Schritte? Kann diese Blaupause ausreichen oder braucht es mehr Fleisch auf den Knochen?

Bevor wir uns diesen heiklen Angelegenheiten zuwenden, möchte ich zunächst sicherstellen, dass wir alle auf derselben Seite sind, was die Natur der KI und den heutigen Status betrifft.

Richtig aufklären über die heutige KI

Ich möchte ein sehr deutliches Statement abgeben.

Sind Sie bereit?

Es gibt heute keine KI, die empfindungsfähig ist.

Wir haben das nicht. Wir wissen nicht, ob empfindungsfähige KI möglich sein wird. Niemand kann treffend vorhersagen, ob wir eine empfindungsfähige KI erreichen werden oder ob die empfindungsfähige KI irgendwie auf wundersame Weise spontan in einer Form einer rechnergestützten kognitiven Supernova entstehen wird (normalerweise als Singularität bezeichnet, siehe meine Berichterstattung unter den Link hier).

Die Art von KI, auf die ich mich konzentriere, besteht aus der nicht-empfindungsfähigen KI, die wir heute haben. Wenn wir wild über empfindungsfähige KI spekulieren wollten, könnte diese Diskussion in eine radikal andere Richtung gehen. Eine empfindungsfähige KI wäre angeblich von menschlicher Qualität. Sie müssten bedenken, dass die empfindungsfähige KI das kognitive Äquivalent eines Menschen ist. Mehr noch, da einige spekulieren, dass wir eine superintelligente KI haben könnten, ist es denkbar, dass eine solche KI am Ende klüger als Menschen sein könnte (zu meiner Erforschung einer superintelligenten KI als Möglichkeit siehe die Berichterstattung hier).

Ich würde dringend vorschlagen, dass wir die Dinge auf dem Boden der Tatsachen halten und die heutige rechnerische, nicht-empfindungsfähige KI in Betracht ziehen.

Machen Sie sich bewusst, dass die heutige KI nicht in der Lage ist, in irgendeiner Weise auf Augenhöhe mit dem menschlichen Denken zu „denken“. Wenn Sie mit Alexa oder Siri interagieren, scheinen die Konversationsfähigkeiten den menschlichen Fähigkeiten ähnlich zu sein, aber die Realität ist, dass sie rechnerisch ist und menschliche Kognition fehlt. Die jüngste Ära der KI hat in großem Umfang maschinelles Lernen (ML) und Deep Learning (DL) genutzt, die den rechnergestützten Musterabgleich nutzen. Dies hat zu KI-Systemen geführt, die den Anschein menschenähnlicher Neigungen erwecken. In der Zwischenzeit gibt es heute keine KI, die einen Anschein von gesundem Menschenverstand hat und auch nicht über die kognitive Verwunderung robusten menschlichen Denkens verfügt.

Seien Sie sehr vorsichtig bei der Anthropomorphisierung der heutigen KI.

ML/DL ist eine Form des computergestützten Musterabgleichs. Der übliche Ansatz besteht darin, dass Sie Daten zu einer Entscheidungsaufgabe zusammenstellen. Sie speisen die Daten in die ML/DL-Computermodelle ein. Diese Modelle versuchen, mathematische Muster zu finden. Nachdem solche Muster gefunden wurden, verwendet das KI-System diese Muster, wenn es auf neue Daten stößt. Bei der Präsentation neuer Daten werden die auf den „alten“ oder historischen Daten basierenden Muster angewendet, um eine aktuelle Entscheidung zu treffen.

Ich denke, Sie können sich vorstellen, wohin das führt. Wenn Menschen, die die nach dem Muster getroffenen Entscheidungen getroffen haben, ungünstige Vorurteile eingebaut haben, stehen die Chancen gut, dass die Daten dies auf subtile, aber signifikante Weise widerspiegeln. Machine Learning oder Deep Learning Computational Pattern Matching versucht einfach, die Daten entsprechend mathematisch nachzuahmen. Es gibt keinen Anschein von gesundem Menschenverstand oder anderen empfindungsfähigen Aspekten der von KI erstellten Modellierung per se.

Darüber hinaus erkennen die KI-Entwickler möglicherweise auch nicht, was vor sich geht. Die obskure Mathematik in ML/DL könnte es schwierig machen, die jetzt verborgenen Vorurteile aufzuspüren. Sie würden zu Recht hoffen und erwarten, dass die KI-Entwickler auf die potenziell vergrabenen Vorurteile testen würden, obwohl dies schwieriger ist, als es scheinen mag. Es besteht eine solide Chance, dass selbst bei relativ umfangreichen Tests immer noch Vorurteile in den Mustervergleichsmodellen der ML/DL eingebettet sind.

Sie könnten das berühmte oder berüchtigte Sprichwort von Garbage-in-Garbage-out verwenden. Die Sache ist die, dass dies eher Vorurteilen ähnelt, die heimtückisch als Vorurteile in die KI einfließen. Die algorithmische Entscheidungsfindung (ADM) der KI wird zwangsläufig mit Ungerechtigkeiten beladen.

Nicht gut.

All dies hat bemerkenswerte Auswirkungen auf die KI-Ethik und bietet einen praktischen Einblick in die gewonnenen Erkenntnisse (noch bevor alle Lektionen geschehen), wenn es darum geht, KI gesetzlich zu verankern.

Neben der Anwendung von KI-Ethikregeln im Allgemeinen stellt sich die entsprechende Frage, ob wir Gesetze haben sollten, die verschiedene Verwendungen von KI regeln. Auf Bundes-, Landes- und lokaler Ebene werden neue Gesetze verbreitet, die den Umfang und die Art der Gestaltung von KI betreffen. Der Versuch, solche Gesetze zu entwerfen und zu erlassen, erfolgt schrittweise. Die KI-Ethik dient zumindest als wohlüberlegte Notlösung und wird mit ziemlicher Sicherheit bis zu einem gewissen Grad direkt in diese neuen Gesetze aufgenommen.

Beachten Sie, dass einige vehement argumentieren, dass wir keine neuen Gesetze brauchen, die KI abdecken, und dass unsere bestehenden Gesetze ausreichen. Sie warnen davor, dass wir, wenn wir einige dieser KI-Gesetze erlassen, die goldene Gans töten werden, indem wir gegen Fortschritte in der KI vorgehen, die immense gesellschaftliche Vorteile bieten.

In früheren Kolumnen habe ich die verschiedenen nationalen und internationalen Bemühungen zur Ausarbeitung und Verabschiedung von Gesetzen zur Regulierung von KI behandelt, siehe den Link hier, zum Beispiel. Ich habe auch die verschiedenen Prinzipien und Richtlinien der KI-Ethik behandelt, die verschiedene Nationen identifiziert und angenommen haben, darunter zum Beispiel die Bemühungen der Vereinten Nationen wie die UNESCO-Reihe der KI-Ethik, die fast 200 Länder angenommen haben, siehe den Link hier.

Hier ist eine hilfreiche Keystone-Liste von ethischen KI-Kriterien oder Merkmalen in Bezug auf KI-Systeme, die ich zuvor eingehend untersucht habe:

  • Transparenz
  • Gerechtigkeit & Fairness
  • Nicht-Maleficence
  • Verantwortung
  • Datenschutz
  • Wohltätigkeit
  • Freiheit & Autonomie
  • Vertrauen
  • Nachhaltigkeit
  • Würde
  • Solidarität

Diese Prinzipien der KI-Ethik sollten ernsthaft von KI-Entwicklern angewendet werden, zusammen mit denen, die KI-Entwicklungsbemühungen verwalten, und sogar von denen, die letztendlich KI-Systeme einsetzen und warten.

Alle Beteiligten während des gesamten KI-Lebenszyklus der Entwicklung und Nutzung werden im Rahmen der Einhaltung der etablierten Normen der ethischen KI berücksichtigt. Dies ist ein wichtiges Highlight, da die übliche Annahme ist, dass „nur Programmierer“ oder diejenigen, die die KI programmieren, den Grundsätzen der KI-Ethik unterliegen. Wie bereits hier betont, braucht es ein Dorf, um KI zu entwickeln und einzusetzen, und dafür muss das gesamte Dorf mit den KI-Ethikvorschriften vertraut sein und sich an diese halten.

Jetzt, da ich eine hilfreiche Grundlage gelegt habe, sind wir bereit, weiter in die KI-Bill of Rights einzutauchen.

Vier wesentliche Wege zur Umsetzung der AI Bill of Rights

Jemand gibt dir einen Bauplan und sagt dir, dass du dich an die Arbeit machen sollst.

Was tun Sie?

Betrachten Sie im Fall der KI-Bill of Rights als Blaupause diese vier wesentlichen Schritte, um voranzukommen:

  • Als Input für die Formulierung von KI-Gesetzen dienen: Verwenden Sie die Blaupause, um bei der Formulierung von KI-Gesetzen zu helfen, und tun Sie dies hoffentlich auf einer abgestimmten Grundlage auf Bundes-, Landes- und lokaler Ebene (möglicherweise auch zur Unterstützung internationaler rechtlicher Bemühungen um KI).
  • Unterstützung bei der Verbreitung der KI-Ethik: Verwenden Sie die Blaupause, um KI-Ethikformulierungen zu fördern (manchmal als „weiche Gesetze“ im Vergleich zu rechtsverbindlichen „harten Gesetzen“ bezeichnet), um Unternehmen, Einzelpersonen, Regierungsbehörden und andere Interessengruppen zu einer besseren und konsistenteren Ethik zu inspirieren und anzuleiten KI-Ergebnisse.
  • KI-Entwicklungsaktivitäten gestalten: Verwenden Sie die Blaupause, um die Entwicklung von KI-Entwicklungsmethoden und Schulungsaspekten voranzutreiben, und versuchen Sie so, KI-Entwickler und diejenigen, die KI einsetzen oder anwenden, dazu zu bringen, sich bewusster darüber zu werden, wie KI gemäß den wünschenswerten Grundsätzen der KI-Ethik und im Vorgriff entwickelt werden kann von bevorstehenden KI-Gesetzen, die erlassen werden.
  • Motivieren Sie das Aufkommen von KI, um bei der Kontrolle von KI zu helfen: Verwenden Sie die Blaupause, um eine KI zu entwickeln, die verwendet wird, um zu versuchen, als Check-and-Balance gegen andere KI zu dienen, die möglicherweise in das ungünstige Gebiet abdriftet. Dies ist einer dieser makroskopischen Gesichtspunkte, bei denen wir genau das, was wir scheinbar besorgniserregend finden, auch dazu nutzen können, uns (man könnte ironischerweise sagen) zu schützen.

Ich habe jeden der oben genannten vier Schritte in meinen Kolumnenbeiträgen besprochen.

Für diese Diskussion hierin möchte ich mich auf den vierten aufgelisteten Schritt konzentrieren, nämlich dass die KI-Bill of Rights als Motivator für das Aufkommen von KI dienen kann, um bei der Kontrolle von KI zu helfen. Dies ist ein etwas schockierender oder überraschender Schritt für viele, die noch nicht vollständig in diesen Bereich der KI-Entwicklung eingestiegen sind.

Lassen Sie mich näher darauf eingehen.

Eine einfache Analogie sollte ausreichen. Wir sind heutzutage alle an Cybersicherheitsverletzungen und Hackereinbrüche gewöhnt. Fast jeden Tag hören wir von einer neuesten Lücke in unseren Computern oder sind davon betroffen, die es schändlichen Übeltätern ermöglicht, unsere Daten zu stehlen oder eine heimtückische Ransomware auf unseren Laptops zu platzieren.

Ein Mittel, um gegen diese verabscheuungswürdigen Versuche anzukämpfen, besteht darin, spezialisierte Software zu verwenden, die versucht, diese Einbrüche zu verhindern. Sie haben mit ziemlicher Sicherheit ein Antiviren-Softwarepaket auf Ihrem Computer zu Hause oder am Arbeitsplatz. Auf Ihrem Smartphone befindet sich wahrscheinlich etwas Ähnliches, unabhängig davon, ob Sie wissen, dass es dort ist oder nicht.

Mein Punkt ist, dass Sie manchmal Feuer mit Feuer bekämpfen müssen (siehe meine Berichterstattung darüber, wie z den Link hier und den Link hier).

Im Fall von KI landet das im verbotenen Bereich KI für schlecht, können wir versuchen zu verwenden KI für immer das wehrt sich damit böswillig KI für schlecht. Das ist natürlich kein Wundermittel. Wie Sie wissen, gibt es ein ständiges Katz-und-Maus-Spiel zwischen Übeltätern, die versuchen, in unsere Computer einzudringen, und den Fortschritten, die beim Cybersicherheitsschutz gemacht werden. Es ist ein fast endloses Spiel.

Wir können KI verwenden, um zu versuchen, mit KI fertig zu werden, die einen verbotenen Weg eingeschlagen hat. Dies wird helfen. Es wird nicht besonders eine Wunderwaffe sein, da die angegriffene KI mit ziemlicher Sicherheit so konzipiert sein wird, dass sie solche Schutzmaßnahmen vermeidet. Dies wird ein andauerndes Katz-und-Maus-Spiel zwischen KI und KI sein.

In jedem Fall bietet die KI, mit der wir uns schützen, einen gewissen Schutz vor schlechter KI. Daher müssen wir zweifellos eine KI entwickeln, die uns schützen oder abschirmen kann. Und wir sollten auch versuchen, die schützende KI so zu gestalten, dass sie sich anpasst, wenn sich die schlechte KI anpasst. Es wird einen heftigen Anschein von blitzschnellem Katz-und-Maus geben.

Nicht jeder findet Gefallen an dieser Ausweitung der Rolle der KI.

Diejenigen, die KI bereits als homogenes amorphes Konglomerat wahrnehmen, würden bei diesem vorgetäuschten KI-gegen-KI-Gambit Gänsehaut und Alpträume bekommen. Wenn wir versuchen, Feuer gegen Feuer zu stellen, machen wir vielleicht nur ein noch größeres Feuer. Die KI wird zu einem riesigen Freudenfeuer werden, eines, das wir nicht mehr kontrollieren, und das sich dafür entscheiden wird, die Menschheit zu versklaven oder uns vom Planeten auszulöschen. Wenn es darum geht, KI als existenzielles Risiko zu diskutieren, werden wir normalerweise dazu gebracht zu glauben, dass sich alle KI zusammenschließen werden, siehe meine Diskussion zu diesen Themen unter den Link hier. Sie sehen, uns wird gesagt, dass jedes Stück KI seine Brüder KI ergreifen und zu einer großen, einheitlichen Familie des Oberherrn werden wird.

Das ist das schreckliche und ausgesprochen beunruhigende Szenario einer empfindungsfähigen KI als nahtloser All-for-one- und One-for-all-Mafia.

Obwohl Sie gerne solche Vermutungen darüber anstellen können, dass dies eines Tages passieren könnte, versichere ich Ihnen, dass die KI, die wir heute haben, vorerst aus Lastwagenladungen von getrennten, disparaten KI-Programmen besteht, die keine besondere Möglichkeit haben, sich miteinander zu verschwören.

Abgesehen davon bin ich sicher, dass diejenigen, die leidenschaftlich an KI-Verschwörungstheorien glauben, darauf bestehen werden, dass ich dies absichtlich gesagt habe, um die Wahrheit zu verbergen. Aha! Vielleicht werde ich von der heutigen KI bezahlt, die bereits die große KI-Übernahme plant (ja Siree, ich werde in Reichtümern baden, sobald die KI-Oberherren regieren). Oder, und ich bevorzuge diesen anderen Blickwinkel ganz sicher nicht, vielleicht bin ich mir blind nicht bewusst, wie die KI heimlich hinter unserem Rücken Pläne schmiedet. Ich schätze, wir müssen abwarten, ob ich Teil des KI-Putsches oder ein KI-Abenteuer bin (autsch, das tut weh).

Um auf irdische Überlegungen zurückzukommen, lassen Sie uns kurz untersuchen, wie moderne KI verwendet werden kann, um die Umsetzung der KI-Bill of Rights zu unterstützen. Ich werde dies bequem und zusammenfassend als bezeichnen Gute KI.

Wir verwenden die fünf Grundpfeiler der KI-Bill of Rights:

  • Gute KI zum Werben Sichere und effektive Systeme: Immer wenn Sie einem KI-System ausgesetzt sind oder es verwenden, versucht die gute KI herauszufinden, ob die verwendete KI unsicher oder unwirksam ist. Bei einer solchen Erkennung kann die gute KI Sie benachrichtigen oder andere Maßnahmen ergreifen, einschließlich des Blockierens der schlechten KI.
  • Gute KI zum Bereitstellen Algorithmischer Diskriminierungsschutz: Bei der Verwendung eines KI-Systems, das möglicherweise diskriminierende Algorithmen enthält, können die Gute KI versucht festzustellen, ob für Sie ein unzureichender Schutz besteht, und versucht festzustellen, ob in der verwendeten KI tatsächlich unangemessene Vorurteile bestehen. Die gute KI könnte Sie informieren und möglicherweise auch automatisch die andere KI an verschiedene Behörden melden, wie dies durch KI-Gesetze und gesetzliche Anforderungen vorgeschrieben sein könnte.
  • Gute KI zum Konservieren Datenschutz: Diese Art von guter KI versucht, Sie vor Datenschutzverletzungen zu schützen. Wenn eine andere KI versucht, Daten anzufordern, die möglicherweise nicht wirklich von Ihnen benötigt werden, macht die gute KI Sie auf die Überschreitung aufmerksam. Die gute KI kann Ihre Daten möglicherweise auch so maskieren, dass Ihre Datenschutzrechte nach dem Einspeisen in die andere KI weiterhin gewahrt bleiben. Usw.
  • Gute KI zum Aufbau Hinweis und Erläuterung: Wir alle werden wahrscheinlich auf KI-Systeme stoßen, denen es an angemessenen und angemessenen Benachrichtigungen mangelt und die leider keine angemessene Erklärung für ihre Aktionen liefern. Eine gute KI kann versuchen, die andere KI zu interpretieren oder zu befragen, um möglicherweise Benachrichtigungen und Erklärungen zu identifizieren, die hätten bereitgestellt werden sollen. Selbst wenn dies in einem bestimmten Fall nicht möglich ist, wird die gute KI Sie zumindest auf die Fehler der anderen KI hinweisen und die KI möglicherweise auf der Grundlage der festgelegten KI-Gesetze und gesetzlichen Anforderungen an die zuständigen Behörden melden.
  • Gute KI zum Anbieten Menschliche Alternativen, Überlegung und Rückfall: Angenommen, Sie verwenden ein KI-System und die KI ist der anstehenden Aufgabe anscheinend nicht gewachsen. Möglicherweise merken Sie nicht, dass die Dinge schief gehen, oder Sie sind etwas vorsichtig und unsicher, was Sie in der Situation tun sollen. In einem solchen Fall würde die gute KI stillschweigend untersuchen, was die andere KI tut, und Sie vor lebenswichtigen Bedenken bezüglich dieser KI warnen. Sie werden dann aufgefordert, eine menschliche Alternative zur KI anzufordern (oder die gute KI könnte dies in Ihrem Namen tun).

Um weiter zu verstehen, wie diese Art von Gute KI entwickelt und eingesetzt werden können, siehe mein beliebtes und hoch bewertetes KI-Buch (mit der Ehre, sagen zu können, dass es als „Top Ten“ bezeichnet wurde) über das, was ich allgemein als KI-Schutzengel bezeichnet habe, siehe den Link hier.

Fazit

Ich weiß, was du denkst. Wenn wir eine gute KI haben, die entwickelt wurde, um uns zu schützen, nehmen wir an, die gute KI wird korrumpiert und wird zu einer schlechten KI. Das berühmte oder berüchtigte lateinische Schlagwort scheint für diese Möglichkeit völlig zutreffend zu sein: Quis Sorgerecht ipsos Sorgerecht?

Der Satz wird dem römischen Dichter Juvenal zugeschrieben und findet sich in seinem Werk mit dem Titel Satiren, und kann frei übersetzt werden mit der Bedeutung, wer die Wachen selbst bewachen oder beobachten wird. Viele Filme und Fernsehsendungen wie z Star Trek habe diese Linie wiederholt genutzt.

Das liegt sicherlich daran, dass es ein ausgezeichneter Punkt ist.

Sicher genug, alle KI-Gesetze, die erlassen werden, müssen sowohl die schlechte KI als auch die gute KI umfassen, die schlecht wird. Deshalb wird es entscheidend sein, vernünftige und umfassende KI-Gesetze zu schreiben. Gesetzgeber, die nur versuchen, wahllose Juristensprache an die Wand zu werfen und hoffen, dass sie in Bezug auf KI-Gesetze haften bleibt, werden feststellen, dass sie das Ziel zutiefst verfehlen.

Das brauchen wir nicht.

Wir haben weder die Zeit noch können wir die gesellschaftlichen Kosten tragen, um mit unzureichend ausgearbeiteten KI-Gesetzen fertig zu werden. Ich habe darauf hingewiesen, dass wir bedauerlicherweise manchmal Zeuge neuer KI-bezogener Gesetze werden, die schlecht formuliert und vollgestopft mit allen möglichen Rechtskrankheiten sind, siehe zum Beispiel meine eingehende Analyse des New York City (NYC) AI Biases-Prüfungsgesetzes unter den Link hier.

Stellen wir sicher, dass wir den Entwurf der KI-Grundrechte, den wir jetzt in Bezug auf KI in der Hand haben, angemessen verwenden. Wenn wir die Blaupause ignorieren, haben wir verloren, unser Spiel intensiviert zu haben. Wenn wir die Blaupause falsch umsetzen, schämen wir uns, dass wir uns eine nützliche Grundlage angeeignet haben.

Der geschätzte römische Dichter Juvenal sagte noch etwas, das wir unter diesen Umständen nutzen können: Anima sana in corpore sano.

Im Allgemeinen bedeutet dies die Behauptung, dass es ratsam wäre, sowohl einen gesunden oder gesunden Geist als auch einen gesunden oder gesunden Körper zu haben. Dies erlaubt uns laut Juvenal jede Art von Mühsal zu ertragen und wird sicherlich der einzige Weg zu einem Leben in Frieden oder Tugend sein.

Es ist an der Zeit, dass wir einen gesunden Geist und einen gesunden Körper einsetzen, um sicherzustellen, dass wir sicherstellen, dass die Menschenrechte der Menschheit in der aufstrebenden Welt der allgegenwärtigen und manchmal ungünstigen KI gewahrt und solide gestärkt werden. Das ist ein vernünftiger Rat der Römer, an den wir uns in der heutigen Hektik inmitten einer durcheinandergebrachten KI-Epoche und einer Zukunft, die entscheidend mit guten und schlechten KI gefüllt ist, halten sollten.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- Bill-of-Rights-einschließlich-und-erstaunlich-durch-die-Verwendung-von-ai-ganz/