KI-Ethik ist skeptisch gegenüber der Einführung sogenannter Red-Flag-KI-Gesetze zum Aufrufen voreingenommener Algorithmen in autonomen KI-Systemen

Reden wir über Red-Flag-Gesetze.

Sie wissen zweifellos, dass der Begriff der Red-Flag-Gesetze in letzter Zeit in den Nachrichten weit verbreitet ist. Überschriften zu diesem Thema gibt es in Hülle und Fülle. Leidenschaften und leidenschaftliche Debatten über solche Angelegenheiten stehen als gesellschaftliches Anliegen im Vordergrund und ziehen die heutigen und sich schnell entwickelnden Red-Flag-Waffengesetze nach sich.

Ich wage jedoch zu sagen, dass Sie vielleicht nicht mit anderen Red Flag-Gesetzen vertraut sind, die Ende des 1800. Jahrhunderts erlassen wurden und sich auf motorisierte Fahrzeuge und die Vorläufer der heutigen alltäglichen modernen Autos beziehen. Ja, das ist richtig, Red Flag Laws gehen in die Geschichte zurück, obwohl sie im Vergleich zum heutigen zeitgenössischen Fokus andere Themen abdecken. Diese werden in der Regel als Red Flag Traffic Laws bezeichnet.

Diese jetzt jahrhundertealten und völlig außer Kraft gesetzten Gesetze verlangten, dass zu dieser Zeit vor jedem motorisierten Wagen oder Motor, der mit Dampf angetrieben wurde, ein Erwachsener vor dem Fahrzeug stehen und eine rote Fahne zu Warnzwecken tragen musste. Die Idee war, dass das Vieh durch diese lauten und mürrischen Vorrichtungen, die langsam und ungleichmäßig über die unbefestigten oder leicht asphaltierten Straßen rasten, alarmiert werden könnte. Wenn also jemand vor der Vorrichtung entlangspaziert und energisch eine rote Fahne schwenkt, könnten Katastrophen hoffentlich vermieden werden. Falls Sie sich fragen, Eisenbahnen und Züge wurden als von denselben Gesetzen ausgenommen betrachtet, da sie Fahrzeuge waren, die integral an Schienen gebunden waren und andere Gesetze hatten, die ihre Handlungen abdeckten.

Stellen Sie sich vor, wir müssten heute für jedes Auto auf unseren öffentlichen Straßen rote Fahnen schwenken.

Zum Beispiel müsste ein gewöhnlicher Autofahrer, der die Straße in Ihrer Nachbarschaft herunterkommt, sicherstellen, dass ein Erwachsener, der eine rote Fahne schwenkt, anwesend ist und vor dem fahrenden Auto vorbeimarschiert. Dies müsste für jedes einzelne Fahrzeug erfolgen, das Ihre Straße entlang fährt. Vielleicht würden Leute zu Jobbern mit roten Fahnen, die an vorbeifahrende Autofahrer vermietet würden, die ansonsten keinen Freund oder Verwandten hätten, der vor ihnen hergehen und die vorgeschriebene Winkaktion ausführen könnte.

Heutzutage assoziieren wir das rote Fahnenschwingen im Zusammenhang mit Autobahnen eher mit Straßenbaustellen. Wenn Sie sich einer aufgegrabenen Straße nähern, halten Arbeiter eine rote Fahne hoch, um Ihre Aufmerksamkeit zu erregen. Dies sagt Ihnen, langsamer zu werden und wachsam zu sein. Es könnte ein Bulldozer geben, der sich in Ihren Weg drängt. Möglicherweise befindet sich vor Ihnen ein riesiges Loch, das Sie vorsichtig umgehen müssen.

Aber kehren wir zur Verwendung von roten Fahnen um 1800 zurück.

Ob Sie es glauben oder nicht, der Schwenker der roten Fahne sollte der kommenden motorisierten Maschine mindestens eine Achtelmeile voraus sein. Das scheint eine ziemlich lange Strecke zu sein. Man nimmt jedoch an, dass dies damals durchaus sinnvoll war. Die erschreckenden Geräusche des Motors und vielleicht der bloße Anblick des Fahrzeugs könnten ausreichen, um die Tiere zu verunsichern. Einige der Red-Flag-Gesetze dieser Zeit verlangten auch, dass während der Nacht ein leuchtendes rotes Licht in die Höhe gehalten wurde, damit eine optisch erkennbare rote Vorsichtswarnung aus einer dunklen Entfernung gesehen werden konnte.

Im Allgemeinen denke ich, dass es fair ist zu behaupten, dass wir als Gesellschaft dazu neigen, eine rote Fahne als eine Art Signal oder Hinweis darauf zu assoziieren, dass etwas möglicherweise nicht stimmt oder zumindest unsere andächtige Aufmerksamkeit erfordert.

Machen Sie sich bereit für eine kleine Wendung bei diesem Phänomen der roten Flagge.

Es gibt eine verbreitete Behauptung, dass wir in Bezug auf künstliche Intelligenz (KI) Vorschriften für rote Fahnen fordern sollten.

Das ist ein bisschen verblüffend und ein überraschendes Konzept, das viele Köpfe kratzen lässt. Sie werden sich vielleicht wundern, wie oder warum es so genannte geben sollte Rote Flaggen-KI-Gesetze. Bitte beachten Sie, dass ich dies als KI-Gesetze der Roten Flagge bezeichne, um die Angelegenheit von den Verkehrsgesetzen der Roten Flagge (wie denen des späten 1800. Jahrhunderts) zu unterscheiden und sie auch von den heute verbreiteteren Waffengesetzen der Roten Flagge abzuheben.

Brauchen wir eigentlich Red-Flag-KI-Gesetze, die klar und ausschließlich auf KI-Angelegenheiten ausgerichtet sind?

Diejenigen, die den vorgeschlagenen Ansatz befürworten, würden darauf bestehen, dass wir unbedingt gesetzliche Bestimmungen brauchen, die dazu beitragen würden, hart gegen KI vorzugehen, die unangemessene Vorurteile enthält und auf diskriminierende Weise handelt. Im Moment ähneln der Aufbau und der Einsatz von KI einem wilden Westen, in dem alles erlaubt ist. Bemühungen, schlechte KI einzudämmen, hängen derzeit von der Formulierung und Annahme von KI-Ethikrichtlinien ab. Für meine fortlaufende und umfassende Berichterstattung über KI-Ethik und Ethische KI siehe den Link hier und den Link hier, nur um ein paar zu nennen.

Gesetze, die schlechte KI einschließen, werden langsam ausgearbeitet und erlassen, siehe meine Berichterstattung unter den Link hier. Einige befürchten, dass der Gesetzgeber nicht schnell genug vorgeht. Es scheint, als ob die Schleusen dafür, dass voreingenommene KI in der Welt gefördert werden kann, derzeit weitgehend weit geöffnet sind. Händeringen besagt, dass der böse Geist bereits aus der Flasche sein wird, wenn neue Gesetze in die Bücher kommen.

Nicht so schnell gehen die Gegenargumente. Es besteht die Sorge, dass wir, wenn Gesetze zu schnell erlassen werden, sozusagen die goldene Gans töten, wodurch die KI-Bemühungen versiegen und wir nicht die gesellschaftlich fördernden Vorteile neuer KI-Systeme nutzen werden. KI-Entwickler und Unternehmen, die KI einsetzen möchten, könnten erschrocken werden, wenn plötzlich eine byzantinische Reihe neuer Gesetze zur KI auf Bundes-, Landes- und lokaler Ebene erlassen wird, ganz zu schweigen von den internationalen KI-bezogenen Gesetzen, die ebenfalls voranschreiten.

In diese chaotische Angelegenheit kommt der Ruf nach Red Flag AI Laws.

Bevor wir uns weiter mit den wilden und wolligen Überlegungen befassen, die dem geplanten KI-Gesetz der Roten Flagge zugrunde liegen, wollen wir einige zusätzliche Grundlagen zu zutiefst wesentlichen Themen schaffen. Wir müssen kurz in die KI-Ethik und insbesondere in das Aufkommen von Machine Learning (ML) und Deep Learning (DL) eintauchen.

Sie sind sich vielleicht vage bewusst, dass eine der lautesten Stimmen heutzutage im KI-Bereich und sogar außerhalb des KI-Bereichs darin besteht, nach einem größeren Anschein von ethischer KI zu schreien. Werfen wir einen Blick darauf, was es bedeutet, sich auf KI-Ethik und ethische KI zu beziehen. Darüber hinaus werden wir untersuchen, was ich meine, wenn ich von Machine Learning und Deep Learning spreche.

Ein bestimmtes Segment oder Teil der KI-Ethik, das in den Medien viel Aufmerksamkeit erregt hat, besteht aus KI, die ungünstige Vorurteile und Ungerechtigkeiten aufweist. Sie wissen vielleicht, dass es zu Beginn der jüngsten Ära der KI einen riesigen Ausbruch von Enthusiasmus für das gab, was manche heute nennen KI für immer. Unglücklicherweise begannen wir nach dieser sprudelnden Aufregung, Zeuge zu werden KI für schlecht. Beispielsweise wurde festgestellt, dass verschiedene KI-basierte Gesichtserkennungssysteme rassistische Vorurteile und geschlechtsspezifische Vorurteile enthalten, die ich unter besprochen habe den Link hier.

Bemühungen, sich dagegen zu wehren KI für schlecht sind aktiv unterwegs. Außer lautstark legal Neben dem Streben, das Fehlverhalten einzudämmen, gibt es auch einen substanziellen Drang, die KI-Ethik anzunehmen, um die KI-Abscheulichkeit zu korrigieren. Die Vorstellung ist, dass wir wichtige ethische KI-Prinzipien für die Entwicklung und den Einsatz von KI annehmen und unterstützen sollten, um dies zu unterbieten KI für schlecht und gleichzeitig das Vorzuziehende ankündigen und fördern KI für immer.

In einem ähnlichen Zusammenhang bin ich ein Befürworter des Versuchs, KI als Teil der Lösung von KI-Problemen einzusetzen und Feuer mit Feuer in dieser Denkweise zu bekämpfen. Wir könnten zum Beispiel ethische KI-Komponenten in ein KI-System einbetten, das überwacht, wie der Rest der KI Dinge tut, und so potenziell diskriminierende Bemühungen in Echtzeit erkennen, siehe meine Diskussion unter den Link hier. Wir könnten auch ein separates KI-System haben, das als eine Art KI-Ethikmonitor fungiert. Das KI-System dient als Aufseher, um zu verfolgen und zu erkennen, wann eine andere KI in den unethischen Abgrund geht (siehe meine Analyse solcher Fähigkeiten unter den Link hier).

Ich werde Ihnen gleich einige übergreifende Prinzipien vorstellen, die der KI-Ethik zugrunde liegen. Hier und da schwirren viele solcher Listen herum. Man könnte sagen, dass es noch keine einzige Liste universeller Anziehungskraft und Übereinstimmung gibt. Das ist die traurige Nachricht. Die gute Nachricht ist, dass es zumindest leicht verfügbare KI-Ethik-Listen gibt, und sie neigen dazu, ziemlich ähnlich zu sein. Alles in allem deutet dies darauf hin, dass wir durch eine Art vernünftiger Konvergenz unseren Weg zu einer allgemeinen Gemeinsamkeit dessen finden, woraus KI-Ethik besteht.

Lassen Sie uns zunächst kurz einige der allgemeinen ethischen KI-Vorschriften behandeln, um zu veranschaulichen, was für jeden, der KI herstellt, einsetzt oder verwendet, eine wichtige Überlegung sein sollte.

Zum Beispiel, wie vom Vatikan in der angegeben Rom fordert KI-Ethik und wie ich ausführlich unter behandelt habe den Link hier, dies sind ihre identifizierten sechs primären KI-Ethikprinzipien:

  • Transparenz: Grundsätzlich müssen KI-Systeme erklärbar sein
  • Inklusion: Die Bedürfnisse aller Menschen müssen berücksichtigt werden, damit alle davon profitieren und allen Menschen die bestmöglichen Bedingungen geboten werden, sich zu entfalten und zu entwickeln
  • Verantwortung: Wer den Einsatz von KI gestaltet und einsetzt, muss verantwortungsbewusst und transparent vorgehen
  • Unparteilichkeit: Schaffen oder handeln Sie nicht nach Vorurteilen, um Fairness und Menschenwürde zu wahren
  • Zuverlässigkeit: KI-Systeme müssen zuverlässig arbeiten können
  • Sicherheit und Privatsphäre: KI-Systeme müssen sicher funktionieren und die Privatsphäre der Nutzer respektieren.

Wie vom US-Verteidigungsministerium (DoD) in ihrem angegeben Ethische Grundsätze für den Einsatz künstlicher Intelligenz und wie ich ausführlich unter behandelt habe den Link hier, dies sind ihre sechs primären KI-Ethikprinzipien:

  • Verantwortlich: Das DoD-Personal wird ein angemessenes Maß an Urteilsvermögen und Sorgfalt walten lassen und gleichzeitig für die Entwicklung, den Einsatz und die Nutzung von KI-Fähigkeiten verantwortlich bleiben.
  • Gerecht: Das Ministerium wird gezielte Schritte unternehmen, um unbeabsichtigte Verzerrungen bei den KI-Fähigkeiten zu minimieren.
  • Rückverfolgbar: Die KI-Fähigkeiten der Abteilung werden so entwickelt und eingesetzt, dass das relevante Personal über ein angemessenes Verständnis der Technologie, der Entwicklungsprozesse und der auf KI-Fähigkeiten anwendbaren Betriebsmethoden verfügt, einschließlich transparenter und überprüfbarer Methoden, Datenquellen sowie Entwurfsverfahren und -dokumentation.
  • Zuverlässig: Die KI-Fähigkeiten des Ministeriums werden explizite, genau definierte Verwendungszwecke haben, und die Sicherheit und Wirksamkeit solcher Fähigkeiten werden innerhalb dieser definierten Verwendungszwecke über ihren gesamten Lebenszyklus hinweg getestet und sichergestellt.
  • Regierbar: Die Abteilung wird KI-Fähigkeiten entwerfen und entwickeln, um ihre beabsichtigten Funktionen zu erfüllen und gleichzeitig unbeabsichtigte Folgen zu erkennen und zu vermeiden sowie eingesetzte Systeme, die ein unbeabsichtigtes Verhalten zeigen, zu deaktivieren oder zu deaktivieren.

Ich habe auch verschiedene kollektive Analysen der KI-Ethikprinzipien diskutiert, einschließlich der Behandlung einer Reihe von Forschern, die die Essenz zahlreicher nationaler und internationaler KI-Ethiklehrsätze in einem Papier mit dem Titel „The Global Landscape Of AI Ethics Guidelines“ (veröffentlicht in Natur), und die meine Berichterstattung unter untersucht den Link hier, was zu dieser Keystone-Liste führte:

  • Transparenz
  • Gerechtigkeit & Fairness
  • Nicht-Maleficence
  • Verantwortung
  • Datenschutz
  • Wohltätigkeit
  • Freiheit & Autonomie
  • Vertrauen
  • Nachhaltigkeit
  • Würde
  • Solidarität

Wie Sie vielleicht direkt erraten, kann es äußerst schwierig sein, die diesen Prinzipien zugrunde liegenden Besonderheiten festzunageln. Darüber hinaus ist der Versuch, diese allgemeinen Prinzipien in etwas völlig Greifbares und Detailliertes umzuwandeln, das für die Herstellung von KI-Systemen verwendet werden kann, eine harte Nuss, die es zu knacken gilt. Es ist einfach, mit der Hand zu winken, was KI-Ethikregeln sind und wie sie allgemein eingehalten werden sollten, während es eine viel kompliziertere Situation ist, wenn die KI-Codierung der wahre Gummi sein muss, der auf die Straße trifft.

Die KI-Ethik-Prinzipien müssen von KI-Entwicklern zusammen mit denjenigen angewendet werden, die die KI-Entwicklungsbemühungen verwalten, und sogar von denjenigen, die letztendlich KI-Systeme einsetzen und warten. Alle Beteiligten während des gesamten KI-Lebenszyklus der Entwicklung und Nutzung werden im Rahmen der Einhaltung der etablierten Normen der ethischen KI berücksichtigt. Dies ist ein wichtiges Highlight, da die übliche Annahme ist, dass „nur Programmierer“ oder diejenigen, die die KI programmieren, den Grundsätzen der KI-Ethik unterliegen. Wie bereits erwähnt, braucht es ein Dorf, um KI zu entwickeln und einzusetzen, und dafür muss das gesamte Dorf mit den KI-Ethikvorschriften vertraut sein und sich an diese halten.

Lassen Sie uns auch sicherstellen, dass wir uns bezüglich der Natur der heutigen KI auf derselben Seite befinden.

Es gibt heute keine KI, die empfindungsfähig ist. Wir haben das nicht. Wir wissen nicht, ob empfindungsfähige KI möglich sein wird. Niemand kann treffend vorhersagen, ob wir eine empfindungsfähige KI erreichen werden oder ob die empfindungsfähige KI irgendwie auf wundersame Weise spontan in einer Form einer rechnergestützten kognitiven Supernova entstehen wird (normalerweise als Singularität bezeichnet, siehe meine Berichterstattung unter den Link hier).

Die Art von KI, auf die ich mich konzentriere, besteht aus der nicht-empfindungsfähigen KI, die wir heute haben. Wollten wir wild darüber spekulieren empfindungsfähig AI, diese Diskussion könnte in eine radikal andere Richtung gehen. Eine empfindungsfähige KI wäre angeblich von menschlicher Qualität. Sie müssten bedenken, dass die empfindungsfähige KI das kognitive Äquivalent eines Menschen ist. Mehr noch, da einige spekulieren, dass wir eine superintelligente KI haben könnten, ist es denkbar, dass eine solche KI am Ende klüger als Menschen sein könnte (zu meiner Erforschung einer superintelligenten KI als Möglichkeit siehe die Berichterstattung hier).

Lassen Sie uns die Dinge bodenständiger halten und die heutige rechnerische, nicht-empfindungsfähige KI betrachten.

Machen Sie sich bewusst, dass die heutige KI nicht in der Lage ist, in irgendeiner Weise auf Augenhöhe mit dem menschlichen Denken zu „denken“. Wenn Sie mit Alexa oder Siri interagieren, scheinen die Konversationsfähigkeiten den menschlichen Fähigkeiten ähnlich zu sein, aber die Realität ist, dass sie rechnerisch ist und menschliche Kognition fehlt. Die jüngste Ära der KI hat in großem Umfang maschinelles Lernen (ML) und Deep Learning (DL) genutzt, die den rechnergestützten Musterabgleich nutzen. Dies hat zu KI-Systemen geführt, die den Anschein menschenähnlicher Neigungen erwecken. In der Zwischenzeit gibt es heute keine KI, die einen Anschein von gesundem Menschenverstand hat und auch nicht über die kognitive Verwunderung robusten menschlichen Denkens verfügt.

ML/DL ist eine Form des computergestützten Musterabgleichs. Der übliche Ansatz besteht darin, dass Sie Daten zu einer Entscheidungsaufgabe zusammenstellen. Sie speisen die Daten in die ML/DL-Computermodelle ein. Diese Modelle versuchen, mathematische Muster zu finden. Nachdem solche Muster gefunden wurden, verwendet das KI-System diese Muster, wenn es auf neue Daten stößt. Bei der Präsentation neuer Daten werden die auf den „alten“ oder historischen Daten basierenden Muster angewendet, um eine aktuelle Entscheidung zu treffen.

Ich denke, Sie können sich vorstellen, wohin das führt. Wenn Menschen, die die nach dem Muster getroffenen Entscheidungen getroffen haben, ungünstige Vorurteile eingebaut haben, stehen die Chancen gut, dass die Daten dies auf subtile, aber signifikante Weise widerspiegeln. Machine Learning oder Deep Learning Computational Pattern Matching versucht einfach, die Daten entsprechend mathematisch nachzuahmen. Es gibt keinen Anschein von gesundem Menschenverstand oder anderen empfindungsfähigen Aspekten der von KI erstellten Modellierung per se.

Darüber hinaus erkennen die KI-Entwickler möglicherweise auch nicht, was vor sich geht. Die obskure Mathematik in der ML/DL könnte es schwierig machen, die jetzt verborgenen Vorurteile aufzuspüren. Sie würden zu Recht hoffen und erwarten, dass die KI-Entwickler auf die potenziell vergrabenen Vorurteile testen würden, obwohl dies schwieriger ist, als es scheinen mag. Es besteht eine solide Chance, dass selbst bei relativ umfangreichen Tests immer noch Verzerrungen in den Mustererkennungsmodellen der ML/DL eingebettet sind.

Sie könnten das berühmte oder berüchtigte Sprichwort von Garbage-in-Garbage-out verwenden. Die Sache ist die, dass dies eher Vorurteilen ähnelt, die heimtückisch als Vorurteile in die KI einfließen. Die algorithmische Entscheidungsfindung (ADM) der KI wird zwangsläufig mit Ungerechtigkeiten beladen.

Nicht gut.

Kehren wir zu unserem Fokus auf Red-Flag-KI-Gesetze zurück.

Das zugrunde liegende Konzept ist, dass Menschen in der Lage wären, eine rote Fahne zu hissen, wenn sie der Meinung sind, dass ein KI-System übermäßig voreingenommen oder diskriminierend arbeitet. Sie würden per se keine physische Flagge hissen, sondern einfach elektronische Mittel verwenden, um Ihre Bedenken kundzutun. Der rote Flaggenteil des Schemas oder Ansatzes ist eher eine Metapher als eine physische Verkörperung.

Stellen Sie sich vor, Sie hätten ein Wohnungsbaudarlehen beantragt. Sie entscheiden sich für die Nutzung eines Online-Banking-Dienstes, um einen Kredit zu beantragen. Nachdem Sie einige persönliche Daten eingegeben haben, warten Sie kurz darauf, dass das KI-System entscheidet, ob Sie kreditwürdig sind oder nicht. Die KI teilt Ihnen mit, dass der Kredit abgelehnt wurde. Als Sie nach einer Erklärung fragen, warum Sie abgelehnt wurden, scheint Ihnen die Texterzählung zu suggerieren, dass die KI unangemessen voreingenommene Faktoren als Teil des Entscheidungsfindungsalgorithmus verwendet hat.

Zeit, eine rote Fahne über die KI zu hissen.

Wo genau wird diese rote Fahne wehen?

Das ist eine Millionen-Dollar-Frage.

Ein Standpunkt ist, dass wir eine landesweite Datenbank einrichten sollten, die es den Menschen ermöglicht, ihre KI-relevanten roten Fahnen zu markieren. Einige sagen, dass dies von der Bundesregierung geregelt werden sollte. Bundesbehörden wären dafür verantwortlich, die roten Flaggen zu untersuchen und der Öffentlichkeit in Bezug auf die Richtigkeit und den Umgang mit vermutlich „schlechter KI“ zu helfen, die die roten Flaggen-Berichtszahlen geschürt haben.

Ein nationales Red-Flag-AI-Gesetz würde anscheinend vom Kongress erlassen werden. Das Gesetz würde festlegen, was eine KI-relevante rote Flagge ist. Das Gesetz würde beschreiben, wie diese KI-meckernden roten Fahnen gehisst werden. Usw. Es könnte auch der Fall sein, dass sich einzelne Staaten auch dafür entscheiden, ihre eigenen Red-Flag-KI-Gesetze zu erlassen. Vielleicht tun sie dies anstelle einer nationalen Initiative, oder sie tun dies, um Einzelheiten zu verstärken, die für ihren spezifischen Staat besonders attraktiv sind.

Kritiker eines föderalen oder staatlich unterstützten Red-Flag-KI-Programms würden argumentieren, dass dies etwas ist, was die Privatindustrie tun kann und wir Big Brother nicht brauchen, um in den Vordergrund zu treten. Die Industrie könnte ein Online-Repository einrichten, in dem Menschen Warnmeldungen zu KI-Systemen registrieren können. Eine Selbstkontrolle der Industrie würde diese Probleme ausreichend lösen.

Ein Bedenken hinsichtlich des angeblichen Branchenansatzes ist, dass er nach Vetternwirtschaft zu riechen scheint. Wären Firmen bereit, sich an eine privat betriebene Red-Flag-KI-Datenbank zu halten? Viele Unternehmen würden möglicherweise die markierten roten Fahnen über ihre KI ignorieren. Es gäbe keine scharfen Zähne, um Unternehmen dazu zu bringen, sich mit den eingegebenen roten Fahnen auseinanderzusetzen.

Hey, die Befürworter des privatwirtschaftlichen Ansatzes klingen ab, dies wäre vergleichbar mit einem nationalen Yelp-ähnlichen Dienst. Die Verbraucher könnten sich die roten Fahnen ansehen und selbst entscheiden, ob sie mit Unternehmen Geschäfte machen wollen, die eine Menge KI-orientierter roter Fahnen gesammelt haben. Eine Bank, die tonnenweise rote Fahnen wegen ihrer KI bekommt, müsste aufpassen und ihre KI-Systeme überarbeiten, so die Logik, sonst würden die Verbraucher das Unternehmen wie die Pest meiden.

Ob dieser ganze Ansatz von der Regierung oder von der Industrie verfolgt wird, ist nur die Spitze des Eisbergs bei heiklen Fragen, denen sich das vorgeschlagene Postulat der Red Flag AI-Gesetze gegenübersieht.

Versetzen Sie sich in die Lage eines Unternehmens, das KI entwickelt hat oder einsetzt. Es könnte sein, dass Verbraucher Alarm schlagen, obwohl es dafür keine tragfähige Grundlage gibt. Wenn die Leute ungehindert eine rote Flagge über die KI posten könnten, könnten sie versucht sein, dies aus einer Laune heraus zu tun, oder vielleicht aus Rache an einer Firma, die dem Verbraucher ansonsten nichts Böses getan hat.

Kurz gesagt, es könnte viele falsch-positive rote Flaggen über KI geben.

Eine weitere Überlegung ist die massive Größe oder das Ausmaß der resultierenden roten Fahnen. Es könnten leicht Millionen und Abermillionen von roten Fahnen gehisst werden. Wer wird all diesen roten Fahnen nachgehen? Was wären die Kosten dafür? Wer zahlt für die Nachbereitung der Warnsignale? Usw.

Wenn Sie sagen würden, dass jeder, der KI registriert oder eine rote Flagge meldet, eine Gebühr zahlen muss, betreten Sie ein düsteres und heimtückisches Reich. Die Sorge wäre, dass nur die Reichen es sich leisten könnten, rote Fahnen zu hissen. Dies impliziert wiederum, dass die Verarmten nicht in der Lage wären, gleichermaßen an den Aktivitäten der roten Flagge teilzunehmen, und im Wesentlichen keinen Ort haben, um vor nachteiliger KI zu warnen.

Nur noch eine zusätzliche Wendung fürs Erste, nämlich, dass diese Art von Warnsignalgesetzen oder -richtlinien über KI eher nach der Tatsache zu sein scheinen, als dass sie vorher als Warnung dienen.

Zurück zu den Verkehrsregeln mit roter Flagge: Der Schwerpunkt der Verwendung einer roten Flagge lag darauf, eine Katastrophe von Anfang an abzuwenden. Der Rote-Flaggen-Schwinger sollte dem kommenden Auto weit voraus sein. Indem man sich vor dem Fahrzeug befindet, würde das Vieh gewarnt, und diejenigen, die das Vieh bewachten, wüssten, dass sie aufgrund der bald eintreffenden Störquelle Vorsichtsmaßnahmen treffen sollten.

Wenn Menschen nur eine rote Fahne über KI hissen können, die ihre Rechte scheinbar bereits verletzt oder untergraben hat, ist das sprichwörtliche Pferd bereits aus dem Stall. Alles, was dies zu erreichen scheint, ist, dass hoffentlich andere Leute, die mitkommen, jetzt wissen, dass sie sich vor diesem KI-System in Acht nehmen müssen. In der Zwischenzeit hat die Person, der angeblich Unrecht getan wurde, bereits gelitten.

Einige schlagen vor, dass wir den Leuten vielleicht erlauben könnten, rote Fahnen über KI zu hissen, dass sie vermuten möglicherweise voreingenommen, selbst wenn sie die KI nicht verwendet haben und nicht direkt von der KI beeinflusst wurden. So wird die rote Fahne geschwenkt, bevor der Schaden angerichtet ist.

Huch, sagt die Erwiderung, Sie werden die Warnsignale der KI-Bewältigung wirklich zu einer völlig unüberschaubaren und chaotischen Angelegenheit machen. Wenn irgendjemand aus irgendeinem Grund eine rote Fahne über ein KI-System hissen kann, obwohl er überhaupt nichts mit dieser KI gemacht hat, werden Sie mit roten Fahnen überschwemmt. Schlimmer noch, Sie werden die Spreu nicht mehr vom Weizen unterscheiden können. Der gesamte Ansatz mit roter Flagge wird unter seinem eigenen Gewicht zusammenbrechen und die Güte der Idee zunichte machen, indem Treibgut und Gesindel das gesamte Schiff versenken.

Schwindelerregend und verwirrend.

An diesem Punkt dieser gewichtigen Diskussion würde ich wetten, dass Sie einige anschauliche Beispiele wünschen, die dieses Thema veranschaulichen könnten. Es gibt eine besondere und sicherlich beliebte Reihe von Beispielen, die mir am Herzen liegen. Sie sehen, in meiner Eigenschaft als Experte für KI, einschließlich der ethischen und rechtlichen Auswirkungen, werde ich häufig gebeten, realistische Beispiele zu nennen, die Dilemmata der KI-Ethik aufzeigen, damit die etwas theoretische Natur des Themas leichter erfasst werden kann. Einer der eindrucksvollsten Bereiche, der dieses ethische KI-Problem anschaulich darstellt, ist das Aufkommen von KI-basierten, wirklich selbstfahrenden Autos. Dies dient als praktischer Anwendungsfall oder als Beispiel für eine ausführliche Diskussion zu diesem Thema.

Hier ist dann eine bemerkenswerte Frage, die es wert ist, darüber nachzudenken: Erhellt das Aufkommen von KI-basierten, wirklich selbstfahrenden Autos irgendetwas über die Red-Flag-KI-Gesetze, und wenn ja, was zeigt dies?

Erlauben Sie mir einen Moment, um die Frage auszupacken.

Beachten Sie zunächst, dass an einem echten selbstfahrenden Auto kein menschlicher Fahrer beteiligt ist. Denken Sie daran, dass echte selbstfahrende Autos über ein KI-Fahrsystem gefahren werden. Es ist weder ein menschlicher Fahrer am Steuer erforderlich, noch ist vorgesehen, dass ein Mensch das Fahrzeug fährt. Für meine umfangreiche und laufende Berichterstattung über autonome Fahrzeuge (AVs) und insbesondere selbstfahrende Autos, siehe den Link hier.

Ich möchte weiter klären, was gemeint ist, wenn ich von echten selbstfahrenden Autos spreche.

Die Ebenen selbstfahrender Autos verstehen

Zur Verdeutlichung: Echte selbstfahrende Autos sind solche, bei denen die KI das Auto ganz alleine fährt und es während der Fahraufgabe keine menschliche Hilfe gibt.

Diese fahrerlosen Fahrzeuge gelten als Level 4 und Level 5 (siehe meine Erklärung unter Link hier), während ein Auto, bei dem ein menschlicher Fahrer den Fahraufwand mitteilen muss, normalerweise als Level 2 oder Level 3 betrachtet wird. Die Autos, die die Fahraufgabe mitteilen, werden als halbautonom beschrieben und enthalten typischerweise eine Vielzahl von automatisierte Add-Ons, die als ADAS (Advanced Driver-Assistance Systems) bezeichnet werden.

Es gibt noch kein wirklich selbstfahrendes Auto auf Level 5, und wir wissen noch nicht einmal, ob dies möglich sein wird und wie lange es dauern wird, bis es erreicht wird.

In der Zwischenzeit versuchen die Bemühungen der Stufe 4 allmählich, durch sehr enge und selektive Versuche auf öffentlichen Straßen eine gewisse Traktion zu erreichen. Es gibt jedoch Kontroversen darüber, ob diese Tests per se zulässig sein sollten (wir sind alle Meerschweinchen auf Leben und Tod in einem Experiment) Einige behaupten, dass sie auf unseren Autobahnen und Nebenstraßen stattfinden Link hier).

Da halbautonome Autos einen menschlichen Fahrer erfordern, unterscheidet sich die Einführung dieser Autotypen nicht wesentlich vom Fahren herkömmlicher Fahrzeuge. Daher gibt es an sich nicht viel Neues zu diesem Thema (wie Sie sehen werden) in einem Moment sind die nächsten Punkte allgemein anwendbar).

Für halbautonome Autos ist es wichtig, dass die Öffentlichkeit vor einem störenden Aspekt gewarnt wird, der in letzter Zeit aufgetreten ist, und zwar trotz der menschlichen Fahrer, die immer wieder Videos von sich selbst veröffentlichen, die am Steuer eines Level 2- oder Level 3-Autos einschlafen Wir alle müssen vermeiden, in die Irre geführt zu werden, dass der Fahrer seine Aufmerksamkeit von der Fahraufgabe ablenken kann, während er ein halbautonomes Auto fährt.

Sie sind die verantwortliche Partei für die Fahraktionen des Fahrzeugs, unabhängig davon, wie viel Automatisierung in ein Level 2 oder Level 3 geworfen werden könnte.

Selbstfahrende Autos und KI-Gesetze mit roten Fahnen

Bei echten selbstfahrenden Fahrzeugen der Stufen 4 und 5 ist kein menschlicher Fahrer an der Fahraufgabe beteiligt.

Alle Insassen werden Passagiere sein.

Die KI fährt.

Ein Aspekt, der sofort diskutiert werden muss, ist die Tatsache, dass die KI, die an den heutigen KI-Antriebssystemen beteiligt ist, nicht empfindungsfähig ist. Mit anderen Worten, die KI ist insgesamt ein Kollektiv computergestützter Programmierung und Algorithmen und mit Sicherheit nicht in der Lage, auf die gleiche Weise zu argumentieren, wie es Menschen können.

Warum wird dadurch zusätzlich betont, dass die KI nicht empfindungsfähig ist?

Weil ich unterstreichen möchte, dass ich bei der Erörterung der Rolle des KI-Antriebssystems der KI keine menschlichen Qualitäten zuschreibe. Bitte beachten Sie, dass es heutzutage eine anhaltende und gefährliche Tendenz gibt, die KI zu anthropomorphisieren. Im Wesentlichen weisen die Menschen der heutigen KI eine menschenähnliche Empfindung zu, trotz der unbestreitbaren und unbestreitbaren Tatsache, dass es eine solche KI noch nicht gibt.

Mit dieser Klarstellung können Sie sich vorstellen, dass das KI-Fahrsystem die Facetten des Fahrens nicht von Haus aus „kennt“. Das Fahren und alles, was dazu gehört, muss als Teil der Hardware und Software des selbstfahrenden Autos programmiert werden.

Lassen Sie uns in die Vielzahl von Aspekten eintauchen, die zu diesem Thema eine Rolle spielen.

Zunächst ist es wichtig zu erkennen, dass nicht alle KI-selbstfahrenden Autos gleich sind. Jeder Autohersteller und jedes selbstfahrende Technologieunternehmen verfolgt seinen eigenen Ansatz, um selbstfahrende Autos zu entwickeln. Daher ist es schwierig, pauschale Aussagen darüber zu treffen, was KI-Fahrsysteme tun oder nicht tun werden.

Darüber hinaus kann die Aussage, dass ein KI-Fahrsystem eine bestimmte Sache nicht macht, später von Entwicklern überholt werden, die den Computer tatsächlich so programmieren, dass sie genau das tun. Schritt für Schritt werden KI-Fahrsysteme sukzessive verbessert und erweitert. Eine heute bestehende Einschränkung ist in einer zukünftigen Iteration oder Version des Systems möglicherweise nicht mehr vorhanden.

Ich hoffe, dass dies eine ausreichende Litanei von Vorbehalten bietet, um das zu untermauern, was ich gleich erzählen werde.

Lassen Sie uns ein Szenario skizzieren, das ein Red-Flag-KI-Gesetz nutzen könnte.

Sie steigen in ein KI-basiertes selbstfahrendes Auto und möchten, dass das autonome Fahrzeug Sie zu Ihrem örtlichen Lebensmittelgeschäft fährt. Während der relativ kurzen Fahrt nimmt die KI eine Route, die Ihnen etwas falsch erscheint. Anstatt den direkten Weg zu gehen, navigiert die KI zu abgelegenen Straßen, was dazu führt, dass die Fahrzeit länger ist, als sie normalerweise sein könnte.

Was ist da los?

Unter der Annahme, dass Sie für die Nutzung des selbstfahrenden Autos bezahlen, könnten Sie misstrauisch sein, dass die KI darauf programmiert wurde, eine längere Strecke zu fahren, um zu versuchen, den Fahrpreis oder die Kosten der Fahrt zu erhöhen. Jeder, der jemals ein herkömmliches, von Menschen gefahrenes Taxi genommen hat, weiß um die Tricksereien, die stattfinden können, um mehr Teig auf den Zähler zu bekommen. Natürlich können Sie mit Menschen, die GPS auf ihren Smartphones haben, während sie in einem Taxi oder Ähnlichem fahren, leicht einen menschlichen Fahrer erwischen, der scheinbar heimlich unnötig lange Strecken nimmt.

Es stellt sich heraus, dass Sie eine andere Sorge bezüglich der Routenwahl haben, etwas, das wirklich an Ihnen nagt.

Angenommen, das Routing wurde durchgeführt, um bestimmte Teile der Stadt aufgrund von Rassenaspekten zu vermeiden. Es gibt dokumentierte Fälle von menschlichen Fahrern, die bei solchen Entscheidungen erwischt wurden, siehe meine Diskussion unter den Link hier. Eventuell ist die KI ungünstig davon programmiert worden.

Sie beschließen, eine rote Fahne zu hissen.

Nehmen wir zum Zwecke der Diskussion an, dass ein Red-Flag-AI-Gesetz erlassen wurde, das Ihre Gerichtsbarkeit abdeckt. Es kann lokales Recht, Landesrecht, Bundesrecht oder internationales Recht sein. Für eine Analyse, die ich zusammen mit der Autonomous Vehicle Policy Initiative (AVPI) von Harvard verfasst habe, über die zunehmende Bedeutung lokaler Führung, wenn Gemeinden den Einsatz selbstfahrender Autos übernehmen, siehe den Link hier.

Sie gehen also online zu einer Red Flag AI-Datenbank. In der Ereignisdatenbank geben Sie die Informationen zur Fahrt mit dem selbstfahrenden Auto ein. Dazu gehören das Datum und die Uhrzeit der Fahrt sowie die Marke und das Modell des selbstfahrenden Autos. Sie geben dann die Navigationsroute ein, die verdächtig erschien, und Sie suggerieren oder behaupten geradewegs, dass die KI mit voreingenommenen oder diskriminierenden Absichten und Fähigkeiten entwickelt wurde.

Wir müssten über die anderen Einzelheiten des Red Flag AI Law spekulieren, was in diesem speziellen Szenario als nächstes passiert. Theoretisch wäre vorgesehen, dass jemand die rote Flagge überprüft. Sie würden vermutlich versuchen, den Autohersteller oder das selbstfahrende Technologieunternehmen dazu zu bringen, ihren Standpunkt zu der protokollierten roten Flagge zu erläutern. Wie viele andere solcher Warnsignale wurden registriert? Welche Ergebnisse haben diese roten Fahnen hervorgebracht?

Und so würde es weitergehen.

Fazit

Absurd, mahnen einige Skeptiker.

Wir brauchen keine Red-Flag-AI-Gesetze, sie strengen sich streng an. Etwas in dieser Art zu tun, wird die Arbeit verderben, wenn es um das Tempo und den Fortschritt der KI geht. Solche Gesetze wären unhandlich. Sie würden ein Problem schaffen, das kein Problem löst. Es gibt andere Möglichkeiten, mit KI umzugehen, die schlecht sind. Greifen Sie nicht blind nach Strohhalmen, um mit voreingenommener KI fertig zu werden.

Wir alle wissen, dass Stierkämpfer rote Umhänge tragen, um scheinbar die Aufmerksamkeit des wütenden Stiers auf sich zu ziehen. Obwohl Rot die Farbe ist, die wir am häufigsten mit dieser Praxis in Verbindung bringen, werden Sie vielleicht überrascht sein zu erfahren, dass Wissenschaftler sagen, dass Bullen die rote Farbe der Muleta nicht wahrnehmen (sie sind farbenblind gegenüber Rot). Die beliebte Sendung MythBusters hat eine recht unterhaltsame Auseinandersetzung mit dieser Angelegenheit gemacht. Die Bewegung des Umhangs ist das Schlüsselelement und nicht die gewählte Farbe.

Für diejenigen, die die Notwendigkeit von Red-Flag-KI-Gesetzen beiseite schieben, ist eine Gegenbehauptung, dass wir etwas Dramatisches und Unmissverständliches brauchen, um sicherzustellen, dass KI-Entwickler und Unternehmen, die KI einsetzen, sich von voreingenommener oder schlechter KI fernhalten. Wenn es keine rote Flagge gäbe, könnte vielleicht ein flatternder Umhang oder im Grunde jede Art von Alarmierungsansatz im Bereich der gebührenden Beachtung liegen.

Wir wissen mit Sicherheit, dass es schlechte KI gibt und dass noch viel mehr schlechte KI auf uns zukommt. Es ist von entscheidender Bedeutung, Wege zu finden, wie wir uns vor schädlicher KI schützen können. Ebenso wichtig ist es, Leitplanken zu setzen, um zu verhindern, dass schlechte KI in die Welt gelangt.

Ernest Hemingway sagte bekanntlich, dass niemand sein Leben ganz nach oben lebt, außer Stierkämpfer. Wir müssen sicherstellen, dass die Menschen ihr ganzes Leben leben können, ungeachtet aller Schlechtigkeit oder Wahnsinn der KI, die über uns verbreitet werden.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-etablating-so-related-red-flag-ai-laws-for-calling-out- voreingenommene-algorithmen-in-autonomen-ki-systemen/