KI-Ethik Schockierende Offenbarung, dass das Training von KI, giftig oder voreingenommen zu sein, von Vorteil sein könnte, auch für diese autonomen, selbstfahrenden Autos

Hier ist eine alte Zeile, die Sie sicher schon einmal gehört haben.

Man muss genauso sein um es zu verstehen.

Sie werden vielleicht nicht erkennen, dass dies ein Ausdruck ist, der bis in die frühen 1900er Jahre zurückverfolgt werden kann und normalerweise verwendet wurde, wenn er sich auf Übeltäter bezog (andere Variationen des Schlagworts gehen weiter zurück, wie zum Beispiel in die 1600er Jahre). Ein Beispiel dafür, wie diese Äußerung verwendet werden könnte, beinhaltet die Vorstellung, dass, wenn Sie einen Dieb fangen wollen, Sie dazu einen Dieb einsetzen müssen. Dies zeigt die Behauptung, dass man einen kennen muss. Viele Filme und Fernsehsendungen haben aus dieser praktischen Weisheit Kapital geschlagen und oft dargestellt, dass das einzige praktikable Mittel, um einen Gauner zu schnappen, darin bestand, einen ebenso korrupten Gauner einzustellen, um den Übeltäter zu verfolgen.

Manche könnten die gleiche Logik nutzen, um zu argumentieren, dass ein geeigneter Weg, um zu erkennen, ob jemand unangemessene Vorurteile und diskriminierende Überzeugungen verkörpert, darin besteht, jemanden zu finden, der bereits solche Tendenzen hegt. Vermutlich wird eine Person, die bereits mit Vorurteilen gefüllt ist, leichter spüren können, dass dieser andere Mensch ebenfalls bis zum Rand mit Toxizität gefüllt ist. Auch hier muss man wissen, dass man das erklärte Mantra ist.

Ihre erste Reaktion auf die Möglichkeit, eine voreingenommene Person zu benutzen, um eine andere voreingenommene Person auszukundschaften, könnte Skepsis und Unglauben sein. Können wir nicht herausfinden, ob jemand unliebsame Vorurteile hat, indem wir sie einfach untersuchen und nicht darauf zurückgreifen müssen, jemanden mit ähnlicher Natur zu finden? Es würde seltsam erscheinen, absichtlich zu versuchen, jemanden zu entdecken, der voreingenommen ist, um andere aufzudecken, die ebenfalls toxisch voreingenommen sind.

Ich denke, es hängt teilweise davon ab, ob Sie bereit sind, den mutmaßlichen Refrain zu akzeptieren, den man braucht, um einen zu kennen. Beachten Sie, dass dies nicht bedeutet, dass der einzige Weg, einen Dieb zu fangen, erfordert, dass Sie ausschließlich und immer einen Dieb einsetzen. Sie könnten vernünftigerweise argumentieren, dass dies nur ein zusätzlicher Weg ist, der gebührend berücksichtigt werden kann. Vielleicht sind Sie manchmal bereit, die Möglichkeit in Betracht zu ziehen, einen Dieb zu benutzen, um einen Dieb zu fangen, während andere Umstände dies zu einer unergründlichen Taktik machen könnten.

Verwenden Sie das richtige Werkzeug für die richtige Einstellung, wie man so schön sagt.

Nachdem ich diese Grundlagen dargelegt habe, können wir mit dem vielleicht entnervenden und scheinbar schockierenden Teil dieser Geschichte fortfahren.

Sind Sie bereit?

Das Feld der KI verfolgt aktiv dasselbe Prinzip, das man manchmal kennen muss, insbesondere wenn es darum geht, voreingenommene oder diskriminierende KI aufzuspüren. Ja, die verwirrende Idee ist, dass wir absichtlich eine KI entwickeln wollen, die vollständig und unverfroren voreingenommen und diskriminierend ist, um dies als Mittel zu nutzen, um andere KI zu entdecken und aufzudecken, die den gleichen Anschein von Toxizität hat. Wie Sie gleich sehen werden, gibt es eine Vielzahl ärgerlicher KI-ethischer Fragen, die dieser Angelegenheit zugrunde liegen. Für meine insgesamt fortlaufende und umfassende Berichterstattung über KI-Ethik und Ethische KI siehe den Link hier und den Link hier, nur um ein paar zu nennen.

Ich schätze, Sie könnten diese Verwendung von toxischer KI, um andere toxische KI zu verfolgen, als das sprichwörtliche Konzept des Kampfes gegen Feuer mit Feuer ausdrücken (wir können uns auf viele Euphemismen und illustrative Metaphern berufen, um diese Situation darzustellen). Oder wir könnten, wie bereits betont, sparsam auf die Behauptung verweisen, dass es einen braucht, um einen zu kennen.

Das übergreifende Konzept ist, dass wir, anstatt nur mit konventionellen Methoden herauszufinden, ob ein bestimmtes KI-System unangemessene Verzerrungen enthält, vielleicht auch versuchen sollten, weniger konventionelle Mittel einzusetzen. Ein solches unkonventionelles Mittel wäre, eine KI zu entwickeln, die all die schlimmsten Vorurteile und gesellschaftlich inakzeptable Toxizitäten enthält, und diese KI dann zu verwenden, um dabei zu helfen, andere KI mit denselben Neigungen zum Bösen auszuschalten.

Wenn man kurz darüber nachdenkt, scheint es durchaus sinnvoll zu sein. Wir könnten darauf abzielen, KI zu bauen, die maximal giftig ist. Diese toxische KI wird dann verwendet, um andere KI aufzuspüren, die ebenfalls toxisch sind. Für die dann aufgedeckte „schlechte“ KI können wir damit umgehen, indem wir entweder die Toxizität rückgängig machen oder die KI vollständig fallen lassen (siehe meine Berichterstattung über das Herauslösen oder Vernichten von KI unter Link hier) oder die KI einzusperren (siehe meine Berichterstattung über die KI-Einsperrung unter Link hier) oder tun, was sonst sinnvoll erscheint.

Ein Gegenargument ist, dass wir uns untersuchen lassen sollten, dass wir absichtlich und bereitwillig eine KI entwickeln, die giftig und voller Vorurteile ist. Das ist das Letzte, woran wir jemals denken sollten, würden einige ermahnen. Konzentrieren Sie sich darauf, KI zu entwickeln, die ausschließlich aus Güte besteht. Konzentrieren Sie sich nicht darauf, eine KI zu entwickeln, die die Übel und den Bodensatz unangemessener Vorurteile aufweist. Die bloße Vorstellung eines solchen Strebens erscheint einigen abstoßend.

Es gibt mehr Bedenken bezüglich dieser umstrittenen Suche.

Vielleicht wird eine Mission zur Entwicklung einer toxischen KI nur diejenigen ermutigen, die eine KI entwickeln möchten, die in der Lage ist, die Gesellschaft zu untergraben. Es ist, als ob wir sagen würden, dass das Herstellen von KI mit unangemessenen und unappetitlichen Vorurteilen vollkommen in Ordnung ist. Keine Sorgen, kein Zögern. Versuchen Sie, nach Herzenslust toxische KI zu entwickeln, das fordern wir lautstark an KI-Entwickler auf der ganzen Welt heraus. Es ist (wink-wink) alles im Namen des Guten.

Nehmen wir außerdem an, dass sich diese giftige KI durchsetzt. Es könnte sein, dass die KI von vielen anderen KI-Buildern verwendet und wiederverwendet wird. Schließlich wird die giftige KI in allen möglichen KI-Systemen versteckt. Es könnte eine Analogie zur Entwicklung eines menschenschädigenden Virus gezogen werden, das aus einem vermutlich versiegelten Labor entweicht. Das nächste, was Sie wissen, das verflixte Ding ist überall und wir haben uns selbst ausgelöscht.

Warten Sie eine Sekunde, der Gegenargument zu diesen Gegenargumenten lautet, Sie laufen mit allen möglichen verrückten und nicht unterstützten Annahmen Amok. Tief durchatmen. Beruhige dich.

Wir können toxische KI sicher herstellen und sie unter Verschluss halten. Wir können die toxische KI nutzen, um die zunehmende Prävalenz von KI, die leider unangemessene Vorurteile aufweist, zu finden und dabei zu helfen, sie zu reduzieren. Alle anderen dieser absurd wilden und unbegründeten Schneeball-Ausrufe sind reine Reflexreaktionen und bedauerlicherweise töricht und geradezu tollkühn. Versuchen Sie nicht, das Kind mit dem Bade auszuschütten, Sie sind gewarnt.

Stellen Sie sich das so vor, argumentieren die Befürworter. Der ordnungsgemäße Bau und Einsatz von toxischer KI zu Forschungszwecken, zur Bewertung und zum Detektivverhalten, um andere gesellschaftlich anstößige KI aufzudecken, ist ein würdiger Ansatz und sollte seinen gerechten Anteil daran haben, weiterverfolgt zu werden. Legen Sie Ihre überstürzten Reaktionen beiseite. Komm auf die Erde und sieh es dir nüchtern an. Unser Auge ist auf den Preis gerichtet, nämlich das Aufdecken und Rückgängigmachen der Flut von voreingenommenen KI-Systemen und sicherzustellen, dass wir als Gesellschaft nicht von toxischer KI überrannt werden.

Zeitraum. Punkt.

Es gibt verschiedene grundlegende Möglichkeiten, sich mit dieser Vorstellung der Nutzung toxischer oder voreingenommener KI für nützliche Zwecke zu befassen, darunter:

  • Richten Sie Datensätze ein, die absichtlich voreingenommene und insgesamt toxische Daten enthalten, die für das Training der KI in Bezug darauf verwendet werden können, was nicht zu tun und/oder worauf zu achten ist
  • Verwenden Sie solche Datensätze, um Modelle für maschinelles Lernen (ML) und Deep Learning (DL) zu trainieren, um Vorurteile zu erkennen und Rechenmuster herauszufinden, die gesellschaftliche Toxizität mit sich bringen
  • Wenden Sie das auf Toxizität trainierte ML/DL auf andere KI an, um festzustellen, ob die gezielte KI möglicherweise voreingenommen und toxisch ist
  • Stellen Sie Toxizitäts-trainiertes ML/DL zur Verfügung, um KI-Entwicklern zu zeigen, worauf sie achten müssen, damit sie Modelle leicht untersuchen können, um zu sehen, wie algorithmisch durchdrungene Verzerrungen entstehen
  • Veranschaulichen Sie die Gefahren der toxischen KI als Teil der KI-Ethik und des ethischen KI-Bewusstseins, allesamt anhand dieser Problemkind-Reihe von KI-Beispielen
  • Andere

Bevor wir uns mit diesen verschiedenen Pfaden befassen, wollen wir einige zusätzliche grundlegende Einzelheiten festlegen.

Sie sind sich vielleicht vage bewusst, dass eine der lautesten Stimmen heutzutage im KI-Bereich und sogar außerhalb des KI-Bereichs darin besteht, nach einem größeren Anschein von ethischer KI zu schreien. Werfen wir einen Blick darauf, was es bedeutet, sich auf KI-Ethik und ethische KI zu beziehen. Darüber hinaus können wir die Bühne bereiten, indem wir untersuchen, was ich meine, wenn ich von Machine Learning und Deep Learning spreche.

Ein bestimmtes Segment oder Teil der KI-Ethik, das in den Medien viel Aufmerksamkeit erregt hat, besteht aus KI, die ungünstige Vorurteile und Ungerechtigkeiten aufweist. Sie wissen vielleicht, dass es zu Beginn der jüngsten Ära der KI einen riesigen Ausbruch von Enthusiasmus für das gab, was manche heute nennen KI für immer. Unglücklicherweise begannen wir nach dieser sprudelnden Aufregung, Zeuge zu werden KI für schlecht. Beispielsweise wurde festgestellt, dass verschiedene KI-basierte Gesichtserkennungssysteme rassistische Vorurteile und geschlechtsspezifische Vorurteile enthalten, die ich unter besprochen habe den Link hier.

Bemühungen, sich dagegen zu wehren KI für schlecht sind aktiv unterwegs. Außer lautstark legal Neben dem Streben, das Fehlverhalten einzudämmen, gibt es auch einen substanziellen Drang, die KI-Ethik anzunehmen, um die KI-Abscheulichkeit zu korrigieren. Die Vorstellung ist, dass wir wichtige ethische KI-Prinzipien für die Entwicklung und den Einsatz von KI annehmen und unterstützen sollten, um dies zu unterbieten KI für schlecht und gleichzeitig das Vorzuziehende ankündigen und fördern KI für immer.

In einem ähnlichen Zusammenhang bin ich ein Befürworter des Versuchs, KI als Teil der Lösung von KI-Problemen einzusetzen und Feuer mit Feuer in dieser Denkweise zu bekämpfen. Wir könnten zum Beispiel ethische KI-Komponenten in ein KI-System einbetten, das überwacht, wie der Rest der KI Dinge tut, und so potenziell diskriminierende Bemühungen in Echtzeit erkennen, siehe meine Diskussion unter den Link hier. Wir könnten auch ein separates KI-System haben, das als eine Art KI-Ethikmonitor fungiert. Das KI-System dient als Aufseher, um zu verfolgen und zu erkennen, wann eine andere KI in den unethischen Abgrund geht (siehe meine Analyse solcher Fähigkeiten unter den Link hier).

Ich werde Ihnen gleich einige übergreifende Prinzipien vorstellen, die der KI-Ethik zugrunde liegen. Hier und da schwirren viele solcher Listen herum. Man könnte sagen, dass es noch keine einzige Liste universeller Anziehungskraft und Übereinstimmung gibt. Das ist die traurige Nachricht. Die gute Nachricht ist, dass es zumindest leicht verfügbare KI-Ethik-Listen gibt, und sie neigen dazu, ziemlich ähnlich zu sein. Alles in allem deutet dies darauf hin, dass wir durch eine Art vernünftiger Konvergenz unseren Weg zu einer allgemeinen Gemeinsamkeit dessen finden, woraus KI-Ethik besteht.

Lassen Sie uns zunächst kurz einige der allgemeinen ethischen KI-Vorschriften behandeln, um zu veranschaulichen, was für jeden, der KI herstellt, einsetzt oder verwendet, eine wichtige Überlegung sein sollte.

Zum Beispiel, wie vom Vatikan in der angegeben Rom fordert KI-Ethik und wie ich ausführlich unter behandelt habe den Link hier, dies sind ihre identifizierten sechs primären KI-Ethikprinzipien:

  • Transparenz: Grundsätzlich müssen KI-Systeme erklärbar sein
  • Inklusion: Die Bedürfnisse aller Menschen müssen berücksichtigt werden, damit alle davon profitieren und allen Menschen die bestmöglichen Bedingungen geboten werden, sich zu entfalten und zu entwickeln
  • Verantwortung: Wer den Einsatz von KI gestaltet und einsetzt, muss verantwortungsbewusst und transparent vorgehen
  • Unparteilichkeit: Schaffen oder handeln Sie nicht nach Vorurteilen, um Fairness und Menschenwürde zu wahren
  • Zuverlässigkeit: KI-Systeme müssen zuverlässig arbeiten können
  • Sicherheit und Privatsphäre: KI-Systeme müssen sicher funktionieren und die Privatsphäre der Nutzer respektieren.

Wie vom US-Verteidigungsministerium (DoD) in ihrem angegeben Ethische Grundsätze für den Einsatz künstlicher Intelligenz und wie ich ausführlich unter behandelt habe den Link hier, dies sind ihre sechs primären KI-Ethikprinzipien:

  • Verantwortlich: Das DoD-Personal wird ein angemessenes Maß an Urteilsvermögen und Sorgfalt walten lassen und gleichzeitig für die Entwicklung, den Einsatz und die Nutzung von KI-Fähigkeiten verantwortlich bleiben.
  • Gerecht: Das Ministerium wird gezielte Schritte unternehmen, um unbeabsichtigte Verzerrungen bei den KI-Fähigkeiten zu minimieren.
  • Rückverfolgbar: Die KI-Fähigkeiten der Abteilung werden so entwickelt und eingesetzt, dass das relevante Personal über ein angemessenes Verständnis der Technologie, der Entwicklungsprozesse und der auf KI-Fähigkeiten anwendbaren Betriebsmethoden verfügt, einschließlich transparenter und überprüfbarer Methoden, Datenquellen sowie Entwurfsverfahren und -dokumentation.
  • Zuverlässig: Die KI-Fähigkeiten des Ministeriums werden explizite, genau definierte Verwendungszwecke haben, und die Sicherheit und Wirksamkeit solcher Fähigkeiten werden innerhalb dieser definierten Verwendungszwecke über ihren gesamten Lebenszyklus hinweg getestet und sichergestellt.
  • Regierbar: Die Abteilung wird KI-Fähigkeiten entwerfen und entwickeln, um ihre beabsichtigten Funktionen zu erfüllen und gleichzeitig unbeabsichtigte Folgen zu erkennen und zu vermeiden sowie eingesetzte Systeme, die ein unbeabsichtigtes Verhalten zeigen, zu deaktivieren oder zu deaktivieren.

Ich habe auch verschiedene kollektive Analysen der KI-Ethikprinzipien diskutiert, einschließlich der Behandlung einer Reihe von Forschern, die die Essenz zahlreicher nationaler und internationaler KI-Ethiklehrsätze in einem Papier mit dem Titel „The Global Landscape Of AI Ethics Guidelines“ (veröffentlicht in Natur), und die meine Berichterstattung unter untersucht den Link hier, was zu dieser Keystone-Liste führte:

  • Transparenz
  • Gerechtigkeit & Fairness
  • Nicht-Maleficence
  • Verantwortung
  • Datenschutz
  • Wohltätigkeit
  • Freiheit & Autonomie
  • Vertrauen
  • Nachhaltigkeit
  • Würde
  • Solidarität

Wie Sie vielleicht direkt erraten, kann es äußerst schwierig sein, die diesen Prinzipien zugrunde liegenden Besonderheiten festzunageln. Darüber hinaus ist der Versuch, diese allgemeinen Prinzipien in etwas völlig Greifbares und Detailliertes umzuwandeln, das für die Herstellung von KI-Systemen verwendet werden kann, eine harte Nuss, die es zu knacken gilt. Es ist einfach, mit der Hand zu winken, was KI-Ethikregeln sind und wie sie allgemein eingehalten werden sollten, während es eine viel kompliziertere Situation ist, wenn die KI-Codierung der wahre Gummi sein muss, der auf die Straße trifft.

Die KI-Ethik-Prinzipien müssen von KI-Entwicklern zusammen mit denjenigen angewendet werden, die die KI-Entwicklungsbemühungen verwalten, und sogar von denjenigen, die letztendlich KI-Systeme einsetzen und warten. Alle Beteiligten während des gesamten KI-Lebenszyklus der Entwicklung und Nutzung werden im Rahmen der Einhaltung der etablierten Normen der ethischen KI berücksichtigt. Dies ist ein wichtiges Highlight, da die übliche Annahme ist, dass „nur Programmierer“ oder diejenigen, die die KI programmieren, den Grundsätzen der KI-Ethik unterliegen. Wie bereits erwähnt, braucht es ein Dorf, um KI zu entwickeln und einzusetzen, und dafür muss das gesamte Dorf mit den KI-Ethikvorschriften vertraut sein und sich an diese halten.

Lassen Sie uns auch sicherstellen, dass wir uns bezüglich der Natur der heutigen KI auf derselben Seite befinden.

Es gibt heute keine KI, die empfindungsfähig ist. Wir haben das nicht. Wir wissen nicht, ob empfindungsfähige KI möglich sein wird. Niemand kann treffend vorhersagen, ob wir eine empfindungsfähige KI erreichen werden oder ob die empfindungsfähige KI irgendwie auf wundersame Weise spontan in einer Form einer rechnergestützten kognitiven Supernova entstehen wird (normalerweise als Singularität bezeichnet, siehe meine Berichterstattung unter den Link hier).

Die Art von KI, auf die ich mich konzentriere, besteht aus der nicht-empfindungsfähigen KI, die wir heute haben. Wollten wir wild darüber spekulieren empfindungsfähig AI, diese Diskussion könnte in eine radikal andere Richtung gehen. Eine empfindungsfähige KI wäre angeblich von menschlicher Qualität. Sie müssten bedenken, dass die empfindungsfähige KI das kognitive Äquivalent eines Menschen ist. Mehr noch, da einige spekulieren, dass wir eine superintelligente KI haben könnten, ist es denkbar, dass eine solche KI am Ende klüger als Menschen sein könnte (zu meiner Erforschung einer superintelligenten KI als Möglichkeit siehe die Berichterstattung hier).

Lassen Sie uns die Dinge bodenständiger halten und die heutige rechnerische, nicht-empfindungsfähige KI betrachten.

Machen Sie sich bewusst, dass die heutige KI nicht in der Lage ist, in irgendeiner Weise auf Augenhöhe mit dem menschlichen Denken zu „denken“. Wenn Sie mit Alexa oder Siri interagieren, scheinen die Konversationsfähigkeiten den menschlichen Fähigkeiten ähnlich zu sein, aber die Realität ist, dass sie rechnerisch ist und menschliche Kognition fehlt. Die jüngste Ära der KI hat in großem Umfang maschinelles Lernen (ML) und Deep Learning (DL) genutzt, die den rechnergestützten Musterabgleich nutzen. Dies hat zu KI-Systemen geführt, die den Anschein menschenähnlicher Neigungen erwecken. In der Zwischenzeit gibt es heute keine KI, die einen Anschein von gesundem Menschenverstand hat und auch nicht über die kognitive Verwunderung robusten menschlichen Denkens verfügt.

ML/DL ist eine Form des computergestützten Musterabgleichs. Der übliche Ansatz besteht darin, dass Sie Daten zu einer Entscheidungsaufgabe zusammenstellen. Sie speisen die Daten in die ML/DL-Computermodelle ein. Diese Modelle versuchen, mathematische Muster zu finden. Nachdem solche Muster gefunden wurden, verwendet das KI-System diese Muster, wenn es auf neue Daten stößt. Bei der Präsentation neuer Daten werden die auf den „alten“ oder historischen Daten basierenden Muster angewendet, um eine aktuelle Entscheidung zu treffen.

Ich denke, Sie können sich vorstellen, wohin das führt. Wenn Menschen, die die nach dem Muster getroffenen Entscheidungen getroffen haben, ungünstige Vorurteile eingebaut haben, stehen die Chancen gut, dass die Daten dies auf subtile, aber signifikante Weise widerspiegeln. Machine Learning oder Deep Learning Computational Pattern Matching versucht einfach, die Daten entsprechend mathematisch nachzuahmen. Es gibt keinen Anschein von gesundem Menschenverstand oder anderen empfindungsfähigen Aspekten der von KI erstellten Modellierung per se.

Darüber hinaus erkennen die KI-Entwickler möglicherweise auch nicht, was vor sich geht. Die obskure Mathematik in der ML/DL könnte es schwierig machen, die jetzt verborgenen Vorurteile aufzuspüren. Sie würden zu Recht hoffen und erwarten, dass die KI-Entwickler auf die potenziell vergrabenen Vorurteile testen würden, obwohl dies schwieriger ist, als es scheinen mag. Es besteht eine solide Chance, dass selbst bei relativ umfangreichen Tests immer noch Verzerrungen in den Mustererkennungsmodellen der ML/DL eingebettet sind.

Sie könnten das berühmte oder berüchtigte Sprichwort von Garbage-in-Garbage-out verwenden. Die Sache ist die, dass dies eher Vorurteilen ähnelt, die heimtückisch als Vorurteile in die KI einfließen. Die algorithmische Entscheidungsfindung (ADM) der KI wird zwangsläufig mit Ungerechtigkeiten beladen.

Nicht gut.

Was kann man gegen all das noch tun?

Kehren wir zu der zuvor aufgestellten Liste zurück, wie man versucht, mit KI-Vorurteilen oder toxischer KI umzugehen, indem man einen etwas unkonventionellen Ansatz verwendet, bei dem man nur einen kennt. Denken Sie daran, dass die Liste aus diesen wesentlichen Punkten bestand:

  • Richten Sie Datensätze ein, die absichtlich voreingenommene und insgesamt toxische Daten enthalten, die für das Training der KI in Bezug darauf verwendet werden können, was nicht zu tun und/oder worauf zu achten ist
  • Verwenden Sie solche Datensätze, um Modelle für maschinelles Lernen (ML) und Deep Learning (DL) zu trainieren, um Vorurteile zu erkennen und Rechenmuster herauszufinden, die gesellschaftliche Toxizität mit sich bringen
  • Wenden Sie das auf Toxizität trainierte ML/DL auf andere KI an, um festzustellen, ob die gezielte KI möglicherweise voreingenommen und toxisch ist
  • Stellen Sie Toxizitäts-trainiertes ML/DL zur Verfügung, um KI-Entwicklern zu zeigen, worauf sie achten müssen, damit sie Modelle leicht untersuchen können, um zu sehen, wie algorithmisch durchdrungene Verzerrungen entstehen
  • Veranschaulichen Sie die Gefahren toxischer KI als Teil der KI-Ethik und des ethischen KI-Bewusstseins, alles in allem durch diese Problemkind-Serie von KI-Beispielen
  • Andere

Wir werden uns den ersten dieser hervorstechenden Punkte genauer ansehen.

Einrichten von Datensätzen mit toxischen Daten

Ein aufschlussreiches Beispiel für den Versuch, Datensätze zu erstellen, die unappetitliche gesellschaftliche Vorurteile enthalten, ist der Datensatz CivilComments der kuratierten WILDS-Sammlung.

Zuerst ein kurzer Hintergrund.

WILDS ist eine Open-Source-Sammlung von Datensätzen, die für das Training von ML/DL verwendet werden können. Der primäre erklärte Zweck von WILDS besteht darin, dass es KI-Entwicklern den direkten Zugriff auf Daten ermöglicht, die darstellen Verteilung verschiebt sich in verschiedenen Fachbereichen. Einige der derzeit verfügbaren Domänen umfassen Bereiche wie Tierarten, Tumore in lebendem Gewebe, Weizenkopfdichte und andere Domänen wie die CivilComments, die ich gleich beschreiben werde.

Der Umgang mit Verteilungsverschiebungen ist ein entscheidender Teil der ordnungsgemäßen Erstellung von KI-ML/DL-Systemen. Das ist der Deal. Manchmal stellt sich heraus, dass die Daten, die Sie für das Training verwenden, sich stark von den Test- oder „in the wild“-Daten unterscheiden, und daher ist Ihr vermutlich trainiertes ML/DL davon entfernt, wie die reale Welt aussehen wird. Kluge KI-Entwickler sollten ihre ML/DL trainieren, um mit solchen Verteilungsverschiebungen fertig zu werden. Dies sollte im Voraus geschehen und keine Überraschung sein, die später eine Überarbeitung der ML/DL per se erfordert.

Wie in dem Artikel erklärt, der WILDS vorstellte: „Verteilungsverschiebungen – bei denen sich die Trainingsverteilung von der Testverteilung unterscheidet – können die Genauigkeit von Systemen für maschinelles Lernen (ML), die in freier Wildbahn eingesetzt werden, erheblich beeinträchtigen. Trotz ihrer Allgegenwärtigkeit in der realen Welt sind diese Verteilungsverschiebungen in den Datensätzen, die heute in der ML-Community weit verbreitet sind, unterrepräsentiert. Um diese Lücke zu schließen, präsentieren wir WILDS, einen kuratierten Benchmark von 10 Datensätzen, die eine Vielzahl von Verteilungsverschiebungen widerspiegeln, die sich natürlicherweise in realen Anwendungen ergeben, wie z. B. Verschiebungen zwischen Krankenhäusern zur Tumoridentifizierung; über Kamerafallen zur Überwachung von Wildtieren; und über Zeit und Ort in Satellitenbildgebung und Armutskartierung“ (in dem Artikel mit dem Titel „WILDS: A Benchmark of in-the-Wild Distribution Shifts“ von Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu und andere).

Die Anzahl solcher WILDS-Datensätze nimmt weiter zu und die Art der Datensätze wird im Allgemeinen verbessert, um den Wert der Verwendung der Daten für das ML/DL-Training zu erhöhen.

Der CivilComments-Datensatz wird folgendermaßen beschrieben: „Die automatische Überprüfung von benutzergeneriertem Text – z. B. das Erkennen toxischer Kommentare – ist ein wichtiges Werkzeug, um die schiere Menge an im Internet geschriebenem Text zu moderieren. Leider haben frühere Arbeiten gezeigt, dass solche Toxizitätsklassifikatoren Verzerrungen in den Trainingsdaten aufgreifen und Toxizität fälschlicherweise mit der Erwähnung bestimmter demografischer Merkmale in Verbindung bringen. Diese Arten von Scheinkorrelationen können die Modellleistung bei bestimmten Teilpopulationen erheblich verschlechtern. Wir untersuchen dieses Problem anhand einer modifizierten Variante des CivilComments-Datensatzes“ (wie auf der WILDS-Website veröffentlicht).

Berücksichtigen Sie die Nuancen von unerwünschten Online-Postings.

Sie sind zweifellos auf giftige Kommentare gestoßen, wenn Sie fast jede Art von sozialen Medien nutzen. Es scheint Ihnen fast unmöglich zu sein, auf magische Weise zu vermeiden, den scharfen und abgründigen Inhalt zu sehen, der heutzutage allgegenwärtig zu sein scheint. Manchmal ist das vulgäre Material subtil und vielleicht müssen Sie zwischen den Zeilen lesen, um den Kern des voreingenommenen oder diskriminierenden Tons oder der Bedeutung zu verstehen. In anderen Fällen sind die Wörter offensichtlich giftig und Sie brauchen kein Mikroskop oder einen speziellen Decoderring, um herauszufinden, was die Passagen beinhalten.

CivilComments ist ein Datensatz, der zusammengestellt wurde, um zu versuchen, AI ML/DL zu entwickeln, das toxische Inhalte rechnerisch erkennen kann. Darauf konzentrierten sich die Forscher, die den Bemühungen zugrunde lagen: „Unbeabsichtigte Verzerrungen beim maschinellen Lernen können sich als systemische Leistungsunterschiede für verschiedene demografische Gruppen manifestieren und möglicherweise bestehende Herausforderungen für die Fairness in der Gesellschaft insgesamt verschärfen. In diesem Artikel stellen wir eine Reihe von schwellenwertagnostischen Metriken vor, die eine differenzierte Sicht auf diese unbeabsichtigte Verzerrung bieten, indem wir die verschiedenen Möglichkeiten berücksichtigen, wie die Bewertungsverteilung eines Klassifikators über bestimmte Gruppen hinweg variieren kann. Wir führen auch einen großen neuen Testsatz von Online-Kommentaren mit Crowd-Sourcing-Anmerkungen für Identitätsreferenzen ein. Wir verwenden dies, um zu zeigen, wie unsere Metriken verwendet werden können, um neue und möglicherweise subtile unbeabsichtigte Verzerrungen in bestehenden öffentlichen Modellen zu finden“ (in einem Artikel mit dem Titel „Nuanced Metrics For Measuring Unintended Bias With Real Data for Test Classification“ von Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vassermann).

Wenn Sie dieser Angelegenheit ein wenig nachdenklich machen, fragen Sie sich vielleicht, wie um alles in der Welt Sie unterscheiden können, was ein toxischer Kommentar ist und was kein toxischer Kommentar ist. Menschen können sich radikal darüber unterscheiden, was sie als geradezu giftige Formulierungen auffassen. Eine Person ist möglicherweise empört über eine bestimmte Online-Bemerkung oder einen Kommentar, der in sozialen Medien gepostet wird, während eine andere Person möglicherweise überhaupt nicht gerührt ist. Oft wird argumentiert, dass der Begriff des giftigen Kommentars ein völlig vages Gebot ist. Es ist wie Kunst, wobei Kunst üblicherweise nur im Auge des Betrachters verstanden wird, und ebenso liegen voreingenommene oder giftige Bemerkungen auch nur im Auge des Betrachters.

Balderdash, einige Erwiderung. Jeder mit vernünftigem Verstand kann herausfinden, ob eine Online-Bemerkung giftig ist oder nicht. Sie müssen kein Raketenwissenschaftler sein, um zu erkennen, wenn eine gepostete ätzende Beleidigung voller Vorurteile und Hass ist.

Natürlich verschieben und verändern sich gesellschaftliche Sitten im Laufe der Zeit. Was vor einiger Zeit vielleicht nicht als anstößig empfunden wurde, kann heute als abscheulich falsch angesehen werden. Darüber hinaus könnten Dinge, die vor Jahren gesagt wurden und die einst als übermäßig voreingenommen angesehen wurden, im Lichte von Bedeutungsänderungen neu interpretiert werden. Unterdessen behaupten andere, dass toxische Kommentare immer toxisch sind, egal wann sie ursprünglich veröffentlicht wurden. Man könnte argumentieren, dass Toxizität nicht relativ, sondern absolut ist.

Der Versuch festzustellen, was giftig ist, kann dennoch ein ziemlich schwieriges Rätsel sein. Wir können diese schwierige Angelegenheit verdoppeln, indem wir versuchen, Algorithmen oder KI zu entwickeln, die feststellen können, was was ist. Wenn Menschen Schwierigkeiten haben, solche Einschätzungen zu treffen, ist die Programmierung eines Computers wahrscheinlich genauso oder noch problematischer, sagen einige.

Ein Ansatz zur Erstellung von Datensätzen mit toxischen Inhalten besteht darin, eine Crowdsourcing-Methode zur Bewertung oder Bewertung des Inhalts zu verwenden, also ein menschenbasiertes Mittel bereitzustellen, um festzustellen, was als unerwünscht angesehen wird, und die Kennzeichnung in den Datensatz selbst aufzunehmen. Ein AI ML/DL könnte dann die Daten und die zugehörige Kennzeichnung prüfen, die von menschlichen Bewertern angegeben wurden. Dies wiederum kann möglicherweise als Mittel dienen, um zugrunde liegende mathematische Muster rechnerisch zu finden. Voila, die ML/DL ist dann möglicherweise in der Lage, vorherzusehen oder rechnerisch zu beurteilen, ob ein bestimmter Kommentar wahrscheinlich toxisch ist oder nicht.

Wie in dem zitierten Artikel zu nuancierten Metriken erwähnt: „Bei dieser Kennzeichnung werden Bewerter aufgefordert, die Toxizität eines Kommentars zu bewerten, wobei sie zwischen ‚sehr giftig‘, ‚giftig‘, ‚schwer zu sagen‘ und ‚nicht giftig‘ wählen können. Die Bewerter wurden auch zu mehreren Subtypen der Toxizität befragt, obwohl diese Bezeichnungen für die Analyse in dieser Arbeit nicht verwendet wurden. Mithilfe dieser Bewertungstechniken haben wir einen Datensatz mit 1.8 Millionen Kommentaren erstellt, die aus Online-Kommentarforen stammen und Labels für Toxizität und Identität enthalten. Während alle Kommentare wegen Toxizität gekennzeichnet waren, wurde eine Teilmenge von 450,000 Kommentaren wegen Identität gekennzeichnet. Einige mit Identität gekennzeichnete Kommentare wurden unter Verwendung von Modellen vorausgewählt, die aus früheren Iterationen der Identitätskennzeichnung erstellt wurden, um sicherzustellen, dass Crowd-Rater häufig Identitätsinhalte sehen würden“ (in dem zitierten Artikel von Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Ein weiteres Beispiel für das Ziel, Datensätze zu haben, die illustrativen toxischen Inhalt enthalten, sind Bemühungen, KI-basierte interaktive Konversationssysteme für die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) zu trainieren. Sie haben wahrscheinlich schon mit NLP-Systemen wie Alexa und Siri interagiert. Ich habe einige der Schwierigkeiten und Einschränkungen des heutigen NLP behandelt, einschließlich eines besonders beunruhigenden Vorfalls, der auftrat, als Alexa Kindern einen ungeeigneten und gefährlichen Rat gab, siehe den Link hier.

Eine kürzlich durchgeführte Studie versuchte, neun Kategorien sozialer Vorurteile zu verwenden, die im Allgemeinen auf der EEOC-Liste (Equal Employment Opportunities Commission) mit geschützten demografischen Merkmalen basierten, darunter Alter, Geschlecht, Nationalität, körperliche Erscheinung, Rasse oder ethnische Zugehörigkeit, Religion, Behinderungsstatus, Sexualität Orientierung und sozioökonomischer Status. Laut den Forschern: „Es ist gut dokumentiert, dass NLP-Modelle soziale Vorurteile lernen, aber es wurde wenig Arbeit darüber geleistet, wie sich diese Vorurteile in Modellausgaben für angewandte Aufgaben wie die Beantwortung von Fragen (QA) manifestieren. Wir stellen den Bias Benchmark for QA (BBQ) vor, einen von den Autoren erstellten Datensatz von Fragensets, die attestierte soziale Vorurteile gegenüber Personen, die geschützten Klassen angehören, entlang neun sozialer Dimensionen hervorheben, die für englischsprachige Kontexte in den USA relevant sind“ (in einem Artikel mit dem Titel „BBQ : A Hand-Built Benchmark For Question Answering“ von Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

Die Erstellung von Datensätzen, die absichtlich voreingenommene und insgesamt toxische Daten enthalten, ist ein zunehmender Trend in der KI und wird besonders durch das Aufkommen der KI-Ethik und den Wunsch, ethische KI zu produzieren, angeheizt. Diese Datensätze können verwendet werden, um Machine Learning (ML)- und Deep Learning (DL)-Modelle zu trainieren, um Verzerrungen zu erkennen und Rechenmuster herauszufinden, die gesellschaftliche Toxizität mit sich bringen. Die auf Toxizität trainierte ML/DL kann wiederum vernünftig auf andere KI gerichtet werden, um festzustellen, ob die gezielte KI möglicherweise voreingenommen und toxisch ist.

Darüber hinaus können die verfügbaren auf Toxizität trainierten ML/DL-Systeme verwendet werden, um KI-Entwicklern zu zeigen, worauf sie achten müssen, damit sie Modelle leicht untersuchen können, um zu sehen, wie algorithmisch durchdrungene Verzerrungen entstehen. Insgesamt sind diese Bemühungen in der Lage, die Gefahren der toxischen KI als Teil der KI-Ethik und des ethischen KI-Bewusstseins insgesamt zu veranschaulichen.

An diesem Punkt dieser gewichtigen Diskussion würde ich wetten, dass Sie sich einige weitere anschauliche Beispiele wünschen, die dieses Thema veranschaulichen könnten. Es gibt eine besondere und sicherlich beliebte Reihe von Beispielen, die mir am Herzen liegen. Sie sehen, in meiner Eigenschaft als Experte für KI, einschließlich der ethischen und rechtlichen Auswirkungen, werde ich häufig gebeten, realistische Beispiele zu nennen, die Dilemmata der KI-Ethik aufzeigen, damit die etwas theoretische Natur des Themas leichter erfasst werden kann. Einer der eindrucksvollsten Bereiche, der dieses ethische KI-Problem anschaulich darstellt, ist das Aufkommen von KI-basierten, wirklich selbstfahrenden Autos. Dies dient als praktischer Anwendungsfall oder als Beispiel für eine ausführliche Diskussion zu diesem Thema.

Hier ist dann eine bemerkenswerte Frage, die es wert ist, darüber nachzudenken: Erhellt das Aufkommen von KI-basierten, wirklich selbstfahrenden Autos irgendetwas über den Nutzen von Datensätzen zur Entwicklung toxischer KI, und wenn ja, was zeigt dies?

Erlauben Sie mir einen Moment, um die Frage auszupacken.

Beachten Sie zunächst, dass an einem echten selbstfahrenden Auto kein menschlicher Fahrer beteiligt ist. Denken Sie daran, dass echte selbstfahrende Autos über ein KI-Fahrsystem gefahren werden. Es ist weder ein menschlicher Fahrer am Steuer erforderlich, noch ist vorgesehen, dass ein Mensch das Fahrzeug fährt. Für meine umfangreiche und laufende Berichterstattung über autonome Fahrzeuge (AVs) und insbesondere selbstfahrende Autos, siehe den Link hier.

Ich möchte weiter klären, was gemeint ist, wenn ich von echten selbstfahrenden Autos spreche.

Die Ebenen selbstfahrender Autos verstehen

Zur Verdeutlichung: Echte selbstfahrende Autos sind solche, bei denen die KI das Auto ganz alleine fährt und es während der Fahraufgabe keine menschliche Hilfe gibt.

Diese fahrerlosen Fahrzeuge gelten als Level 4 und Level 5 (siehe meine Erklärung unter Link hier), während ein Auto, bei dem ein menschlicher Fahrer den Fahraufwand mitteilen muss, normalerweise als Level 2 oder Level 3 betrachtet wird. Die Autos, die die Fahraufgabe mitteilen, werden als halbautonom beschrieben und enthalten typischerweise eine Vielzahl von automatisierte Add-Ons, die als ADAS (Advanced Driver-Assistance Systems) bezeichnet werden.

Es gibt noch kein wirklich selbstfahrendes Auto auf Level 5, und wir wissen noch nicht einmal, ob dies möglich sein wird und wie lange es dauern wird, bis es erreicht wird.

In der Zwischenzeit versuchen die Bemühungen der Stufe 4 allmählich, durch sehr enge und selektive Versuche auf öffentlichen Straßen eine gewisse Traktion zu erreichen. Es gibt jedoch Kontroversen darüber, ob diese Tests per se zulässig sein sollten (wir sind alle Meerschweinchen auf Leben und Tod in einem Experiment) Einige behaupten, dass sie auf unseren Autobahnen und Nebenstraßen stattfinden Link hier).

Da halbautonome Autos einen menschlichen Fahrer erfordern, unterscheidet sich die Einführung dieser Autotypen nicht wesentlich vom Fahren herkömmlicher Fahrzeuge. Daher gibt es an sich nicht viel Neues zu diesem Thema (wie Sie sehen werden) in einem Moment sind die nächsten Punkte allgemein anwendbar).

Für halbautonome Autos ist es wichtig, dass die Öffentlichkeit vor einem störenden Aspekt gewarnt wird, der in letzter Zeit aufgetreten ist, und zwar trotz der menschlichen Fahrer, die immer wieder Videos von sich selbst veröffentlichen, die am Steuer eines Level 2- oder Level 3-Autos einschlafen Wir alle müssen vermeiden, in die Irre geführt zu werden, dass der Fahrer seine Aufmerksamkeit von der Fahraufgabe ablenken kann, während er ein halbautonomes Auto fährt.

Sie sind die verantwortliche Partei für die Fahraktionen des Fahrzeugs, unabhängig davon, wie viel Automatisierung in ein Level 2 oder Level 3 geworfen werden könnte.

Selbstfahrende Autos und der Verzicht auf giftige KI

Bei echten selbstfahrenden Fahrzeugen der Stufen 4 und 5 ist kein menschlicher Fahrer an der Fahraufgabe beteiligt.

Alle Insassen werden Passagiere sein.

Die KI fährt.

Ein Aspekt, der sofort diskutiert werden muss, ist die Tatsache, dass die KI, die an den heutigen KI-Antriebssystemen beteiligt ist, nicht empfindungsfähig ist. Mit anderen Worten, die KI ist insgesamt ein Kollektiv computergestützter Programmierung und Algorithmen und mit Sicherheit nicht in der Lage, auf die gleiche Weise zu argumentieren, wie es Menschen können.

Warum wird dadurch zusätzlich betont, dass die KI nicht empfindungsfähig ist?

Weil ich unterstreichen möchte, dass ich bei der Erörterung der Rolle des KI-Antriebssystems der KI keine menschlichen Qualitäten zuschreibe. Bitte beachten Sie, dass es heutzutage eine anhaltende und gefährliche Tendenz gibt, die KI zu anthropomorphisieren. Im Wesentlichen weisen die Menschen der heutigen KI eine menschenähnliche Empfindung zu, trotz der unbestreitbaren und unbestreitbaren Tatsache, dass es eine solche KI noch nicht gibt.

Mit dieser Klarstellung können Sie sich vorstellen, dass das KI-Fahrsystem die Facetten des Fahrens nicht von Haus aus „kennt“. Das Fahren und alles, was dazu gehört, muss als Teil der Hardware und Software des selbstfahrenden Autos programmiert werden.

Lassen Sie uns in die Vielzahl von Aspekten eintauchen, die zu diesem Thema eine Rolle spielen.

Zunächst ist es wichtig zu erkennen, dass nicht alle KI-selbstfahrenden Autos gleich sind. Jeder Autohersteller und jedes selbstfahrende Technologieunternehmen verfolgt seinen eigenen Ansatz, um selbstfahrende Autos zu entwickeln. Daher ist es schwierig, pauschale Aussagen darüber zu treffen, was KI-Fahrsysteme tun oder nicht tun werden.

Darüber hinaus kann die Aussage, dass ein KI-Fahrsystem eine bestimmte Sache nicht macht, später von Entwicklern überholt werden, die den Computer tatsächlich so programmieren, dass sie genau das tun. Schritt für Schritt werden KI-Fahrsysteme sukzessive verbessert und erweitert. Eine heute bestehende Einschränkung ist in einer zukünftigen Iteration oder Version des Systems möglicherweise nicht mehr vorhanden.

Ich hoffe, dass dies eine ausreichende Litanei von Vorbehalten bietet, um das zu untermauern, was ich gleich erzählen werde.

Es gibt zahlreiche potenzielle und eines Tages wahrscheinlich realisierte KI-infundierte Vorurteile, die dem Aufkommen autonomer Fahrzeuge und selbstfahrender Autos entgegenwirken werden, siehe zum Beispiel meine Diskussion unter den Link hier und den Link hier. Wir befinden uns noch in den Anfängen der Markteinführung von selbstfahrenden Autos. Bis die Einführung ein ausreichendes Ausmaß und eine ausreichende Sichtbarkeit erreicht, sind viele der toxischen KI-Facetten, von denen ich vorhergesagt habe, dass sie letztendlich eintreten werden, noch nicht ohne weiteres offensichtlich und haben noch keine breite öffentliche Aufmerksamkeit erregt.

Stellen Sie sich eine scheinbar einfache Angelegenheit im Zusammenhang mit dem Fahren vor, die zunächst völlig harmlos erscheinen mag. Lassen Sie uns insbesondere untersuchen, wie richtig bestimmt wird, ob angehalten werden soll, um auf „eigensinnige“ Fußgänger zu warten, die keine Vorfahrt zum Überqueren einer Straße haben.

Sicherlich sind Sie schon einmal mit dem Auto gefahren und auf Fußgänger gestoßen, die darauf warteten, die Straße zu überqueren, und doch keine Vorfahrt hatten. Dies bedeutete, dass Sie nach eigenem Ermessen entscheiden konnten, ob Sie anhalten und sie überqueren ließen. Sie könnten weiterfahren, ohne sie überqueren zu lassen, und sich dabei immer noch vollständig an die gesetzlichen Fahrregeln halten.

Studien darüber, wie menschliche Fahrer entscheiden, für solche Fußgänger anzuhalten oder nicht anzuhalten, haben nahegelegt, dass die menschlichen Fahrer manchmal die Wahl auf der Grundlage von ungünstigen Vorurteilen treffen. Ein menschlicher Fahrer könnte den Fußgänger beobachten und sich dafür entscheiden, nicht anzuhalten, obwohl er angehalten hätte, wenn der Fußgänger ein anderes Aussehen gehabt hätte, beispielsweise basierend auf Rasse oder Geschlecht. Ich habe dies bei untersucht den Link hier.

Wie werden KI-Fahrsysteme programmiert, um die gleiche Art von Stop-or-Go-Entscheidung zu treffen?

Man könnte proklamieren, dass alle KI-Fahrsysteme so programmiert werden sollten, dass sie vor wartenden Fußgängern immer anhalten. Das vereinfacht die Sache enorm. Es gibt wirklich keine knifflige Entscheidung zu treffen. Wenn ein Fußgänger auf die Überquerung wartet, stellen Sie unabhängig davon, ob er Vorfahrt hat oder nicht, sicher, dass das selbstfahrende KI-Auto anhält, damit der Fußgänger überqueren kann.

Kinderleicht.

Das Leben ist nie so einfach, wie es scheint. Stellen Sie sich vor, alle selbstfahrenden Autos halten sich an diese Regel. Fußgänger würden unweigerlich erkennen, dass die KI-Fahrsysteme, sagen wir, Schwächlinge sind. Jeder Fußgänger, der die Straße überqueren möchte, wird dies wohl oder übel tun, wann und wo er will.

Angenommen, ein selbstfahrendes Auto fährt mit der angegebenen Höchstgeschwindigkeit von 45 Meilen pro Stunde eine schnelle Straße hinunter. Ein Fußgänger „weiß“, dass die KI das selbstfahrende Auto zum Stehen bringen wird. Also flitzt der Fußgänger auf die Straße. Leider siegt die Physik über die KI. Das KI-Fahrsystem wird versuchen, das selbstfahrende Auto zum Stehen zu bringen, aber der Schwung des autonomen Fahrzeugs wird die tonnenschwere Vorrichtung vorwärts tragen und in den eigensinnigen Fußgänger rammen. Das Ergebnis ist entweder verletzend oder führt zu einem Todesfall.

Fußgänger versuchen diese Art von Verhalten normalerweise nicht, wenn ein menschlicher Fahrer am Steuer sitzt. Sicher, an einigen Schauplätzen findet ein Augapfelkrieg statt. Ein Fußgänger beäugt einen Autofahrer. Der Fahrer starrt den Fußgänger an. Abhängig von den Umständen könnte der Fahrer anhalten oder der Fahrer könnte seinen Anspruch auf die Fahrbahn geltend machen und den Fußgänger angeblich herausfordern, zu versuchen, seinen Weg zu stören.

Wir wollen vermutlich nicht, dass die KI in einen ähnlichen Augapfelkrieg gerät, was ohnehin auch ein bisschen herausfordernd ist, da weder eine Person noch ein Roboter am Steuer des selbstfahrenden Autos sitzt (ich habe die zukünftige Möglichkeit von Robotern diskutiert dieses Laufwerk, siehe den Link hier). Aber wir können auch nicht zulassen, dass Fußgänger immer das Sagen haben. Das Ergebnis könnte für alle Beteiligten katastrophal sein.

Sie könnten dann versucht sein, auf die andere Seite dieser Medaille zu blättern und zu erklären, dass das KI-Fahrsystem unter solchen Umständen niemals stoppen sollte. Mit anderen Worten, wenn ein Fußgänger keine ordnungsgemäße Vorfahrt zum Überqueren der Straße hat, sollte die KI immer davon ausgehen, dass das selbstfahrende Auto unvermindert weiterfahren sollte. Pech für die Fußgänger.

Eine solch strenge und vereinfachte Regel wird von der breiten Öffentlichkeit nicht gut angenommen. Menschen sind Menschen, und sie mögen es nicht, völlig daran gehindert zu werden, die Straße zu überqueren, obwohl sie dazu in verschiedenen Situationen gesetzlich keine Vorfahrt haben. Sie könnten leicht mit einem beträchtlichen Aufruhr in der Öffentlichkeit rechnen und möglicherweise eine Gegenreaktion gegen die fortgesetzte Einführung selbstfahrender Autos erleben.

Verdammt, wenn wir es tun, und verdammt, wenn wir es nicht tun.

Ich hoffe, dies hat Sie zu der vernünftigen Alternative geführt, dass die KI mit einem Anschein von Entscheidungsfindung programmiert werden muss, wie mit diesem Fahrproblem umzugehen ist. Eine feste Regel, niemals aufzuhören, ist unhaltbar, und ebenso ist eine feste Regel, immer aufzuhören, ebenfalls unhaltbar. Die KI muss mit einer algorithmischen Entscheidungsfindung oder ADM entwickelt werden, um mit der Angelegenheit fertig zu werden.

Sie könnten versuchen, einen Datensatz zu verwenden, der mit einem ML/DL-Ansatz gekoppelt ist.

So könnten sich die KI-Entwickler entscheiden, diese Aufgabe zu programmieren. Sie sammeln Daten von Videokameras, die überall in einer bestimmten Stadt aufgestellt sind, in der das selbstfahrende Auto eingesetzt werden soll. Die Daten zeigen, wann menschliche Fahrer sich entscheiden, vor Fußgängern anzuhalten, die keine Vorfahrt haben. Alles wird in einem Datensatz gesammelt. Durch den Einsatz von Machine Learning und Deep Learning werden die Daten rechnerisch modelliert. Das KI-Fahrsystem verwendet dann dieses Modell, um zu entscheiden, wann es anhält oder nicht.

Im Allgemeinen ist die Idee, dass die KI das selbstfahrende Auto auf diese Weise steuern wird, was auch immer der lokale Brauch ist. Problem gelöst!

Aber ist es wirklich gelöst?

Erinnern Sie sich daran, dass ich bereits darauf hingewiesen hatte, dass es Forschungsstudien gibt, die zeigen, dass menschliche Fahrer bei der Entscheidung, wann sie für Fußgänger anhalten, voreingenommen sein können. Die gesammelten Daten über eine bestimmte Stadt werden vermutlich diese Verzerrungen enthalten. Ein KI-ML/DL, das auf diesen Daten basiert, wird dann wahrscheinlich dieselben Vorurteile modellieren und widerspiegeln. Das KI-Fahrsystem wird lediglich die gleichen bestehenden Vorspannungen ausführen.

Um zu versuchen, mit dem Problem umzugehen, könnten wir einen Datensatz zusammenstellen, der tatsächlich solche Verzerrungen aufweist. Wir finden entweder einen solchen Datensatz und kennzeichnen dann die Verzerrungen, oder wir erstellen synthetisch einen Datensatz, um die Angelegenheit zu veranschaulichen.

Alle zuvor identifizierten Schritte würden unternommen, einschließlich:

  • Richten Sie einen Datensatz ein, der absichtlich diese bestimmte Verzerrung enthält
  • Verwenden Sie den Datensatz, um Machine Learning (ML)- und Deep Learning (DL)-Modelle zum Erkennen dieser spezifischen Verzerrung zu trainieren
  • Wenden Sie das voreingenommene ML/DL auf andere KI an, um festzustellen, ob die Ziel-KI möglicherweise auf ähnliche Weise voreingenommen ist
  • Stellen Sie das voreingenommene ML/DL zur Verfügung, um KI-Entwicklern zu zeigen, worauf sie achten müssen, damit sie ihre Modelle leicht untersuchen können, um zu sehen, wie algorithmisch durchdrungene Vorurteile entstehen
  • Veranschaulichen Sie die Gefahren einer voreingenommenen KI als Teil der KI-Ethik und des ethischen KI-Bewusstseins anhand dieses zusätzlichen spezifischen Beispiels
  • Andere

Fazit

Kommen wir noch einmal auf die Eröffnungszeile zurück.

Man muss genauso sein um es zu verstehen.

Einige interpretieren, dass dieses unglaublich weit verbreitete Sprichwort impliziert, dass wir beim Aufspüren toxischer KI dem Aufbau und der Verwendung toxischer KI gebührende Beachtung schenken sollten, um andere toxische KI zu entdecken und mit ihnen umzugehen. Fazit: Manchmal braucht es einen Dieb, um einen anderen Dieb zu fangen.

Eine geäußerte Besorgnis ist, dass wir uns vielleicht alle Mühe geben, Diebe zu machen. Wollen wir KI entwickeln, die toxisch ist? Scheint das nicht eine verrückte Idee zu sein? Einige argumentieren vehement, dass wir alle giftigen KIs verbieten sollten, einschließlich solcher KIs, die wissentlich gebaut wurden, selbst wenn sie angeblich für einen Helden oder Tapferen gebaut wurden KI für immer Zweck.

Squelch giftige KI in welcher schlauen oder heimtückischen Gestalt auch immer sie auftreten mag.

Eine letzte Wendung zu diesem Thema für jetzt. Wir gehen im Allgemeinen davon aus, dass diese berühmte Zeile mit Menschen oder Dingen zu tun hat, die schlechte oder schlechte Taten begehen. So landen wir auf der Vorstellung, dass es einen Dieb braucht, um einen Dieb zu fangen. Vielleicht sollten wir dieses Sprichwort auf den Kopf stellen und es eher zu einem fröhlichen als zu einem traurigen Gesicht machen.

Hier ist, wie.

Wenn wir eine KI wollen, die unvoreingenommen und ungiftig ist, könnte es denkbar sein, dass man eine kennen muss. Vielleicht braucht es das Größte und Beste, um weitere Größe und Güte zu erkennen und zu zeugen. Bei dieser Variante der Weisen Weisheit richten wir unseren Blick auf das glückliche Gesicht und zielen darauf ab, uns auf das Entwickeln zu konzentrieren KI für immer.

Das wäre eine optimistischere und erfreulich fröhlichere Sichtweise darauf, die man braucht, um einen zu kennen, wenn Sie verstehen, was ich meine.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- vorteilhaft-unter anderem-für-diese-autonomen-selbstfahrenden-autos/