KI-Ethik läutet die Alarmglocken über das sich abzeichnende Gespenst von KI-Vorurteilen auf massiver globaler Ebene, insbesondere angeheizt durch sich abzeichnende vollständig autonome Systeme

Platon hat bekanntlich gesagt, dass eine gute Entscheidung auf Wissen und nicht auf Zahlen basiert.

Diese scharfe Einsicht scheint erstaunlich vorausschauend in Bezug auf die heutige künstliche Intelligenz (KI).

Sie sehen, trotz der schmetternden Schlagzeilen, die derzeit verkünden, dass die KI irgendwie die Empfindungsfähigkeit erreicht hat und menschliches Wissen und Denken verkörpert, seien Sie sich bitte bewusst, dass diese übertriebene KI-Übertreibung eine heimtückische Ausrede ist, da wir uns bei der heutigen Algorithmus-Entscheidungsfindung immer noch auf das Knacken von Zahlen verlassen (ADM ), wie sie von KI-Systemen durchgeführt werden. Sogar das gepriesene maschinelle Lernen (ML) und Deep Learning (DL) bestehen aus rechnerischem Musterabgleich, was bedeutet, dass Zahlen immer noch im Mittelpunkt der erhabenen Verwendung von ML/DL stehen.

Wir wissen nicht, ob es möglich ist, dass KI Empfindungsvermögen erreicht. Könnte sein, könnte nicht sein. Wie es dazu kommen kann, kann niemand mit Sicherheit sagen. Einige glauben, dass wir unsere rechnergestützten KI-Bemühungen schrittweise verbessern werden, so dass eine Form von Empfindungsfähigkeit spontan auftritt. Andere denken, dass die KI in eine Art Computer-Supernova geraten und so ziemlich von selbst Bewusstsein erlangen könnte (typischerweise als Singularität bezeichnet). Weitere Informationen zu diesen Theorien über die Zukunft der KI finden Sie in meiner Berichterstattung unter den Link hier.

Machen wir uns also nichts vor und glauben fälschlicherweise, dass moderne KI in der Lage ist, wie Menschen zu denken. Ich nehme an, dass sich dann die Frage zu Platons Bemerkung stellt, ob wir gute Entscheidungen auf der Grundlage von rechnergestützter KI treffen können und nicht auf der Grundlage von empfindungsfähiger KI. Sie werden vielleicht überrascht sein zu erfahren, dass ich behaupten würde, dass wir tatsächlich gute Entscheidungen haben können, die von alltäglichen KI-Systemen getroffen werden.

Die andere Seite dieser Medaille ist, dass wir auch alltägliche KI-Systeme haben können, die schlechte Entscheidungen treffen. Faule Entscheidungen. Entscheidungen, die voller unerwünschter Vorurteile und Ungerechtigkeiten sind. Sie wissen vielleicht, dass es zu Beginn der jüngsten Ära der KI einen riesigen Ausbruch von Enthusiasmus für das gab, was manche heute nennen KI für immer. Unglücklicherweise begannen wir nach dieser sprudelnden Aufregung, Zeuge zu werden KI für schlecht. Beispielsweise wurde festgestellt, dass verschiedene KI-basierte Gesichtserkennungssysteme rassistische Vorurteile und geschlechtsspezifische Vorurteile enthalten, die ich unter besprochen habe den Link hier.

Bemühungen, sich dagegen zu wehren KI für schlecht sind aktiv unterwegs. Außer lautstark legal Neben dem Streben, das Fehlverhalten einzudämmen, gibt es auch einen substanziellen Drang, die KI-Ethik anzunehmen, um die KI-Abscheulichkeit zu korrigieren. Die Vorstellung ist, dass wir wichtige ethische KI-Prinzipien für die Entwicklung und den Einsatz von KI annehmen und unterstützen sollten, um dies zu unterbieten KI für schlecht und gleichzeitig das Vorzuziehende ankündigen und fördern KI für immer.

Meine ausführliche Berichterstattung über KI-Ethik und Ethische KI finden Sie unter Link hier und Link hier, nur um ein paar zu nennen.

Für diese Diskussion hierin möchte ich einen besonders besorgniserregenden Aspekt der KI ansprechen, den diejenigen in der Arena der KI-Ethik zu Recht beklagen und versuchen, das Bewusstsein dafür zu schärfen. Die ernüchternde und beunruhigende Angelegenheit ist eigentlich ganz einfach zu betonen.

Hier ist es für alle: KI hat das reale Potenzial, KI-durchdrungene Vorurteile in einem alarmierenden globalen Ausmaß zu verbreiten.

Und wenn ich „im Maßstab“ sage, bedeutet das nachweislich weltweit massiven Umfang. Riesige Skala. Skala, die von der Skala abweicht.

Bevor ich darauf eingehe, wie diese Skalierung von KI-bedingten Vorurteilen stattfinden wird, wollen wir sicherstellen, dass wir alle einen Anschein davon haben, wie KI unangemessene Vorurteile und Ungerechtigkeiten integrieren kann. Erinnere dich noch einmal daran, dass dies nicht von einer empfindungsfähigen Sorte ist. Das ist alles von einem rechnerischen Kaliber.

Sie könnten verblüfft sein, wie KI die gleichen Arten von negativen Vorurteilen und Ungerechtigkeiten hervorrufen kann wie Menschen. Wir neigen dazu, KI als völlig neutral, unvoreingenommen zu betrachten, einfach als eine Maschine, die nicht die emotionale Einflussnahme und das schlechte Denken hat, die Menschen haben könnten. Eines der häufigsten Mittel dafür, dass KI in Vorurteile und Ungleichheiten verfällt, ist die Verwendung von maschinellem Lernen und Deep Learning, teilweise als Ergebnis der Abhängigkeit von gesammelten Daten darüber, wie Menschen Entscheidungen treffen.

Gestatten Sie mir einen Moment zur Erläuterung.

ML/DL ist eine Form des computergestützten Musterabgleichs. Der übliche Ansatz besteht darin, dass Sie Daten zu einer Entscheidungsaufgabe zusammenstellen. Sie speisen die Daten in die ML/DL-Computermodelle ein. Diese Modelle versuchen, mathematische Muster zu finden. Nachdem solche Muster gefunden wurden, verwendet das KI-System diese Muster, wenn es auf neue Daten stößt. Bei der Präsentation neuer Daten werden die auf den „alten“ oder historischen Daten basierenden Muster angewendet, um eine aktuelle Entscheidung zu treffen.

Ich denke, Sie können sich vorstellen, wohin das führt. Wenn Menschen, die die nach dem Muster getroffenen Entscheidungen getroffen haben, ungünstige Vorurteile eingebaut haben, stehen die Chancen gut, dass die Daten dies auf subtile, aber signifikante Weise widerspiegeln. Der maschinelle Lern- oder Deep-Learning-Musterabgleich versucht einfach, die Daten entsprechend mathematisch nachzuahmen. Es gibt keinen Anschein von gesundem Menschenverstand oder anderen empfindungsfähigen Aspekten der von KI erstellten Modellierung per se.

Darüber hinaus erkennen die KI-Entwickler möglicherweise auch nicht, was vor sich geht. Die obskure Mathematik in der ML/DL könnte es schwierig machen, die jetzt verborgenen Vorurteile aufzuspüren. Sie würden zu Recht hoffen und erwarten, dass die KI-Entwickler auf die potenziell vergrabenen Vorurteile testen würden, obwohl dies schwieriger ist, als es scheinen mag. Es besteht eine solide Chance, dass selbst bei relativ umfangreichen Tests immer noch Verzerrungen in den Mustererkennungsmodellen der ML/DL eingebettet sind.

Sie könnten das berühmte oder berüchtigte Sprichwort von Garbage-in-Garbage-out verwenden. Die Sache ist die, dass dies eher Vorurteilen ähnelt, die heimtückisch als Vorurteile in die KI einfließen. Die algorithmische Entscheidungsfindung oder ADM der KI wird zwangsläufig mit Ungerechtigkeiten beladen.

Nicht gut.

Dies bringt uns zu der Frage der KI-durchdrungenen Vorurteile im Maßstab.

Lassen Sie uns zunächst einen Blick darauf werfen, wie menschliche Vorurteile zu Ungerechtigkeiten führen können. Ein Unternehmen, das Hypothekendarlehen vergibt, beschließt, einen Hypothekendarlehensagenten zu beauftragen. Der Agent soll Anfragen von Verbrauchern prüfen, die ein Wohnungsbaudarlehen erhalten möchten. Nach Prüfung eines Antrags entscheidet der Bevollmächtigte entweder über die Gewährung des Darlehens oder die Ablehnung des Darlehens. Kinderleicht.

Stellen wir uns der Diskussion halber vor, dass ein menschlicher Kreditsachbearbeiter 8 Kredite pro Tag analysieren kann, was ungefähr eine Stunde pro Überprüfung dauert. In einer fünftägigen Arbeitswoche führt der Agent etwa 40 Kreditprüfungen durch. Jährlich führt der Agent in der Regel rund 2,000 Kreditprüfungen durch, mehr oder weniger.

Das Unternehmen möchte sein Volumen an Kreditprüfungen erhöhen und stellt daher 100 zusätzliche Kreditsachbearbeiter ein. Nehmen wir an, sie haben alle ungefähr die gleiche Produktivität und das bedeutet, dass wir jetzt etwa 200,000 Kredite pro Jahr bearbeiten können (bei einer Rate von 2,000 Kreditprüfungen pro Jahr und Agent). Es scheint, dass wir unsere Bearbeitung von Kreditanträgen wirklich intensiviert haben.

Es stellt sich heraus, dass das Unternehmen ein KI-System entwickelt, das im Wesentlichen die gleichen Kreditprüfungen durchführen kann wie die menschlichen Agenten. Die KI läuft auf Computerservern in der Cloud. Über die Cloud-Infrastruktur kann das Unternehmen problemlos mehr Rechenleistung hinzufügen, um jede Menge an Kreditprüfungen zu bewältigen, die möglicherweise benötigt werden.

Mit der vorhandenen KI-Konfiguration können sie 1,000 Kreditprüfungen pro Stunde durchführen. Dies kann auch rund um die Uhr passieren. Für die KI wird keine Urlaubszeit benötigt. Keine Mittagspausen. Die KI arbeitet rund um die Uhr, ohne zu kreischen, dass sie überarbeitet ist. Wir werden sagen, dass die KI in diesem ungefähren Tempo fast 24 Millionen Kreditanträge pro Jahr bearbeiten kann.

Beachten Sie, dass wir von 100 menschlichen Agenten, die 200,000 Kredite pro Jahr vergeben konnten, über das KI-System auf die viel höhere Zahl von 9 Millionen Bewertungen pro Jahr um ein Vielfaches gesprungen sind. Wir haben unsere Bearbeitung von Kreditanfragen stark ausgebaut. Daran besteht kein Zweifel.

Machen Sie sich bereit für den Kicker, der Sie vielleicht vom Stuhl fallen lässt.

Nehmen Sie an, dass einige unserer menschlichen Agenten ihre Kreditentscheidungen auf der Grundlage ungünstiger Vorurteile treffen. Vielleicht geben einige Rassenfaktoren eine Schlüsselrolle bei der Kreditentscheidung. Vielleicht verwenden einige das Geschlecht. Andere verwenden das Alter. Usw.

Wie viele der 200,000 jährlichen Kreditprüfungen werden unter dem falschen Blick von negativen Vorurteilen und Ungerechtigkeiten durchgeführt? Vielleicht 10 %, was ungefähr 20,000 der Kreditanfragen entspricht. Schlimmer noch, nehmen wir an, es sind 50 % der Kreditanträge, in diesem Fall gibt es ziemlich beunruhigende 100,000 Fälle von Kreditentscheidungen pro Jahr, die falsch entschieden werden.

Das ist schlecht. Aber wir müssen noch eine noch beängstigendere Möglichkeit in Betracht ziehen.

Angenommen, die KI hat eine versteckte Voreingenommenheit, die aus Faktoren wie Rasse, Geschlecht, Alter und dergleichen besteht. Wenn 10 % der jährlichen Kreditanalysen dieser Unappetitlichkeit unterliegen, haben wir 900,000 Kreditanfragen, die unsachgemäß behandelt werden. Das ist viel mehr als das, was die menschlichen Agenten möglicherweise tun könnten, hauptsächlich einfach aufgrund der Volumenaspekte. Diese 100 Agenten, wenn alle eine unfaire Überprüfung durchführen würden, könnten dies höchstens bei den 200,000 jährlichen Kreditüberprüfungen tun. Die KI könnte dasselbe in einem viel größeren Umfang der 9,000,000 jährlichen Überprüfungen tun.

Yikes!

Dies ist wirklich eine KI-durchdrungene Voreingenommenheit in einem enormen Ausmaß.

Wenn ungünstige Vorurteile in einem KI-System vergraben sind, wird dieselbe Skalierung, die vorteilhaft schien, nun auf den Kopf gestellt und zu einem ungeheuer betörenden (und verstörenden) Skalierungsergebnis. Auf der einen Seite kann die KI in vorteilhafter Weise aufrüsten, um mehr Menschen zu behandeln, die Wohnungsbaudarlehen beantragen. Oberflächlich betrachtet scheint das gewaltig zu sein KI für immer. Wir sollten uns selbst auf die Schulter klopfen, weil wir vermutlich die Chancen der Menschen erhöhen, benötigte Kredite zu bekommen. In der Zwischenzeit, wenn die KI Vorurteile eingebettet hat, wird die Skalierung ein enorm faules Ergebnis sein und wir befinden uns bedauerlicherweise im Sumpf KI für schlecht, in einem wirklich massiven Maßstab.

Das sprichwörtliche zweischneidige Schwert.

KI kann den Zugang zur Entscheidungsfindung für diejenigen, die nach gewünschten Dienstleistungen und Produkten suchen, radikal verbessern. Kein menschlich eingeschränkter Arbeitsengpass mehr. Hervorragend! Die andere Schneide des Schwertes ist, dass, wenn die KI Schlechtes wie versteckte Ungleichheiten enthält, genau die gleiche massive Skalierung dieses ungünstige Verhalten in einem unvorstellbaren Ausmaß verbreiten wird. Ärgerlich, unrechtmäßig, beschämend, und wir können nicht zulassen, dass die Gesellschaft in einen so hässlichen Abgrund stürzt.

Jeder, der sich darüber gewundert hat, warum wir auf die Bedeutung der KI-Ethik herumhämmern müssen, sollte jetzt erkennen, dass das Phänomen der KI-Skalierung ein verdammt wichtiger Grund für die Verfolgung einer ethischen KI ist. Nehmen wir uns einen Moment Zeit, um kurz einige der wichtigsten ethischen KI-Grundsätze zu betrachten, um zu veranschaulichen, was ein wesentlicher Schwerpunkt für jeden sein sollte, der KI herstellt, einsetzt oder verwendet.

Zum Beispiel, wie vom Vatikan in der angegeben Rom fordert KI-Ethik und wie ich ausführlich unter behandelt habe den Link hier, dies sind ihre identifizierten sechs primären KI-Ethikprinzipien:

  • Transparenz: Grundsätzlich müssen KI-Systeme erklärbar sein
  • Inklusion: Die Bedürfnisse aller Menschen müssen berücksichtigt werden, damit alle davon profitieren und allen Menschen die bestmöglichen Bedingungen geboten werden, sich zu entfalten und zu entwickeln
  • Verantwortung: Wer den Einsatz von KI gestaltet und einsetzt, muss verantwortungsbewusst und transparent vorgehen
  • Unparteilichkeit: Schaffen oder handeln Sie nicht nach Vorurteilen, um Fairness und Menschenwürde zu wahren
  • Zuverlässigkeit: KI-Systeme müssen zuverlässig arbeiten können
  • Sicherheit und Privatsphäre: KI-Systeme müssen sicher funktionieren und die Privatsphäre der Nutzer respektieren.

Wie vom US-Verteidigungsministerium (DoD) in ihrem angegeben Ethische Grundsätze für den Einsatz künstlicher Intelligenz und wie ich ausführlich unter behandelt habe den Link hier, dies sind ihre sechs primären KI-Ethikprinzipien:

  • Verantwortlich: Das DoD-Personal wird ein angemessenes Maß an Urteilsvermögen und Sorgfalt walten lassen und gleichzeitig für die Entwicklung, den Einsatz und die Nutzung von KI-Fähigkeiten verantwortlich bleiben.
  • Gerecht: Das Ministerium wird gezielte Schritte unternehmen, um unbeabsichtigte Verzerrungen bei den KI-Fähigkeiten zu minimieren.
  • Rückverfolgbar: Die KI-Fähigkeiten der Abteilung werden so entwickelt und eingesetzt, dass das relevante Personal über ein angemessenes Verständnis der Technologie, der Entwicklungsprozesse und der auf KI-Fähigkeiten anwendbaren Betriebsmethoden verfügt, einschließlich transparenter und überprüfbarer Methoden, Datenquellen sowie Entwurfsverfahren und Dokumentation.
  • Zuverlässig: Die KI-Fähigkeiten des Ministeriums werden explizite, genau definierte Verwendungszwecke haben, und die Sicherheit und Wirksamkeit solcher Fähigkeiten werden innerhalb dieser definierten Verwendungszwecke über ihren gesamten Lebenszyklus hinweg getestet und sichergestellt.
  • Regierbar: Die Abteilung wird KI-Fähigkeiten entwerfen und entwickeln, um ihre beabsichtigten Funktionen zu erfüllen und gleichzeitig unbeabsichtigte Folgen zu erkennen und zu vermeiden sowie eingesetzte Systeme, die ein unbeabsichtigtes Verhalten zeigen, zu deaktivieren oder zu deaktivieren.

Ich habe auch verschiedene kollektive Analysen der KI-Ethikprinzipien diskutiert, einschließlich der Behandlung einer Reihe von Forschern, die die Essenz zahlreicher nationaler und internationaler KI-Ethiklehrsätze in einem Papier mit dem Titel „The Global Landscape Of AI Ethics Guidelines“ (veröffentlicht in Natur), und die meine Berichterstattung unter untersucht den Link hier, was zu dieser Keystone-Liste führte:

  • Transparenz
  • Gerechtigkeit & Fairness
  • Nicht-Maleficence
  • Verantwortung
  • Datenschutz
  • Wohltätigkeit
  • Freiheit & Autonomie
  • Vertrauen
  • Nachhaltigkeit
  • Würde
  • Solidarität

Wie Sie vielleicht direkt erraten, kann es äußerst schwierig sein, die diesen Prinzipien zugrunde liegenden Besonderheiten festzunageln. Darüber hinaus ist der Versuch, diese allgemeinen Prinzipien in etwas völlig Greifbares und Detailliertes umzuwandeln, das für die Herstellung von KI-Systemen verwendet werden kann, eine harte Nuss, die es zu knacken gilt. Es ist einfach, mit der Hand zu winken, was KI-Ethikregeln sind und wie sie allgemein eingehalten werden sollten, während es eine viel kompliziertere Situation ist, wenn die KI-Codierung der wahre Gummi sein muss, der die Straße trifft.

Die KI-Ethik-Prinzipien müssen von KI-Entwicklern zusammen mit denjenigen angewendet werden, die die KI-Entwicklungsbemühungen verwalten, und sogar von denjenigen, die letztendlich KI-Systeme einsetzen und warten. Alle Beteiligten während des gesamten KI-Lebenszyklus der Entwicklung und Nutzung werden im Rahmen der Einhaltung der etablierten Normen der ethischen KI berücksichtigt. Dies ist ein wichtiges Highlight, da die übliche Annahme ist, dass „nur Programmierer“ oder diejenigen, die die KI programmieren, den Grundsätzen der KI-Ethik unterliegen. Bitte beachten Sie, dass es ein ganzes Dorf braucht, um KI zu entwickeln und einzusetzen. Dafür muss das ganze Dorf über KI-Ethik auf dem Laufenden bleiben.

Wie KI-durchdrungene Bias-Skalierung funktioniert

Nachdem ich nun auf den Tisch gekommen bin, dass KI Verzerrungen enthalten kann, sind wir bereit, einige der Gründe zu untersuchen, warum die KI-Skalierung so aufdringlich ist.

Betrachten Sie diese Keystone-Liste mit zehn zugrunde liegenden Gründen:

  1. Leicht repliziert
  2. Minimale Skalierungskosten
  3. Abscheulich konsequent
  4. Mangelnde Selbstreflexion
  5. Blinder Gehorsam
  6. Tippt nicht auf die Hand
  7. Empfänger ahnungslos
  8. Neigt nicht zur Provokation
  9. Falsche Aura der Fairness
  10. Schwer zu widerlegen

Ich werde jeden dieser entscheidenden Punkte kurz untersuchen.

Wenn Sie versuchen, mit menschlicher Arbeitskraft zu skalieren, ist die Wahrscheinlichkeit groß, dass dies enorm kompliziert wird. Sie müssen die Leute finden und einstellen. Sie müssen sie für die Arbeit ausbilden. Sie müssen sie bezahlen und menschliche Wünsche und Bedürfnisse berücksichtigen. Vergleichen Sie dies mit einem KI-System. Sie entwickeln es und setzen es in Betrieb. Abgesehen von einer gewissen Menge an laufender Wartung der KI können Sie sich zurücklehnen und sie endlos verarbeiten lassen.

Das bedeutet, dass KI leicht repliziert werden kann. Sie können mehr Rechenleistung hinzufügen, wenn die Aufgabe und das Volumen dies erfordern (Sie stellen keine Mitarbeiter ein oder entlassen sie nicht). Der weltweite Einsatz erfolgt per Knopfdruck und wird durch die weltweite Verfügbarkeit des Internets erreicht. Das Hochskalieren ist ein minimaler Kostenfaktor im Vergleich dazu, dies auch mit menschlicher Arbeit zu tun.

Menschliche Arbeit ist notorisch inkonsequent. Wenn Sie große Teams haben, haben Sie eine wahre Pralinenschachtel, da Sie nie wissen, was Sie möglicherweise in Ihren Händen halten. Das KI-System ist wahrscheinlich sehr konsistent. Es wiederholt immer wieder die gleichen Aktivitäten, wobei jedes Mal im Wesentlichen dasselbe wie das letzte Mal ist.

Normalerweise würden wir KI-Konsistenz genießen. Wenn Menschen zu Vorurteilen neigen, wird immer ein Teil unserer menschlichen Arbeit in die Irre gehen. Die KI wäre, wenn sie in ihrer Konstruktion und ihren Rechenanstrengungen rein unvoreingenommen wäre, bei weitem konsistenter. Das Problem ist jedoch, dass, wenn die KI versteckte Vorurteile hat, die Konsistenz jetzt schmerzlich abscheulich ist. Die Chancen stehen gut, dass das voreingenommene Verhalten immer und immer wieder konsequent ausgeführt wird.

Die Menschen würden hoffentlich eine Ahnung von Selbstreflexion haben und sich vielleicht dabei ertappen, dass sie voreingenommene Entscheidungen treffen. Ich sage nicht, dass alle das tun würden. Ich sage auch nicht, dass diejenigen, die sich selbst erwischen, zwangsläufig ihr Unrecht berichtigen werden. Auf jeden Fall würden sich zumindest einige Menschen manchmal selbst korrigieren.

Es ist unwahrscheinlich, dass die KI irgendeine Form von rechnerischer Selbstreflexion hat. Das bedeutet, dass die KI einfach weitermacht, was sie tut. Es besteht scheinbar keine Chance, dass die KI erkennt, dass sie mit dem Eigenkapital in Konflikt gerät. Davon abgesehen habe ich einige Bemühungen beschrieben, um damit umzugehen, wie z.B. den Aufbau von KI-Ethik-Komponenten innerhalb von KI (siehe den Link hier) und Entwicklung von KI, die andere KI überwacht, um unethische KI-Aktivitäten zu erkennen (siehe den Link hier).

Ohne jede Art von Selbstreflexion wird die KI wahrscheinlich auch im Wesentlichen blind gehorchen, was immer sie angewiesen wurde. Menschen sind vielleicht nicht so gehorsam. Es besteht die Möglichkeit, dass einige Menschen, die eine Aufgabe erledigen, sich fragen, ob sie vielleicht in das Gebiet der Ungerechtigkeit geführt werden. Sie würden dazu neigen, unethische Befehle abzulehnen oder vielleicht den Whistleblower-Weg zu gehen (siehe meine Berichterstattung unter Link hier). Erwarten Sie nicht, dass die alltägliche, zeitgenössische KI ihre Programmierung irgendwie in Frage stellt.

Als nächstes wenden wir uns denen zu, die KI verwenden. Wenn Sie nach einem Wohnungsbaudarlehen suchen und mit einem Menschen gesprochen haben, sind Sie möglicherweise auf der Hut, ob der Mensch Sie fair schüttelt. Bei der Verwendung eines KI-Systems scheinen die meisten Menschen weniger misstrauisch zu sein. Sie gehen oft davon aus, dass die KI fair ist und regen sich ergo nicht so schnell auf. Die KI scheint die Menschen in eine „es ist nur eine Maschine“-Trance zu wiegen. Darüber hinaus kann es schwierig sein, gegen die KI zu protestieren. Im Gegensatz dazu ist es viel einfacher, zu protestieren, wie Sie von einem menschlichen Agenten behandelt wurden, und wird viel allgemeiner akzeptiert und als durchführbar angesehen.

Alles in allem hat KI, die von Vorurteilen durchdrungen ist, einen unehrenhaften Vorteil gegenüber Menschen, die von Vorurteilen durchdrungen sind, nämlich in Bezug darauf, dass die KI diese Vorurteile in gigantischem Umfang massiv einsetzen kann, ohne so schnell erwischt zu werden oder Verbraucher zu haben erkennen, was beunruhigend vor sich geht.

An diesem Punkt dieser Diskussion wette ich, dass Sie sich einige zusätzliche Beispiele wünschen, die das Rätsel der KI-durchdrungenen Verzerrungen in großem Maßstab aufzeigen könnten.

Ich bin froh, dass du gefragt hast.

Es gibt eine besondere und sicherlich beliebte Reihe von Beispielen, die mir am Herzen liegen. Sie sehen, in meiner Eigenschaft als Experte für KI, einschließlich der ethischen und rechtlichen Auswirkungen, werde ich häufig gebeten, realistische Beispiele zu nennen, die Dilemmata der KI-Ethik aufzeigen, damit die etwas theoretische Natur des Themas leichter erfasst werden kann. Einer der eindrucksvollsten Bereiche, der dieses ethische KI-Problem anschaulich darstellt, ist das Aufkommen von KI-basierten, wirklich selbstfahrenden Autos. Dies dient als praktischer Anwendungsfall oder als Beispiel für eine ausführliche Diskussion zu diesem Thema.

Hier ist dann eine bemerkenswerte Frage, die es wert ist, darüber nachzudenken: Erhellt das Aufkommen von KI-basierten echten selbstfahrenden Autos irgendetwas über KI-durchdrungene Vorurteile in großem Maßstab, und wenn ja, was zeigt dies?

Erlauben Sie mir einen Moment, um die Frage auszupacken.

Beachten Sie zunächst, dass an einem echten selbstfahrenden Auto kein menschlicher Fahrer beteiligt ist. Denken Sie daran, dass echte selbstfahrende Autos über ein KI-Fahrsystem gefahren werden. Es ist weder ein menschlicher Fahrer am Steuer erforderlich, noch ist vorgesehen, dass ein Mensch das Fahrzeug fährt. Für meine umfangreiche und laufende Berichterstattung über autonome Fahrzeuge (AVs) und insbesondere selbstfahrende Autos, siehe den Link hier.

Ich möchte weiter klären, was gemeint ist, wenn ich von echten selbstfahrenden Autos spreche.

Die Ebenen selbstfahrender Autos verstehen

Zur Verdeutlichung sind echte selbstfahrende Autos solche, bei denen die KI das Auto ganz alleine fährt und es während der Fahraufgabe keine menschliche Hilfe gibt.

Diese fahrerlosen Fahrzeuge gelten als Level 4 und Level 5 (siehe meine Erklärung unter Link hier), während ein Auto, bei dem ein menschlicher Fahrer den Fahraufwand mitteilen muss, normalerweise als Level 2 oder Level 3 betrachtet wird. Die Autos, die die Fahraufgabe mitteilen, werden als halbautonom beschrieben und enthalten typischerweise eine Vielzahl von automatisierte Add-Ons, die als ADAS (Advanced Driver-Assistance Systems) bezeichnet werden.

Es gibt noch kein echtes selbstfahrendes Auto auf Stufe 5, von dem wir noch nicht einmal wissen, ob dies möglich sein wird und wie lange es dauern wird, bis es dort ankommt.

In der Zwischenzeit versuchen die Bemühungen der Stufe 4 allmählich, durch sehr enge und selektive Versuche auf öffentlichen Straßen eine gewisse Traktion zu erreichen. Es gibt jedoch Kontroversen darüber, ob diese Tests per se zulässig sein sollten (wir sind alle Meerschweinchen auf Leben und Tod in einem Experiment) Einige behaupten, dass sie auf unseren Autobahnen und Nebenstraßen stattfinden Link hier).

Da halbautonome Autos einen menschlichen Fahrer erfordern, unterscheidet sich die Einführung dieser Autotypen nicht wesentlich vom Fahren herkömmlicher Fahrzeuge. Daher gibt es an sich nicht viel Neues zu diesem Thema (wie Sie sehen werden) in einem Moment sind die nächsten Punkte allgemein anwendbar).

Für halbautonome Autos ist es wichtig, dass die Öffentlichkeit vor einem störenden Aspekt gewarnt wird, der in letzter Zeit aufgetreten ist, und zwar trotz der menschlichen Fahrer, die immer wieder Videos von sich selbst veröffentlichen, die am Steuer eines Level 2- oder Level 3-Autos einschlafen Wir alle müssen vermeiden, in die Irre geführt zu werden, dass der Fahrer seine Aufmerksamkeit von der Fahraufgabe ablenken kann, während er ein halbautonomes Auto fährt.

Sie sind die verantwortliche Partei für die Fahraktionen des Fahrzeugs, unabhängig davon, wie viel Automatisierung in ein Level 2 oder Level 3 geworfen werden könnte.

Selbstfahrende Autos und KI-Vorurteile im großen Maßstab

Bei echten selbstfahrenden Fahrzeugen der Stufen 4 und 5 ist kein menschlicher Fahrer an der Fahraufgabe beteiligt.

Alle Insassen werden Passagiere sein.

Die KI fährt.

Ein Aspekt, der sofort diskutiert werden muss, ist die Tatsache, dass die KI, die an den heutigen KI-Antriebssystemen beteiligt ist, nicht empfindungsfähig ist. Mit anderen Worten, die KI ist insgesamt ein Kollektiv computergestützter Programmierung und Algorithmen und mit Sicherheit nicht in der Lage, auf die gleiche Weise zu argumentieren, wie es Menschen können.

Warum wird dadurch zusätzlich betont, dass die KI nicht empfindungsfähig ist?

Weil ich unterstreichen möchte, dass ich bei der Erörterung der Rolle des KI-Antriebssystems der KI keine menschlichen Qualitäten zuschreibe. Bitte beachten Sie, dass es heutzutage eine anhaltende und gefährliche Tendenz gibt, die KI zu anthropomorphisieren. Im Wesentlichen weisen die Menschen der heutigen KI eine menschenähnliche Empfindung zu, trotz der unbestreitbaren und unbestreitbaren Tatsache, dass es eine solche KI noch nicht gibt.

Mit dieser Klarstellung können Sie sich vorstellen, dass das KI-Fahrsystem die Facetten des Fahrens nicht von Haus aus „kennt“. Das Fahren und alles, was dazu gehört, muss als Teil der Hardware und Software des selbstfahrenden Autos programmiert werden.

Lassen Sie uns in die Vielzahl von Aspekten eintauchen, die zu diesem Thema eine Rolle spielen.

Zunächst ist es wichtig zu erkennen, dass nicht alle KI-selbstfahrenden Autos gleich sind. Jeder Autohersteller und jedes selbstfahrende Technologieunternehmen verfolgt seinen eigenen Ansatz, um selbstfahrende Autos zu entwickeln. Daher ist es schwierig, pauschale Aussagen darüber zu treffen, was KI-Fahrsysteme tun oder nicht tun werden.

Darüber hinaus kann die Aussage, dass ein KI-Fahrsystem eine bestimmte Sache nicht macht, später von Entwicklern überholt werden, die den Computer tatsächlich so programmieren, dass sie genau das tun. Schritt für Schritt werden KI-Fahrsysteme sukzessive verbessert und erweitert. Eine heute bestehende Einschränkung ist in einer zukünftigen Iteration oder Version des Systems möglicherweise nicht mehr vorhanden.

Ich vertraue darauf, dass dies eine ausreichende Litanei von Vorbehalten bietet, um das zu untermauern, was ich erzählen werde.

Wir sind jetzt darauf vorbereitet, tief in selbstfahrende Autos und die Möglichkeiten der ethischen KI einzutauchen, was die Erforschung von KI-durchdrungenen Vorurteilen mit sich bringt, die in großem Umfang verbreitet werden.

Lassen Sie uns ein einfaches Beispiel verwenden. Ein KI-basiertes selbstfahrendes Auto ist auf den Straßen Ihrer Nachbarschaft unterwegs und scheint sicher zu fahren. Anfangs hatten Sie jedes Mal, wenn Sie einen Blick auf das selbstfahrende Auto erhaschen konnten, besondere Aufmerksamkeit gewidmet. Das autonome Fahrzeug zeichnete sich durch ein Rack mit elektronischen Sensoren aus, darunter Videokameras, Radareinheiten, LIDAR-Geräte und dergleichen. Nachdem das selbstfahrende Auto viele Wochen lang durch Ihre Gemeinde gefahren ist, bemerken Sie es kaum noch. Für Sie ist es nur ein weiteres Auto auf den ohnehin stark befahrenen öffentlichen Straßen.

Damit Sie nicht denken, dass es unmöglich oder unplausibel ist, sich mit dem Anblick von selbstfahrenden Autos vertraut zu machen, habe ich häufig darüber geschrieben, wie sich die Lokale, die im Rahmen von Testfahrten mit selbstfahrenden Autos sind, allmählich daran gewöhnt haben, die herausgeputzten Fahrzeuge zu sehen. Siehe meine Analyse unter Link hier. Viele der Einheimischen wechselten schließlich vom mundtoten, verzückten Gaffen zu einem ausladenden Gähnen der Langeweile, um diese sich schlängelnden selbstfahrenden Autos zu sehen.

Wahrscheinlich ist der Hauptgrund, warum sie die autonomen Fahrzeuge im Moment bemerken, der Irritations- und Verzweiflungsfaktor. Die vorschriftsmäßigen KI-Fahrsysteme stellen sicher, dass die Autos alle Geschwindigkeitsbegrenzungen und Straßenregeln einhalten. Für hektische menschliche Fahrer in ihren traditionellen von Menschen angetriebenen Autos sind Sie manchmal verärgert, wenn Sie hinter den streng gesetzestreuen KI-basierten selbstfahrenden Autos stecken bleiben.

Das ist etwas, woran wir uns vielleicht alle gewöhnen müssen, zu Recht oder zu Unrecht.

Zurück zu unserer Geschichte.

Es stellt sich heraus, dass zwei unangemessene Bedenken hinsichtlich der ansonsten harmlosen und allgemein begrüßten KI-basierten selbstfahrenden Autos auftauchen, insbesondere:

A. Wo die KI die selbstfahrenden Autos durchstreift, um Fahrten aufzunehmen, zeichnete sich als lautstarke Sorge ab

b. Wie die KI mit wartenden Fußgängern umgeht, die keine Vorfahrt haben, stellte sich als dringendes Problem heraus

Zunächst streifte die KI mit den selbstfahrenden Autos durch die ganze Stadt. Jeder, der eine Fahrt mit dem selbstfahrenden Auto anfordern wollte, hatte im Wesentlichen die gleiche Chance, eines zu erreichen. Allmählich begann die KI, die selbstfahrenden Autos hauptsächlich in nur einem Stadtteil herumfahren zu lassen. Dieser Abschnitt war ein größerer Geldverdiener und das KI-System war so programmiert worden, dass es versuchte, die Einnahmen als Teil der Nutzung in der Community zu maximieren.

Gemeindemitglieder in den verarmten Stadtteilen konnten mit geringerer Wahrscheinlichkeit mit einem selbstfahrenden Auto mitfahren. Dies lag daran, dass die selbstfahrenden Autos weiter entfernt waren und in dem umsatzstärkeren Teil des Gebietsschemas unterwegs waren. Wenn eine Anfrage aus einem entfernten Teil der Stadt einging, erhielt jede Anfrage von einem näher gelegenen Ort, der wahrscheinlich im „angesehenen“ Teil der Stadt lag, eine höhere Priorität. Schließlich war es fast unmöglich, ein selbstfahrendes Auto an einem anderen Ort als dem reicheren Teil der Stadt zu bekommen, was für diejenigen, die in diesen jetzt ressourcenarmen Gebieten lebten, ärgerlich war.

Man könnte behaupten, dass die KI so ziemlich auf einer Form der stellvertretenden Diskriminierung (oft auch als indirekte Diskriminierung bezeichnet) gelandet ist. Die KI war nicht darauf programmiert, diese ärmeren Viertel zu meiden. Stattdessen hat es dies über die Verwendung der ML/DL „gelernt“.

Die Sache ist die, dass Mitfahrgelegenheiten für menschliche Fahrer dafür bekannt waren, dasselbe zu tun, wenn auch nicht unbedingt ausschließlich wegen des Geldverdienens. Es gab einige der menschlichen Fahrgemeinschaftsfahrer, die eine ungünstige Vorliebe dafür hatten, Mitfahrer in bestimmten Teilen der Stadt abzuholen. Dies war ein ziemlich bekanntes Phänomen, und die Stadt hatte einen Überwachungsansatz eingeführt, um menschliche Fahrer dabei zu erwischen. Menschliche Fahrer könnten in Schwierigkeiten geraten, wenn sie unappetitliche Auswahlpraktiken durchführen.

Man ging davon aus, dass die KI niemals in denselben Treibsand geraten würde. Es wurde keine spezielle Überwachung eingerichtet, um zu verfolgen, wohin die KI-basierten selbstfahrenden Autos fahren. Erst als sich die Gemeindemitglieder zu beschweren begannen, erkannten die Stadtführer, was vor sich ging. Weitere Informationen zu diesen stadtweiten Themen, die autonome Fahrzeuge und selbstfahrende Autos präsentieren werden, finden Sie in meiner Berichterstattung unter Link hier und die eine von Harvard geleitete Studie beschreibt, die ich zu diesem Thema mitverfasst habe.

Dieses Beispiel der Roaming-Aspekte der KI-basierten selbstfahrenden Autos veranschaulicht den früheren Hinweis darauf, dass es Situationen geben kann, in denen Menschen mit ungünstigen Vorurteilen beteiligt sind, für die Kontrollen eingerichtet werden, und dass die KI, die diese menschlichen Fahrer ersetzt, im Stich gelassen wird. frei. Leider kann die KI dann schrittweise in ähnliche Vorurteile verstricken, ohne dass ausreichende Leitplanken vorhanden sind.

Dies zeigt auch die von KI durchdrungenen Vorurteile beim Skalierungsproblem.

Im Fall menschlicher Fahrer hatten wir vielleicht hier oder da ein paar, die irgendeine Form von Ungerechtigkeit praktizierten. Beim KI-Fahrsystem handelt es sich in der Regel um eine solche einheitliche KI für eine ganze Flotte selbstfahrender Autos. So hätten wir vielleicht mit sagen wir fünfzig selbstfahrenden Autos in der Stadt begonnen (die alle mit demselben KI-Code betrieben werden) und allmählich auf, sagen wir, 500 selbstfahrende Autos erhöht (die alle mit demselben KI-Code betrieben werden). Da alle diese fünfhundert selbstfahrenden Autos von derselben KI betrieben werden, unterliegen sie dementsprechend alle denselben abgeleiteten Vorurteilen und Ungerechtigkeiten, die in die KI eingebettet sind.

Skalierung tut uns in dieser Hinsicht weh.

In einem zweiten Beispiel entscheidet die KI, ob sie anhalten soll, um auf Fußgänger zu warten, die keine Vorfahrt haben, um eine Straße zu überqueren.

Sicherlich sind Sie schon einmal mit dem Auto gefahren und auf Fußgänger gestoßen, die darauf warteten, die Straße zu überqueren, und doch keine Vorfahrt hatten. Dies bedeutete, dass Sie nach eigenem Ermessen entscheiden konnten, ob Sie anhalten und sie überqueren ließen. Sie könnten weiterfahren, ohne sie überqueren zu lassen, und sich dabei immer noch vollständig an die gesetzlichen Fahrregeln halten.

Studien darüber, wie menschliche Fahrer entscheiden, für solche Fußgänger anzuhalten oder nicht anzuhalten, haben nahegelegt, dass die menschlichen Fahrer manchmal die Wahl auf der Grundlage von ungünstigen Vorurteilen treffen. Ein menschlicher Fahrer könnte den Fußgänger beobachten und sich dafür entscheiden, nicht anzuhalten, obwohl er angehalten hätte, wenn der Fußgänger ein anderes Aussehen gehabt hätte, beispielsweise basierend auf Rasse oder Geschlecht. Ich habe dies bei untersucht den Link hier.

Stellen Sie sich vor, dass die KI-basierten selbstfahrenden Autos darauf programmiert sind, die Frage zu beantworten, ob sie für Fußgänger ohne Vorfahrt anhalten oder nicht anhalten sollen. So haben sich die KI-Entwickler entschieden, diese Aufgabe zu programmieren. Sie sammelten Daten von den Videokameras der Stadt, die überall in der Stadt aufgestellt sind. Die Daten zeigen menschliche Fahrer, die für Fußgänger anhalten, die keine Vorfahrt haben, und menschliche Fahrer, die nicht anhalten. Alles wird in einem großen Datensatz gesammelt.

Durch den Einsatz von Machine Learning und Deep Learning werden die Daten rechnerisch modelliert. Das KI-Fahrsystem verwendet dann dieses Modell, um zu entscheiden, wann es anhält oder nicht. Im Allgemeinen ist die Idee, dass die KI das selbstfahrende Auto auf diese Weise steuern wird, was auch immer der lokale Brauch ist.

Zur Überraschung der Stadtführung und der Einwohner entschied sich die KI offensichtlich dafür, anzuhalten oder nicht anzuhalten, basierend auf dem Aussehen des Fußgängers, einschließlich seiner Rasse und seines Geschlechts. Die Sensoren des selbstfahrenden Autos würden den wartenden Fußgänger scannen, diese Daten in das ML/DL-Modell einspeisen und das Modell würde an die KI senden, ob es anhalten oder weiterfahren soll. Leider hatte die Stadt in dieser Hinsicht bereits viele Vorurteile gegenüber menschlichen Fahrern, und die KI ahmte jetzt dasselbe nach.

Dieses Beispiel veranschaulicht, dass ein KI-System möglicherweise lediglich die bereits bestehenden negativen Vorurteile von Menschen dupliziert. Darüber hinaus tut es dies in großem Maßstab. Jedem menschlichen Fahrer wurde manchmal beigebracht, diese ungünstige Form der Auswahl zu tun, oder er wurde vielleicht persönlich dafür ausgewählt, aber die Chancen stehen gut, dass die Mehrheit der menschlichen Fahrer dies wahrscheinlich nicht massenhaft tut.

Im krassen Gegensatz dazu wird das KI-Fahrsystem, das zum Fahren selbstfahrender Autos verwendet wird, die abgeleitete Voreingenommenheit wahrscheinlich widerlich konsequent und sicher ausführen.

Fazit

Es gibt eine Vielzahl von Möglichkeiten, um zu vermeiden, dass KI entwickelt wird, die ungünstige Vorurteile aufweist oder die im Laufe der Zeit Vorurteile aufspürt. Die Idee besteht darin, die Probleme so weit wie möglich zu erkennen, bevor Sie einen hohen Gang einlegen und für die Skalierung hochfahren. Hoffentlich kommen Vorurteile sozusagen nicht durch die Tür.

Gehen Sie jedoch davon aus, dass in der KI auf die eine oder andere Weise Verzerrungen auftreten werden. Sobald Sie mit KI in großem Umfang eingesetzt werden, können Sie nicht einfach eine dieser oft proklamierten Technikfreaks „Fire and Forget“ anwenden. Sie müssen sorgfältig verfolgen, was die KI tut, und versuchen, unerwünschte Vorurteile zu erkennen, die korrigiert werden müssen.

Wie bereits erwähnt, besteht ein Ansatz darin, sicherzustellen, dass KI-Entwickler sich der KI-Ethik bewusst sind, und sie so dazu anzuspornen, die KI so zu programmieren, dass diese Probleme vermieden werden. Ein anderer Weg besteht darin, die KI sich selbst auf unethisches Verhalten überwachen zu lassen und/oder eine andere KI zu haben, die andere KI-Systeme auf potenziell unethisches Verhalten überwacht. Ich habe zahlreiche andere mögliche Lösungen in meinen Schriften behandelt.

Ein letzter Gedanke für jetzt. Nachdem wir diese Diskussion mit einem Zitat von Platon begonnen haben, könnte es angebracht sein, den Diskurs mit einer weiteren klugen Äußerung von Platon zu beenden.

Platon sagte, dass es nicht schadet, etwas Gutes zu wiederholen.

Die Leichtigkeit, mit KI skaliert zu werden, ist sicherlich ein praktikables Mittel, um ein so optimistisches Ziel zu erreichen, wenn die KI von der KI für immer Vielfalt. Wir genießen es, Gutes zu wiederholen. Bei KI ist das KI für schlecht und vollgestopft mit ungünstigen Vorurteilen und Ungleichheiten, könnten wir uns auf Platons Bemerkungen stützen und sagen, dass es großen Schaden anrichtet, etwas Schlechtes zu wiederholen.

Hören wir uns Platons weise Worte genau an und entwickeln unsere KI entsprechend.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-spectre-of-ai-biases-at-massive- globale-skala-insbesondere-angetrieben-durch-drohende-vollautonome-systeme/