KI-Ethik besagt, dass KI besonders eingesetzt werden sollte, wenn menschliche Vorurteile in Hülle und Fülle vorhanden sind

Der Mensch hat seine Grenzen kennengelernt.

Sie erinnern sich vielleicht an den ähnlichen berühmten Satz über das Wissen um unsere Grenzen, wie er von der Figur Dirty Harry in dem Film mit dem Titel 1973 grob geäußert wurde Magnum Force (nach den gesprochenen Worten des Schauspielers Clint Eastwood in seiner denkwürdigen Rolle als Inspektor Harry Callahan). Die allgemeine Vorstellung ist, dass wir manchmal dazu neigen, unsere eigenen Grenzen zu übersehen und uns entsprechend in heißes Wasser zu bringen. Ob aus Hybris, Egozentrik oder einfach blind gegenüber den eigenen Fähigkeiten, das Gebot, sich unserer Neigungen und Mängel bewusst zu sein und diese ausdrücklich zu berücksichtigen, ist überaus sinnvoll und hilfreich.

Lassen Sie uns dem weisen Ratschlag eine neue Wendung hinzufügen.

Künstliche Intelligenz (KI) hat ihre Grenzen kennengelernt.

Was meine ich mit dieser Variante des verehrten Schlagworts?

Es stellt sich heraus, dass der anfängliche Eifer, die moderne KI als hoffnungsvollen Löser der Probleme der Welt einzusetzen, durch die Erkenntnis, dass die heutige KI einige ziemlich schwerwiegende Einschränkungen hat, beschmutzt und insgesamt getrübt wurde. Wir gingen von den erhebenden Schlagzeilen aus KI für immer und haben uns zunehmend darin verstrickt KI für schlecht. Sie sehen, viele KI-Systeme wurden entwickelt und mit allen möglichen unzutreffenden rassischen und geschlechtsspezifischen Vorurteilen und einer Vielzahl anderer solcher entsetzlicher Ungerechtigkeiten eingesetzt.

Für meine ausführliche und fortlaufende Berichterstattung über KI-Ethik und Ethische KI siehe den Link hier und den Link hier, nur um ein paar zu nennen.

Die Vorurteile, die in diesen KI-Systemen entdeckt werden, sind nicht von der, sagen wir, „absichtlichen“ Art, die wir menschlichem Verhalten zuschreiben würden. Ich erwähne dies, um zu betonen, dass die heutige KI nicht empfindungsfähig ist. Trotz dieser schmetternden Schlagzeilen, die etwas anderes suggerieren, gibt es einfach nirgendwo eine KI, die auch nur annähernd empfindungsfähig ist. Darüber hinaus wissen wir nicht, wie wir die KI in die Empfindungsklasse bringen können, und niemand kann mit Sicherheit sagen, ob wir jemals die KI-Sensibilität erreichen werden. Vielleicht wird es eines Tages passieren, oder vielleicht auch nicht.

Mein Punkt ist also, dass wir der Art von KI, die wir derzeit besitzen, keine besondere Absicht zuordnen können. Davon abgesehen können wir denen, die KI-Systeme herstellen, reichlich Absicht zuweisen. Einige KI-Entwickler sind sich der Tatsache nicht bewusst, dass sie ein KI-System entwickelt haben, das unappetitliche und möglicherweise illegale Vorurteile enthält. In der Zwischenzeit erkennen andere KI-Entwickler, dass sie ihren KI-Systemen Vorurteile einflößen, möglicherweise auf absichtliche Weise.

In jedem Fall ist das Ergebnis dennoch ungehörig und wahrscheinlich rechtswidrig.

Es werden große Anstrengungen unternommen, KI-Ethikprinzipien zu verkünden, die KI-Entwickler aufklären und geeignete Anleitungen geben, um die Einbettung von Vorurteilen in ihre KI-Systeme zu vermeiden. Dies wird in zweifacher Weise helfen. Erstens werden diejenigen, die KI herstellen, nicht länger die bereite Ausrede haben, dass sie einfach nicht wussten, welche Regeln befolgt werden sollten. Zweitens werden diejenigen, die von den ethischen KI-Bedingungen abweichen, leichter erwischt und gezeigt, dass sie das abwenden, wovor sie vorgewarnt wurden, sowohl zu tun als auch zu lassen.

Nehmen wir uns einen Moment Zeit, um kurz einige der wichtigsten ethischen KI-Grundsätze zu betrachten, um zu veranschaulichen, worüber KI-Entwickler nachdenken und rigoros von einer KI-Ethik ausgehen sollten.

Wie vom Vatikan in der angegeben Rom fordert KI-Ethik und wie ich ausführlich unter behandelt habe den Link hier, dies sind ihre identifizierten sechs primären KI-Ethikprinzipien:

  • Transparenz: Grundsätzlich müssen KI-Systeme erklärbar sein
  • Inklusion: Die Bedürfnisse aller Menschen müssen berücksichtigt werden, damit alle davon profitieren und allen Menschen die bestmöglichen Bedingungen geboten werden, sich zu entfalten und zu entwickeln
  • Verantwortung: Wer den Einsatz von KI gestaltet und einsetzt, muss verantwortungsbewusst und transparent vorgehen
  • Unparteilichkeit: Schaffen oder handeln Sie nicht nach Vorurteilen, um Fairness und Menschenwürde zu wahren
  • Zuverlässigkeit: KI-Systeme müssen zuverlässig arbeiten können
  • Sicherheit und Privatsphäre: KI-Systeme müssen sicher funktionieren und die Privatsphäre der Nutzer respektieren.

Wie vom US-Verteidigungsministerium (DoD) in ihrem angegeben Ethische Grundsätze für den Einsatz künstlicher Intelligenz und wie ich ausführlich unter behandelt habe den Link hier, dies sind ihre sechs primären KI-Ethikprinzipien:

  • Verantwortlich: Das DoD-Personal wird ein angemessenes Maß an Urteilsvermögen und Sorgfalt walten lassen und gleichzeitig für die Entwicklung, den Einsatz und die Nutzung von KI-Fähigkeiten verantwortlich bleiben.
  • Gerecht: Das Ministerium wird gezielte Schritte unternehmen, um unbeabsichtigte Verzerrungen bei den KI-Fähigkeiten zu minimieren.
  • Rückverfolgbar: Die KI-Fähigkeiten der Abteilung werden so entwickelt und eingesetzt, dass das relevante Personal über ein angemessenes Verständnis der Technologie, der Entwicklungsprozesse und der auf KI-Fähigkeiten anwendbaren Betriebsmethoden verfügt, einschließlich transparenter und überprüfbarer Methoden, Datenquellen sowie Entwurfsverfahren und Dokumentation.
  • Zuverlässig: Die KI-Fähigkeiten des Ministeriums werden explizite, genau definierte Verwendungszwecke haben, und die Sicherheit und Wirksamkeit solcher Fähigkeiten werden innerhalb dieser definierten Verwendungszwecke über ihren gesamten Lebenszyklus hinweg getestet und sichergestellt.
  • Regierbar: Die Abteilung wird KI-Fähigkeiten entwerfen und entwickeln, um ihre beabsichtigten Funktionen zu erfüllen und gleichzeitig unbeabsichtigte Folgen zu erkennen und zu vermeiden sowie eingesetzte Systeme, die ein unbeabsichtigtes Verhalten zeigen, zu deaktivieren oder zu deaktivieren.

Ich habe auch verschiedene kollektive Analysen der KI-Ethikprinzipien diskutiert, einschließlich der Behandlung einer Reihe von Forschern, die die Essenz zahlreicher nationaler und internationaler KI-Ethiklehrsätze in einem Papier mit dem Titel „The Global Landscape Of AI Ethics Guidelines“ (veröffentlicht in Natur), und die meine Berichterstattung unter untersucht den Link hier, was zu dieser Keystone-Liste führte:

  • Transparenz
  • Gerechtigkeit & Fairness
  • Nicht-Maleficence
  • Verantwortung
  • Datenschutz
  • Wohltätigkeit
  • Freiheit & Autonomie
  • Vertrauen
  • Nachhaltigkeit
  • Würde
  • Solidarität

Wie Sie vielleicht direkt erraten, kann es äußerst schwierig sein, die diesen Prinzipien zugrunde liegenden Besonderheiten festzunageln. Darüber hinaus ist der Versuch, diese allgemeinen Prinzipien in etwas völlig Greifbares und Detailliertes umzuwandeln, das für die Herstellung von KI-Systemen verwendet werden kann, eine harte Nuss, die es zu knacken gilt. Es ist einfach, mit der Hand zu winken, was KI-Ethikregeln sind und wie sie allgemein eingehalten werden sollten, während es eine viel kompliziertere Situation ist, wenn die KI-Codierung der wahre Gummi sein muss, der die Straße trifft.

Die KI-Ethik-Prinzipien müssen von KI-Entwicklern zusammen mit denjenigen angewendet werden, die die KI-Entwicklungsbemühungen verwalten, und sogar von denjenigen, die letztendlich KI-Systeme einsetzen und warten. Alle Beteiligten während des gesamten KI-Lebenszyklus der Entwicklung und Nutzung werden im Rahmen der Einhaltung der etablierten Normen der ethischen KI berücksichtigt. Dies ist ein wichtiges Highlight, da die übliche Annahme ist, dass „nur Programmierer“ oder diejenigen, die die KI programmieren, den Grundsätzen der KI-Ethik unterliegen. Bitte beachten Sie, dass es ein ganzes Dorf braucht, um KI zu entwickeln und einzusetzen. Dafür muss das ganze Dorf über KI-Ethik auf dem Laufenden bleiben.

Wie auch immer, jetzt, wo ich auf den Tisch gekommen bin, dass KI Vorurteile enthalten kann, können wir vielleicht alle diesen beiden offensichtlichen Tatsachen zustimmen:

1. Menschen können zahlreiche unerwünschte Vorurteile haben und darauf reagieren

2. KI kann zahlreiche unerwünschte Vorurteile haben und auf diese Vorurteile reagieren

Ich bin etwas verabscheut, Menschen in diesem Zusammenhang mit KI zu vergleichen, da dies irgendwie implizieren könnte, dass KI über Empfindungsfähigkeiten verfügt, die denen von Menschen ebenbürtig sind. Dem ist sicher nicht so. Etwas später in dieser Diskussion werde ich kurz auf die wachsenden Bedenken hinsichtlich der Anthropomorphisierung von KI zurückkommen.

Was ist schlimmer, Menschen, die ungünstige Vorurteile zeigen, oder KI, die dies tut?

Ich wage zu behaupten, dass die Frage eine dieser mürrischen Entscheidungen darstellt. Es ist das sprichwörtlich kleinere von zwei Übeln, könnte man behaupten. Wir würden uns wünschen, dass Menschen keine ungünstigen Vorurteile verkörpern. Wir würden uns ferner wünschen, dass Menschen, selbst wenn sie ungünstige Vorurteile haben, nicht auf diese Vorurteile reagieren. Dasselbe könnte man treffend über KI sagen. Wir würden uns wünschen, dass die KI keine unerwünschten Vorurteile einbettet und dass selbst wenn es solche intern codierten Vorurteile gibt, die KI zumindest nicht darauf reagieren würde.

Wünsche regieren jedoch nicht unbedingt die Welt (für meine Analyse des aufsteigenden und verstörenden Anscheins von sogenannten KI Wunscherfüllung von der Gesellschaft insgesamt, siehe den Link hier).

Okay, wir wollen natürlich, dass die Menschen ihre Grenzen kennen. Es ist wichtig zu erkennen, wenn Sie ungünstige Vorurteile haben. Es ist ebenso wichtig zu versuchen, zu verhindern, dass diese ungünstigen Vorurteile in Ihre Handlungen und Entscheidungen einfließen. Unternehmen versuchen heute alle Arten von Ansätzen, um ihre Mitarbeiter davon abzuhalten, in die schlimmen Fallstricke der ungünstigen Vorurteile zu geraten. Die Mitarbeiter erhalten spezielle Schulungen, wie sie ihre Arbeit auf ethisch einwandfreie Weise ausführen können. Prozesse werden um Mitarbeiter herum gestaltet, um sie zu warnen, wenn sie unethische Sitten an den Tag legen. Usw.

Ein weiteres Mittel, um mit Menschen und ihren ungünstigen Vorurteilen fertig zu werden, wäre die Automatisierung der auf Menschen basierenden Arbeit. Ja, entfernen Sie einfach den Menschen aus der Schleife. Lassen Sie nicht zu, dass ein Mensch eine Entscheidungsaufgabe übernimmt, und Sie haben vermutlich keine anhaltenden Sorgen mehr über die menschliche Haltung gegenüber ungünstigen Vorurteilen. Es ist kein Mensch beteiligt und somit scheint das Problem möglicher menschlicher Vorurteile gelöst zu sein.

Ich spreche das an, weil wir eine allmähliche und massive Verschiebung hin zur Verwendung von KI in einer algorithmischen Entscheidungsfindung (ADM) erleben. Wenn Sie einen menschlichen Arbeiter durch KI ersetzen können, stehen die Chancen gut, dass sich viele Vorteile ergeben werden. Wie bereits erwähnt, würden Sie sich nicht länger über die menschlichen Vorurteile dieses menschlichen Arbeiters (der diesen Job nicht mehr macht) ärgern. Die Chancen stehen gut, dass die KI im Vergleich zu einem langfristigen Zeithorizont insgesamt weniger kostspielig sein wird. Sie verzichten auf all die anderen verschiedenen Schwierigkeiten, die mit menschlichen Arbeitern einhergehen. Usw.

Ein Vorschlag, der an Boden gewinnt, scheint folgender zu sein: Wenn Sie versuchen zu entscheiden, wo die KI am besten platziert werden soll, schauen Sie zuerst nach Umgebungen, die bereits unerwünschte menschliche Vorurteile Ihrer Mitarbeiter mit sich bringen und für die diese Vorurteile bestimmte Entscheidungsaufgaben untergraben oder anderweitig übermäßig erschweren.

Unter dem Strich scheint es ratsam, das Beste aus Investitionen in KI herauszuholen, indem man direkt auf hochgradig exponierte menschliche Entscheidungsaufgaben abzielt, die aus der Perspektive einer ungünstigen Voreingenommenheit schwer zu kontrollieren sind. Entfernen Sie die menschlichen Arbeiter in dieser Rolle. Ersetzen Sie sie durch KI. Die Annahme ist, dass KI solche ungünstigen Vorurteile nicht haben würde. Daher können Sie Ihren Kuchen haben und ihn auch essen, nämlich die Entscheidungsaufgaben übernehmen und dies abzüglich des ethischen und rechtlichen Gespensts unerwünschter Vorurteile tun.

Wenn Sie das konkretisieren, würde der ROI (Return on Investment) die Einführung von KI wahrscheinlich zu einer Selbstverständlichkeit machen.

So läuft das normalerweise ab.

Sehen Sie sich in Ihrem Unternehmen um und versuchen Sie, die Entscheidungsaufgaben zu identifizieren, die sich auf die Kunden auswirken. Welche dieser Aufgaben werden am ehesten unangemessen beeinflusst, wenn die Mitarbeiter ungünstige Vorurteile verkörpern? Wenn Sie bereits versucht haben, diese Vorurteile einzudämmen, lassen Sie die Dinge vielleicht so stehen, wie sie sind. Wenn andererseits die Vorurteile immer wieder auftauchen und der Aufwand, sie auszurotten, mühsam ist, sollten Sie erwägen, eine relevante KI in diese Rolle zu entlassen. Lassen Sie die Arbeiter nicht in der Mischung, da sie die KI außer Kraft setzen oder die KI direkt in den Abgrund der ungünstigen Vorurteile zurückdrängen könnten. Stellen Sie außerdem sicher, dass die KI die Aufgabe kompetent ausführen kann und Sie die für die Ausführung der Aufgabe erforderlichen Entscheidungsaspekte ausreichend erfasst haben.

Spülen und wiederholen.

Mir ist klar, dass das eine einfache Vorstellung zu sein scheint, aber ich muss mir bewusst sein, dass es viele Möglichkeiten gibt, wie der Ersatz menschlicher Arbeiter durch KI leicht schief gehen kann. Viele Unternehmen waren bestrebt, solche Maßnahmen zu ergreifen, und überlegten nicht genau, wie sie dies tun sollten. Infolgedessen richteten sie oft ein viel schlimmeres Durcheinander an, als sie am Anfang hatten.

Ich möchte klarstellen und betonen, dass KI kein Allheilmittel ist.

Apropos, es gibt einen großen Haken an der Sauberkeit, die menschlich voreingenommenen Entscheidungsträger mit der angeblich unvoreingenommenen KI hinauszuwerfen. Der Haken ist, dass Sie vielleicht nur eine Reihe von ungünstigen Vorurteilen durch eine andere ersetzen. Gemäß dem früheren Hinweis kann KI ungünstige Vorurteile enthalten und auf diese Vorurteile reagieren. Die dreiste Annahme zu machen, dass der Austausch von voreingenommenen Menschen gegen unvoreingenommene KI nicht alles ist, worauf es ankommt.

Kurz gesagt, hier ist der Deal, wenn man die Angelegenheit streng nach den Bias-Faktoren betrachtet:

  • Die KI hat keine ungünstigen Vorurteile und daher ist das KI-basierte ADM praktisch zu implementieren
  • Die KI hat die gleichen ungünstigen Vorurteile wie die ersetzten Menschen, und daher ist das KI-basierte ADM beunruhigend
  • Die KI führt neue ungünstige Vorurteile ein, die über die der ersetzten Menschen hinausgehen, und wird die Dinge wahrscheinlich entsprechend verschlechtern
  • Die KI scheint zunächst in Ordnung zu sein und wackelt dann allmählich in unerwünschte Vorurteile
  • Andere

Wir können diese Möglichkeiten kurz auspacken.

Die erste ist die idealisierte Version dessen, was passieren könnte. Die KI hat keine ungünstigen Vorurteile. Sie haben die KI eingerichtet und sie macht den Job hervorragend. Schön für dich! Natürlich würde man hoffen, dass Sie auch mit der Verdrängung menschlicher Arbeitskräfte aufgrund der KI-Inklusion auf eine geschickte Weise umgegangen sind.

Im zweiten Fall setzen Sie die KI ein und stellen fest, dass die KI die gleichen ungünstigen Vorurteile aufweist wie die menschlichen Arbeiter. Wie kann das sein? Ein gängiges Mittel, um in diese Falle zu tappen, ist die Verwendung von Machine Learning (ML) und Deep Learning (DL) auf der Grundlage gesammelter Daten darüber, wie die Menschen in der Rolle zuvor ihre Entscheidungen getroffen haben.

Erlauben Sie mir einen Moment, um es zu erklären.

ML/DL ist eine Form des computergestützten Musterabgleichs. Der übliche Ansatz besteht darin, dass Sie Daten zu einer Entscheidungsaufgabe zusammenstellen. Sie speisen die Daten in die ML/DL-Computermodelle ein. Diese Modelle versuchen, mathematische Muster zu finden. Nachdem solche Muster gefunden wurden, verwendet das KI-System diese Muster, wenn es auf neue Daten stößt. Bei der Präsentation neuer Daten werden die auf den „alten“ oder historischen Daten basierenden Muster angewendet, um eine aktuelle Entscheidung zu treffen.

Ich denke, Sie können sich vorstellen, wohin das führt. Wenn die Menschen, die diese Arbeit jahrelang verrichtet haben, ungünstige Vorurteile eingebaut haben, ist die Wahrscheinlichkeit groß, dass die Daten dies auf subtile, aber signifikante Weise widerspiegeln. Der maschinelle Lern- oder Deep-Learning-Musterabgleich versucht einfach, die Daten entsprechend mathematisch nachzuahmen. Es gibt keinen Anschein von gesundem Menschenverstand oder anderen empfindungsfähigen Aspekten der Modellierung an sich.

Darüber hinaus erkennen die KI-Entwickler möglicherweise auch nicht, was vor sich geht. Die obskure Mathematik könnte es schwierig machen, die jetzt verborgenen Vorurteile aufzuspüren. Sie würden zu Recht hoffen und erwarten, dass die KI-Entwickler auf die potenziell vergrabenen Vorurteile testen würden, obwohl dies schwieriger ist, als es scheinen mag. Es besteht eine solide Chance, dass selbst bei relativ umfangreichen Tests immer noch Verzerrungen in den Mustererkennungsmodellen der ML/DL eingebettet sind.

Alles in allem könnten Sie am Ende wieder bei Null landen. Dieselben ungünstigen Vorurteile von Menschen werden nun rechnerisch im KI-System gespiegelt. Sie haben die Vorurteile nicht beseitigt.

Schlimmer noch, Sie werden möglicherweise weniger wahrscheinlich erkennen, dass die KI Vorurteile hat. Im Fall von Menschen könnten Sie normalerweise auf der Hut sein, dass Menschen ungünstige Vorurteile haben. Dies ist eine Grunderwartung. Der Einsatz von KI kann Führungskräfte glauben machen, dass die Automatisierung jede Art von menschlicher Voreingenommenheit vollständig beseitigt hat. Sie stellen sich damit ins Zeug, sich selbst ins Knie geschossen zu haben. Sie haben Menschen mit scheinbar bekannten negativen Vorurteilen beseitigt und durch KI ersetzt, von der angenommen wurde, dass sie keine derartigen Vorurteile hat, und haben jetzt KI in Gebrauch genommen, die mit den gleichen Vorurteilen gefüllt ist, von denen bereits bekannt ist, dass sie existieren.

Das kann die Dinge wirklich schielen. Möglicherweise haben Sie andere Leitplanken entfernt, die mit den menschlichen Arbeitern verwendet wurden, die eingerichtet wurden, um das Auftreten dieser bereits erwarteten menschlichen Vorurteile zu erkennen und zu verhindern. Die KI hat nun freie Hand. Nichts ist vorhanden, um es zu fangen, bevor Sie handeln. Die KI könnte Sie dann auf einen düsteren Pfad der enormen Anhäufung von voreingenommenen Handlungen führen.

Und Sie befinden sich in der unbeholfenen und vielleicht verantwortlichen Haltung, dass Sie einst von den Vorurteilen wussten und nun zugelassen haben, dass diese Vorurteile Chaos anrichten. Es ist vielleicht eine Sache, noch nie auf solche ungünstigen Vorurteile gestoßen zu sein, und dann entspringt die KI sie plötzlich aus heiterem Himmel. Sie könnten versuchen, dies mit der „wer hätte das gedacht“-Art von Ablenkung zu entschuldigen (vielleicht nicht sehr überzeugend). Aber dass Sie jetzt eine KI eingerichtet haben, die genau die gleichen unvoreingenommenen Aktionen ausführt wie zuvor, nun, Ihre Ausreden werden dünner und lahmer.

Eine Wendung dabei führt dazu, dass die KI ungünstige Vorurteile aufweist, die zuvor nicht aufgetreten waren, als die Menschen die Aufgabe erledigten. Man könnte sagen, dass dies vielleicht schwerer zu verhindern ist, da es sich um „neue“ Verzerrungen handelt, nach denen die Firma zuvor nicht gesucht hatte. Am Ende werden Ihnen Ausreden jedoch möglicherweise keine große Erleichterung verschaffen. Wenn sich das KI-System sowohl in unethisches als auch in rechtswidriges Gebiet vorgewagt hat, könnte Ihre Gans gekocht werden.

Eine andere Facette, die man im Auge behalten sollte, ist, dass die KI vielleicht ganz gut anfängt und sich dann langsam in unerwünschte Vorurteile vorarbeitet. Dies ist insbesondere dann wahrscheinlich, wenn der Einsatz von Machine Learning oder Deep Learning laufend erfolgt, um die KI auf dem neuesten Stand zu halten. Unabhängig davon, ob die ML/DL in Echtzeit arbeitet oder regelmäßig Aktualisierungen durchführt, sollte darauf geachtet werden, ob die KI möglicherweise Daten aufnimmt, die jetzt Verzerrungen enthalten und die zuvor nicht vorhanden waren.

Für Führungskräfte, die glauben, dass sie ein kostenloses Mittagessen bekommen, indem sie einen Zauberstab schwingen, um voreingenommene menschliche Arbeiter durch KI zu ersetzen, steht ihnen ein sehr böses Erwachen bevor. Siehe meine Diskussion über die Bedeutung der Befähigung von Führungskräften mit den Grundsätzen der KI-Ethik unter den Link hier.

An diesem Punkt dieser Diskussion würde ich wetten, dass Sie sich einige Beispiele aus der realen Welt wünschen, die das Rätsel aufzeigen könnten, menschliche Vorurteile durch KI-basierte Vorurteile zu ersetzen (oder nicht).

Ich bin froh, dass du gefragt hast.

Es gibt eine besondere und sicherlich beliebte Reihe von Beispielen, die mir am Herzen liegen. Sie sehen, in meiner Eigenschaft als Experte für KI, einschließlich der ethischen und rechtlichen Auswirkungen, werde ich häufig gebeten, realistische Beispiele zu nennen, die Dilemmata der KI-Ethik aufzeigen, damit die etwas theoretische Natur des Themas leichter erfasst werden kann. Einer der eindrucksvollsten Bereiche, der dieses ethische KI-Problem anschaulich darstellt, ist das Aufkommen von KI-basierten, wirklich selbstfahrenden Autos. Dies dient als praktischer Anwendungsfall oder als Beispiel für eine ausführliche Diskussion zu diesem Thema.

Hier ist dann eine bemerkenswerte Frage, die es wert ist, darüber nachzudenken: Erhellt das Aufkommen von KI-basierten, wirklich selbstfahrenden Autos irgendetwas über unerwünschte Vorurteile in der KI, und wenn ja, was zeigt dies?

Erlauben Sie mir einen Moment, um die Frage auszupacken.

Beachten Sie zunächst, dass an einem echten selbstfahrenden Auto kein menschlicher Fahrer beteiligt ist. Denken Sie daran, dass echte selbstfahrende Autos über ein KI-Fahrsystem gefahren werden. Es ist weder ein menschlicher Fahrer am Steuer erforderlich, noch ist vorgesehen, dass ein Mensch das Fahrzeug fährt. Für meine umfangreiche und laufende Berichterstattung über autonome Fahrzeuge (AVs) und insbesondere selbstfahrende Autos, siehe den Link hier.

Ich möchte weiter klären, was gemeint ist, wenn ich von echten selbstfahrenden Autos spreche.

Die Ebenen selbstfahrender Autos verstehen

Zur Verdeutlichung sind echte selbstfahrende Autos solche, bei denen die KI das Auto ganz alleine fährt und es während der Fahraufgabe keine menschliche Hilfe gibt.

Diese fahrerlosen Fahrzeuge gelten als Level 4 und Level 5 (siehe meine Erklärung unter Link hier), während ein Auto, bei dem ein menschlicher Fahrer den Fahraufwand mitteilen muss, normalerweise als Level 2 oder Level 3 betrachtet wird. Die Autos, die die Fahraufgabe mitteilen, werden als halbautonom beschrieben und enthalten typischerweise eine Vielzahl von automatisierte Add-Ons, die als ADAS (Advanced Driver-Assistance Systems) bezeichnet werden.

Es gibt noch kein echtes selbstfahrendes Auto auf Stufe 5, von dem wir noch nicht einmal wissen, ob dies möglich sein wird und wie lange es dauern wird, bis es dort ankommt.

In der Zwischenzeit versuchen die Bemühungen der Stufe 4 allmählich, durch sehr enge und selektive Versuche auf öffentlichen Straßen eine gewisse Traktion zu erreichen. Es gibt jedoch Kontroversen darüber, ob diese Tests per se zulässig sein sollten (wir sind alle Meerschweinchen auf Leben und Tod in einem Experiment) Einige behaupten, dass sie auf unseren Autobahnen und Nebenstraßen stattfinden Link hier).

Da halbautonome Autos einen menschlichen Fahrer erfordern, unterscheidet sich die Einführung dieser Autotypen nicht wesentlich vom Fahren herkömmlicher Fahrzeuge. Daher gibt es an sich nicht viel Neues zu diesem Thema (wie Sie sehen werden) in einem Moment sind die nächsten Punkte allgemein anwendbar).

Für halbautonome Autos ist es wichtig, dass die Öffentlichkeit vor einem störenden Aspekt gewarnt wird, der in letzter Zeit aufgetreten ist, und zwar trotz der menschlichen Fahrer, die immer wieder Videos von sich selbst veröffentlichen, die am Steuer eines Level 2- oder Level 3-Autos einschlafen Wir alle müssen vermeiden, in die Irre geführt zu werden, dass der Fahrer seine Aufmerksamkeit von der Fahraufgabe ablenken kann, während er ein halbautonomes Auto fährt.

Sie sind die verantwortliche Partei für die Fahraktionen des Fahrzeugs, unabhängig davon, wie viel Automatisierung in ein Level 2 oder Level 3 geworfen werden könnte.

Selbstfahrende Autos und KI mit ungünstigen Vorurteilen

Bei echten selbstfahrenden Fahrzeugen der Stufen 4 und 5 ist kein menschlicher Fahrer an der Fahraufgabe beteiligt.

Alle Insassen werden Passagiere sein.

Die KI fährt.

Ein Aspekt, der sofort diskutiert werden muss, ist die Tatsache, dass die KI, die an den heutigen KI-Antriebssystemen beteiligt ist, nicht empfindungsfähig ist. Mit anderen Worten, die KI ist insgesamt ein Kollektiv computergestützter Programmierung und Algorithmen und mit Sicherheit nicht in der Lage, auf die gleiche Weise zu argumentieren, wie es Menschen können.

Warum wird dadurch zusätzlich betont, dass die KI nicht empfindungsfähig ist?

Weil ich unterstreichen möchte, dass ich bei der Erörterung der Rolle des KI-Antriebssystems der KI keine menschlichen Qualitäten zuschreibe. Bitte beachten Sie, dass es heutzutage eine anhaltende und gefährliche Tendenz gibt, die KI zu anthropomorphisieren. Im Wesentlichen weisen die Menschen der heutigen KI eine menschenähnliche Empfindung zu, trotz der unbestreitbaren und unbestreitbaren Tatsache, dass es eine solche KI noch nicht gibt.

Mit dieser Klarstellung können Sie sich vorstellen, dass das KI-Fahrsystem die Facetten des Fahrens nicht von Haus aus „kennt“. Das Fahren und alles, was dazu gehört, muss als Teil der Hardware und Software des selbstfahrenden Autos programmiert werden.

Lassen Sie uns in die Vielzahl von Aspekten eintauchen, die zu diesem Thema eine Rolle spielen.

Zunächst ist es wichtig zu erkennen, dass nicht alle KI-selbstfahrenden Autos gleich sind. Jeder Autohersteller und jedes selbstfahrende Technologieunternehmen verfolgt seinen eigenen Ansatz, um selbstfahrende Autos zu entwickeln. Daher ist es schwierig, pauschale Aussagen darüber zu treffen, was KI-Fahrsysteme tun oder nicht tun werden.

Darüber hinaus kann die Aussage, dass ein KI-Fahrsystem eine bestimmte Sache nicht macht, später von Entwicklern überholt werden, die den Computer tatsächlich so programmieren, dass sie genau das tun. Schritt für Schritt werden KI-Fahrsysteme sukzessive verbessert und erweitert. Eine heute bestehende Einschränkung ist in einer zukünftigen Iteration oder Version des Systems möglicherweise nicht mehr vorhanden.

Ich vertraue darauf, dass dies eine ausreichende Litanei von Vorbehalten bietet, um das zu untermauern, was ich erzählen werde.

Wir sind jetzt darauf vorbereitet, tief in selbstfahrende Autos und die Möglichkeiten der ethischen KI einzutauchen, die die Erforschung von KI und ungünstigen Vorurteilen mit sich bringen.

Lassen Sie uns ein einfaches Beispiel verwenden. Ein KI-basiertes selbstfahrendes Auto ist auf den Straßen Ihrer Nachbarschaft unterwegs und scheint sicher zu fahren. Anfangs hatten Sie jedes Mal, wenn Sie einen Blick auf das selbstfahrende Auto erhaschen konnten, besondere Aufmerksamkeit gewidmet. Das autonome Fahrzeug zeichnete sich durch ein Rack mit elektronischen Sensoren aus, darunter Videokameras, Radareinheiten, LIDAR-Geräte und dergleichen. Nachdem das selbstfahrende Auto viele Wochen lang durch Ihre Gemeinde gefahren ist, bemerken Sie es kaum noch. Für Sie ist es nur ein weiteres Auto auf den ohnehin stark befahrenen öffentlichen Straßen.

Damit Sie nicht denken, dass es unmöglich oder unplausibel ist, sich mit dem Anblick von selbstfahrenden Autos vertraut zu machen, habe ich häufig darüber geschrieben, wie sich die Lokale, die im Rahmen von Testfahrten mit selbstfahrenden Autos sind, allmählich daran gewöhnt haben, die herausgeputzten Fahrzeuge zu sehen. Siehe meine Analyse unter Link hier. Viele der Einheimischen wechselten schließlich vom mundtoten, verzückten Gaffen zu einem ausladenden Gähnen der Langeweile, um diese sich schlängelnden selbstfahrenden Autos zu sehen.

Wahrscheinlich ist der Hauptgrund, warum sie die autonomen Fahrzeuge im Moment bemerken, der Irritations- und Verzweiflungsfaktor. Die vorschriftsmäßigen KI-Fahrsysteme stellen sicher, dass die Autos alle Geschwindigkeitsbegrenzungen und Straßenregeln einhalten. Für hektische menschliche Fahrer in ihren traditionellen von Menschen angetriebenen Autos sind Sie manchmal verärgert, wenn Sie hinter den streng gesetzestreuen KI-basierten selbstfahrenden Autos stecken bleiben.

Das ist etwas, woran wir uns vielleicht alle gewöhnen müssen, zu Recht oder zu Unrecht.

Zurück zu unserer Geschichte.

Es stellt sich heraus, dass zwei unangemessene Bedenken hinsichtlich der ansonsten harmlosen und allgemein begrüßten KI-basierten selbstfahrenden Autos auftauchen, insbesondere:

a. Wo die KI die selbstfahrenden Autos zum Abholen von Fahrten durchstreift, ist in der gesamten Community zu einem besorgten Anliegen geworden

b. Wie die KI mit wartenden Fußgängern umgeht, die keine Vorfahrt haben, ist ebenfalls ein zunehmendes Problem

Zunächst streifte die KI mit den selbstfahrenden Autos durch die ganze Stadt. Jeder, der eine Fahrt mit dem selbstfahrenden Auto anfordern wollte, hatte im Wesentlichen die gleiche Chance, eines zu erreichen. Allmählich begann die KI, die selbstfahrenden Autos hauptsächlich in nur einem Stadtteil herumfahren zu lassen. Dieser Abschnitt war ein größerer Geldverdiener und das KI-System war so programmiert worden, dass es versuchte, die Einnahmen als Teil der Nutzung in der Community zu maximieren.

Gemeindemitglieder in den verarmten Stadtteilen konnten mit geringerer Wahrscheinlichkeit mit einem selbstfahrenden Auto mitfahren. Dies lag daran, dass die selbstfahrenden Autos weiter entfernt waren und in dem umsatzstärkeren Teil des Gebietsschemas unterwegs waren. Wenn eine Anfrage aus einem entfernten Teil der Stadt einging, erhielt jede Anfrage von einem näher gelegenen Ort, der wahrscheinlich im „angesehenen“ Teil der Stadt lag, eine höhere Priorität. Schließlich war es fast unmöglich, ein selbstfahrendes Auto an einem anderen Ort als dem reicheren Teil der Stadt zu bekommen, was für diejenigen, die in diesen jetzt ressourcenarmen Gebieten lebten, ärgerlich war.

Man könnte behaupten, dass die KI so ziemlich auf einer Form der stellvertretenden Diskriminierung (oft auch als indirekte Diskriminierung bezeichnet) gelandet ist. Die KI war nicht darauf programmiert, diese ärmeren Viertel zu meiden. Stattdessen hat es dies über die Verwendung der ML/DL „gelernt“.

Die Sache ist die, dass Mitfahrgelegenheiten für menschliche Fahrer dafür bekannt waren, dasselbe zu tun, wenn auch nicht unbedingt ausschließlich wegen des Geldverdienens. Es gab einige der menschlichen Fahrgemeinschaftsfahrer, die eine ungünstige Vorliebe dafür hatten, Mitfahrer in bestimmten Teilen der Stadt abzuholen. Dies war ein ziemlich bekanntes Phänomen, und die Stadt hatte einen Überwachungsansatz eingeführt, um menschliche Fahrer dabei zu erwischen. Menschliche Fahrer könnten in Schwierigkeiten geraten, wenn sie unappetitliche Auswahlpraktiken durchführen.

Man ging davon aus, dass die KI niemals in denselben Treibsand geraten würde. Es wurde keine spezielle Überwachung eingerichtet, um zu verfolgen, wohin die KI-basierten selbstfahrenden Autos fahren. Erst als sich die Gemeindemitglieder zu beschweren begannen, erkannten die Stadtführer, was vor sich ging. Weitere Informationen zu diesen stadtweiten Themen, die autonome Fahrzeuge und selbstfahrende Autos präsentieren werden, finden Sie in meiner Berichterstattung unter Link hier und die eine von Harvard geleitete Studie beschreibt, die ich zu diesem Thema mitverfasst habe.

Dieses Beispiel der Roaming-Aspekte der KI-basierten selbstfahrenden Autos veranschaulicht den früheren Hinweis darauf, dass es Situationen geben kann, in denen Menschen mit ungünstigen Vorurteilen beteiligt sind, für die Kontrollen eingerichtet werden, und dass die KI, die diese menschlichen Fahrer ersetzt, im Stich gelassen wird. frei. Leider kann die KI dann schrittweise in ähnliche Vorurteile verstricken, ohne dass ausreichende Leitplanken vorhanden sind.

In einem zweiten Beispiel entscheidet die KI, ob sie anhalten soll, um auf Fußgänger zu warten, die keine Vorfahrt haben, um eine Straße zu überqueren.

Sicherlich sind Sie schon einmal mit dem Auto gefahren und auf Fußgänger gestoßen, die darauf warteten, die Straße zu überqueren, und doch keine Vorfahrt hatten. Dies bedeutete, dass Sie nach eigenem Ermessen entscheiden konnten, ob Sie anhalten und sie überqueren ließen. Sie könnten weiterfahren, ohne sie überqueren zu lassen, und sich dabei immer noch vollständig an die gesetzlichen Fahrregeln halten.

Studien darüber, wie menschliche Fahrer entscheiden, für solche Fußgänger anzuhalten oder nicht anzuhalten, haben nahegelegt, dass die menschlichen Fahrer manchmal die Wahl auf der Grundlage von ungünstigen Vorurteilen treffen. Ein menschlicher Fahrer könnte den Fußgänger beobachten und sich dafür entscheiden, nicht anzuhalten, obwohl er angehalten hätte, wenn der Fußgänger ein anderes Aussehen gehabt hätte, beispielsweise basierend auf Rasse oder Geschlecht. Ich habe dies bei untersucht den Link hier.

Stellen Sie sich vor, dass die KI-basierten selbstfahrenden Autos darauf programmiert sind, die Frage zu beantworten, ob sie für Fußgänger ohne Vorfahrt anhalten oder nicht anhalten sollen. So haben sich die KI-Entwickler entschieden, diese Aufgabe zu programmieren. Sie sammelten Daten von den Videokameras der Stadt, die überall in der Stadt aufgestellt sind. Die Daten zeigen menschliche Fahrer, die für Fußgänger anhalten, die keine Vorfahrt haben, und menschliche Fahrer, die nicht anhalten. Alles wird in einem großen Datensatz gesammelt.

Durch den Einsatz von Machine Learning und Deep Learning werden die Daten rechnerisch modelliert. Das KI-Fahrsystem verwendet dann dieses Modell, um zu entscheiden, wann es anhält oder nicht. Im Allgemeinen ist die Idee, dass die KI das selbstfahrende Auto auf diese Weise steuern wird, was auch immer der lokale Brauch ist.

Zur Überraschung der Stadtführung und der Einwohner entschied sich die KI offensichtlich dafür, anzuhalten oder nicht anzuhalten, basierend auf dem Aussehen des Fußgängers, einschließlich seiner Rasse und seines Geschlechts. Die Sensoren des selbstfahrenden Autos würden den wartenden Fußgänger scannen, diese Daten in das ML/DL-Modell einspeisen und das Modell würde an die KI senden, ob es anhalten oder weiterfahren soll. Leider hatte die Stadt in dieser Hinsicht bereits viele Vorurteile gegenüber menschlichen Fahrern, und die KI ahmte jetzt dasselbe nach.

Die gute Nachricht ist, dass dies ein Problem aufwirft, von dem fast niemand zuvor wusste, dass es existiert. Die schlechte Nachricht war, dass die KI, seit sie dabei erwischt wurde, die meiste Schuld erhielt. Dieses Beispiel veranschaulicht, dass ein KI-System möglicherweise lediglich die bereits bestehenden negativen Vorurteile von Menschen dupliziert.

Fazit

Es gibt eine Vielzahl von Möglichkeiten, um zu vermeiden, dass KI entwickelt wird, die entweder von vornherein ungünstige Vorurteile aufweist oder im Laufe der Zeit Vorurteile aufspürt. Ein Ansatz besteht darin, dafür zu sorgen, dass KI-Entwickler sich dessen bewusst sind und sie daher auf Trab halten, um die KI zu programmieren, um die Angelegenheit abzuwenden. Ein anderer Weg besteht darin, die KI selbst auf unethisches Verhalten überwachen zu lassen (siehe meine Diskussion unter den Link hier) und/oder eine andere KI haben, die andere KI-Systeme auf potenziell unethisches Verhalten überwacht (ich habe dies unter behandelt den Link hier).

Um es noch einmal zusammenzufassen: Wir müssen erkennen, dass Menschen ungünstige Vorurteile haben können und dass sie irgendwie ihre Grenzen kennen müssen. Ebenso kann KI ungünstige Vorurteile haben, und irgendwie müssen wir ihre Grenzen kennen.

Für diejenigen unter Ihnen, die die KI-Ethik eifrig annehmen, möchte ich jetzt mit einem weiteren berühmten Satz enden, den jeder bereits kennen muss. Bitte nutzen und teilen Sie die Bedeutung der ethischen KI weiterhin. Und dabei würde ich frech sagen: „Mach weiter, mach meinen Tag gut.“

Quelle: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-special-deployed-when-human-biases-are-aplenty/