KI-Ethik ringt mit der Unvermeidlichkeit von KI-Unfällen, die auch autonome, selbstfahrende Autos bedrohen

Kennen Sie vielleicht jemanden, der besonders unfallgefährdet zu sein scheint?

Scheint so, als würden wir das alle tun.

Vielleicht ist die Person der Typ, der dazu neigt, auf einer Bananenschale auszurutschen oder eine kostbare Vase in Ihrem Wohnzimmer umzustoßen. Sie sind ein menschlicher Magnet für Unfälle der einen oder anderen Art. Es könnte so schlimm sein, dass Sie manchmal sogar abgeneigt sind, in ihrer Nähe zu sein. Sie könnten den ominösen Überlauf bekommen oder die unrühmlichen Folgen eines ihrer unappetitlichen Unfälle erleiden.

Aber vielleicht sind wir zu hart, wenn wir andeuten, dass jeder für Unfälle anfälliger ist als andere. Man könnte argumentieren, dass jedem von uns Unfälle passieren können. Wir alle unterliegen der Möglichkeit, einen Unfall zu begehen oder in einen Unfall verwickelt zu werden. Die Besten von uns inklusive.

Lassen Sie uns diese Diskussion mit einer zusätzlich ärgerlichen Frage überhäufen.

Sind Unfälle unvermeidlich?

Mit anderen Worten, egal wie sehr wir uns bemühen, Unfälle zu vermeiden, es könnte unausweichlich sein, dass dennoch die Möglichkeit und die letzte Gewissheit bestehen, dass Unfälle passieren werden. Sie können versuchen, die Welt vor Unfällen zu schützen. Das scheint zweifellos umsichtig. Aber auf die eine oder andere Weise werden Unfälle immer noch ihren hässlichen Kopf erheben.

Wie sie sagen, warten Unfälle darauf, passiert zu werden.

Es könnte hilfreich sein zu klären, was damit gemeint ist, dass ein Ereignis angemessen als Unfall bezeichnet wird. Die übliche Wörterbuchdefinition lautet, dass ein Unfall eine Art von Vorfall ist, der unerwartet und unbeabsichtigt auftritt und dessen unglückliches Ergebnis in einem Anschein von Schaden oder Verletzung besteht.

Packen Sie diese Definition achtsam aus.

Der genannte Vorfall ist unerwartet. Dies impliziert, dass wir anscheinend nicht erkannt haben, dass der Unfall selbst eintreten würde.

Der genannte Vorfall ist unbeabsichtigt. Dies legt nahe, dass wir die Umstände ausschließen sollten, unter denen jemand absichtlich versucht hat, den Vorfall zu erleiden. Wenn ein Witzbold eine Bananenschale auf den Boden legt, wo er weiß, dass ein unglücklicher und ahnungsloser Unschuldiger darauf treten wird, würden Sie kaum behaupten können, dass die Person, die darüber gestolpert ist, einen Unfall erlitten hat. Stattdessen wurden sie ausgetrickst und heimtückisch in eine Falle geführt.

Die Definition beinhaltet auch das Kriterium, dass das Ergebnis unglücklich ist. Ein Unfall in diesem Licht muss zu einem sauren Ausgang führen. Die Person, die aus Versehen eine Vase umgestoßen hat, hat das Objekt zerbrochen und möglicherweise irreparabel beschädigt. Der Besitzer der Vase wird durch den Wertverlust geschädigt. Die Person, die in die Vase gerannt ist, könnte nun dem Eigentümer den Verlust schulden. Der Himmel bewahre, dass jemand durch das Zerbrechen der Vase geschnitten oder verschrottet wurde.

Aus Gründen der Ausgewogenheit möchten wir vielleicht anmerken, dass es auch sogenannte „gute“ Unfälle gibt. Eine Person könnte sich aufgrund eines Unfalls in großem Vermögen befinden oder einen anderen lebenswichtigen Vorteil erlangen. Eines der am häufigsten zitierten Beispiele ist Sir Alexander Fleming und seine gefeierte Entdeckung des Penicillins. Die Geschichte besagt, dass er in seinem Labor etwas nachlässig war und nach der Rückkehr aus einem zweiwöchigen Urlaub einen Schimmelpilz auf einer seiner Kulturplatten fand. Berichten zufolge sagte er dazu Folgendes: „Manchmal findet man, wonach man nicht sucht. Als ich am 28. September 1928 kurz nach Sonnenaufgang aufwachte, hatte ich sicherlich nicht vor, die gesamte Medizin zu revolutionieren, indem ich das weltweit erste Antibiotikum oder Bakterientöter entdeckte. Aber ich denke, genau das habe ich getan.“

Wir werden die günstigen Zufälle beiseite lassen und uns hier auf die düsteren Zufälle konzentrieren. Die Stirnrunzeln-Version von Unfällen ist, wo diese negativen Folgen besonders lebensbedrohlich sein oder belastende Folgen haben können. So weit wie möglich möchten wir die Unfälle nach unten minimieren (und natürlich die Unfälle nach oben, die wir maximieren möchten, wenn dies machbar ist, obwohl ich diese Smiley-Variante in einer späteren Kolumne behandeln werde).

Ich möchte die frühere Frage nach der Unvermeidbarkeit von Unfällen etwas umformulieren. Bisher haben wir unsere Aufmerksamkeit auf Unfälle gerichtet, die sich im Einzelfall einer einzelnen Person ereignen. Es besteht kein Zweifel, dass Unfälle auch viele Menschen auf einmal treffen können. Dies kann insbesondere auftreten, wenn Menschen in ein komplexes System der einen oder anderen Art eingetaucht sind.

Machen Sie sich bereit für eine Variante der zuvor gestellten Frage.

Sind Systemunfälle unvermeidlich?

Wir sollten darüber nachdenken.

Angenommen, in einer Fabrikhalle werden Teile für Autos hergestellt. Diejenigen, die die Fabrik entworfen haben, sind, sagen wir mal, äußerst besorgt über mögliche Arbeiterunfälle. Fabrikarbeiter müssen jederzeit Helme tragen. Hinweisschilder im Werk mahnen zur Unfall- und Achtsamkeitsarbeit. Es werden alle möglichen Vorkehrungen getroffen, um Unfälle zu vermeiden.

In diesem System können wir hoffen, dass niemand jemals einen Unfall erleidet. Glauben Sie, dass die Wahrscheinlichkeit eines Unfalls gleich null ist? Ich wage zu behaupten, dass kein vernünftiger Denker darauf wetten würde, dass die Wahrscheinlichkeit eines Unfalls in diesem Fall gleich Null ist. Die Wahrscheinlichkeit eines Unfalls mag sehr gering sein, aber wir wissen und gehen davon aus, dass trotz aller Vorsichtsmaßnahmen immer noch ein gewisses Risiko besteht, dass ein Unfall passiert.

All dies deutet darauf hin, dass wir in einem System ausreichender Komplexität glauben müssen, dass es immer noch zu Unfällen kommen wird, egal wie sehr wir uns bemühen, sie zu verhindern. Wir stützen uns widerwillig auf die Feststellung, dass Systemunfälle tatsächlich unvermeidlich sind. Eine grandiose Aussage dieses Kalibers könnte den Vorbehalt enthalten, dass das System eine gewisse Komplexitätsschwelle aufweisen müsste, so dass es im Wesentlichen unmöglich ist, alle Grundlagen abzudecken, um Unfälle vollständig zu verhindern.

Sie wurden nun Schritt für Schritt in eine grob umrissene Theorie über Unfälle eingeführt, die als Normal Accidents oder Normal Accident Theory (NAT) bezeichnet werden kann. Hier ist eine praktische Beschreibung von Forschern, die diesen Begriff untersucht haben: „In einem ausreichend großen Maßstab produziert jedes System ‚normale Unfälle'. Dies sind unvermeidbare Unfälle, die durch eine Kombination aus Komplexität, Kopplung zwischen Komponenten und potenziellen Schäden verursacht werden. Ein normaler Unfall unterscheidet sich von häufigeren Unfällen mit Komponentenausfällen dadurch, dass die Ereignisse und Wechselwirkungen, die zu einem normalen Unfall führen, für die Bediener des Systems nicht verständlich sind“ (wie in „Understanding and Avoiding AI Failures: A Practical Guide“ von Robert Williams and Roman Jampolsky, Philosophien Tagebuch).

Der Grund, warum ich dich in das Land der sogenannten gebracht habe normale Unfälle ist, dass wir diese Theorie möglicherweise sorgfältig auf etwas anwenden müssen, das in unserer Gesellschaft allmählich und unweigerlich allgegenwärtig wird, nämlich das Aufkommen der künstlichen Intelligenz (KI).

Lassen Sie uns dem auf den Grund gehen.

Manche Leute gehen fälschlicherweise davon aus, dass KI Perfektion sein wird. KI-Systeme werden keine Fehler machen und uns nicht in Schwierigkeiten bringen, so die Spekulation. Alles, was Sie tun müssen, ist sicherzustellen, dass diese KI-Entwickler ihre Arbeit gut genug machen, und voila, KI wird niemals etwas tun, das als versehentlich ausgelegt werden könnte oder einen Unfall hervorrufen könnte.

Nicht so schnell auf diesem hypothetischen Glauben. Wenn Sie bereit sind, sich auf die Theorie von einzulassen normale Unfälle, wird jede KI von irgendeiner inhaltlichen Komplexität unweigerlich einen Unfall verursachen. Unabhängig davon, wie viel nächtliche Bastelei diese KI-Entwickler betreiben, um einen Unfall zu verhindern, wird die KI sicherlich irgendwann in einen Unfall verwickelt sein. So zerbröckelt der Keks. Und es gibt keine Ruhe, in unserer verschütteten Milch darüber zu weinen.

Denken Sie über das Mashup von KI und die konzeptionellen Grundsätze von nach normale Unfälle.

Stellen Sie sich vor, wir hätten ein KI-System, das Atomwaffen kontrolliert. Die KI wurde sorgfältig ausgearbeitet. Jedes erdenkliche Check and Balance wurde in das KI-System codiert. Sind wir sicher vor einem KI-basierten Unfall, der sich ereignen könnte? Diejenigen, die die Sichtweise der normalen Unfälle vertreten, würden sagen, dass wir nicht ganz so sicher sind, wie man annehmen könnte. Da die KI wahrscheinlich besonders komplex ist, wartet dort still ein normaler Unfall darauf, eines Tages, vielleicht im ungünstigsten Moment, aufzutauchen.

Der Kern dieser heiklen Fragen und Bedenken ist, dass wir auf der Hut sein müssen, dass KI zwangsläufig unfallbeladen ist und die Menschheit etwas vernünftiges und proaktives gegen die Gefahren tun muss, die sich daraus ergeben können. Wie Sie in ein oder zwei Momenten sehen werden, ist dies eine sich abzeichnende Überlegung, wenn es um den Einsatz von KI geht, und das Feld der KI-Ethik und der ethischen KI ringt ziemlich darüber, was zu tun ist. Für meine fortlaufende und umfassende Berichterstattung über KI-Ethik und Ethische KI siehe den Link hier und den Link hier, nur um ein paar zu nennen.

Bevor wir uns in einen Kaninchenbau begeben, stellen wir sicher, dass wir uns in Bezug auf die Natur der KI auf derselben Seite befinden. Es gibt heute keine KI, die empfindungsfähig ist. Wir haben das nicht. Wir wissen nicht, ob empfindungsfähige KI möglich sein wird. Niemand kann treffend vorhersagen, ob wir eine empfindungsfähige KI erreichen werden oder ob die empfindungsfähige KI irgendwie auf wundersame Weise spontan in einer Form einer rechnergestützten kognitiven Supernova entstehen wird (normalerweise als Singularität bezeichnet, siehe meine Berichterstattung unter den Link hier).

Die Art von KI, auf die ich mich konzentriere, besteht aus der nicht-empfindungsfähigen KI, die wir heute haben. Wollten wir wild darüber spekulieren empfindungsfähig AI, diese Diskussion könnte in eine radikal andere Richtung gehen. Eine empfindungsfähige KI wäre angeblich von menschlicher Qualität. Sie müssten bedenken, dass die empfindungsfähige KI das kognitive Äquivalent eines Menschen ist, der Ihnen Ratschläge gibt. Mehr noch, da einige spekulieren, dass wir eine superintelligente KI haben könnten, ist es denkbar, dass eine solche KI am Ende klüger als Menschen sein könnte (zu meiner Erforschung einer superintelligenten KI als Möglichkeit siehe die Berichterstattung hier). Alles in allem würden diese Szenarien die Einschätzung der Quelle erschweren.

Lassen Sie uns die Dinge bodenständiger halten und die heutige rechnerische, nicht-empfindungsfähige KI betrachten.

Machen Sie sich bewusst, dass die heutige KI nicht in der Lage ist, in irgendeiner Weise auf Augenhöhe mit dem menschlichen Denken zu „denken“. Wenn Sie mit Alexa oder Siri interagieren, scheinen die Konversationsfähigkeiten den menschlichen Fähigkeiten ähnlich zu sein, aber die Realität ist, dass sie rechnerisch ist und menschliche Kognition fehlt. Die jüngste Ära der KI hat in großem Umfang maschinelles Lernen (ML) und Deep Learning (DL) genutzt, das den rechnergestützten Musterabgleich nutzt. Dies hat zu KI-Systemen geführt, die den Anschein menschenähnlicher Neigungen erwecken. In der Zwischenzeit gibt es heute keine KI, die einen Anschein von gesundem Menschenverstand hat und auch nicht über die kognitive Verwunderung robusten menschlichen Denkens verfügt.

Sie wissen vielleicht, dass es zu Beginn der jüngsten Ära der KI einen riesigen Ausbruch von Enthusiasmus für das gab, was manche heute nennen KI für immer. Unglücklicherweise begannen wir nach dieser sprudelnden Aufregung, Zeuge zu werden KI für schlecht. Beispielsweise wurde festgestellt, dass verschiedene KI-basierte Gesichtserkennungssysteme rassistische Vorurteile und geschlechtsspezifische Vorurteile enthalten, die ich unter besprochen habe den Link hier.

Bemühungen, sich dagegen zu wehren KI für schlecht sind aktiv unterwegs. Außer lautstark legal Neben dem Streben, das Fehlverhalten einzudämmen, gibt es auch einen substanziellen Drang, die KI-Ethik anzunehmen, um die KI-Abscheulichkeit zu korrigieren. Die Vorstellung ist, dass wir wichtige ethische KI-Prinzipien für die Entwicklung und den Einsatz von KI annehmen und unterstützen sollten, um dies zu unterbieten KI für schlecht und gleichzeitig das Vorzuziehende ankündigen und fördern KI für immer.

In einem ähnlichen Zusammenhang bin ich ein Befürworter des Versuchs, KI als Teil der Lösung von KI-Problemen einzusetzen und Feuer mit Feuer in dieser Denkweise zu bekämpfen. Wir könnten zum Beispiel ethische KI-Komponenten in ein KI-System einbetten, das überwacht, wie der Rest der KI Dinge tut, und so potenziell diskriminierende Bemühungen in Echtzeit erkennen, siehe meine Diskussion unter den Link hier. Wir könnten auch ein separates KI-System haben, das als eine Art KI-Ethikmonitor fungiert. Das KI-System dient als Aufseher, um zu verfolgen und zu erkennen, wann eine andere KI in den unethischen Abgrund geht (siehe meine Analyse solcher Fähigkeiten unter den Link hier).

Alles in allem besteht die allgemeine Hoffnung, dass wir durch die Etablierung eines Sinns für KI-Ethikregeln zumindest in der Lage sein werden, das gesellschaftliche Bewusstsein dafür zu schärfen, was KI sowohl positiv als auch negativ bewirken kann. Ich habe verschiedene kollektive Analysen der KI-Ethikprinzipien ausführlich diskutiert, einschließlich der Behandlung einer Reihe von Forschern, die die Essenz zahlreicher nationaler und internationaler KI-Ethiklehrsätze in einem Papier mit dem Titel „The Global Landscape Of AI Ethics Guidelines“ (veröffentlicht in Natur), und die meine Berichterstattung unter untersucht den Link hier, was zu dieser Keystone-Liste führte:

  • Transparenz
  • Gerechtigkeit & Fairness
  • Nicht-Maleficence
  • Verantwortung
  • Datenschutz
  • Wohltätigkeit
  • Freiheit & Autonomie
  • Vertrauen
  • Nachhaltigkeit
  • Würde
  • Solidarität

Wie Sie vielleicht direkt erraten, kann es äußerst schwierig sein, die diesen Prinzipien zugrunde liegenden Besonderheiten festzunageln. Darüber hinaus ist der Versuch, diese allgemeinen Prinzipien in etwas völlig Greifbares und Detailliertes umzuwandeln, das für die Herstellung von KI-Systemen verwendet werden kann, eine harte Nuss, die es zu knacken gilt. Es ist einfach, mit der Hand zu winken, was KI-Ethikregeln sind und wie sie allgemein eingehalten werden sollten, während es eine viel kompliziertere Situation ist, wenn die KI-Codierung der wahre Gummi sein muss, der auf die Straße trifft.

Die KI-Ethik-Prinzipien müssen von KI-Entwicklern zusammen mit denjenigen angewendet werden, die die KI-Entwicklungsbemühungen verwalten, und sogar von denjenigen, die letztendlich KI-Systeme einsetzen und warten. Alle Beteiligten während des gesamten KI-Lebenszyklus der Entwicklung und Nutzung werden im Rahmen der Einhaltung der etablierten Normen der ethischen KI berücksichtigt. Dies ist ein wichtiges Highlight, da die übliche Annahme ist, dass „nur Programmierer“ oder diejenigen, die die KI programmieren, den Grundsätzen der KI-Ethik unterliegen. Wie bereits erwähnt, braucht es ein Dorf, um KI zu entwickeln und einzusetzen, und dafür muss das gesamte Dorf mit den KI-Ethikvorschriften vertraut sein und sich an diese halten.

Möglicherweise müssen wir zu den gepriesenen KI-Ethik-Auflistungen hinzufügen, dass wir explizit in Betracht ziehen und offene Maßnahmen ergreifen müssen, um KI-basiertes Verhalten zu verhindern oder zumindest streng einzudämmen normale Unfälle das könnte vorkommen. Diejenigen, die KI entwickeln, müssen an dieser Front ihr Bestes geben. Diejenigen, die KI einsetzen, müssen dies ebenfalls tun. Diejenigen, die KI verwenden oder irgendwie KI unterliegen, sollten vorsichtig sein und auf der Hut sein vor der Möglichkeit von KI-Unfällen, die scheinbar auftreten werden.

Sie könnten versucht sein zu glauben, dass genügend Vorsichtsmaßnahmen in die KI eingebaut werden können, damit die Wahrscheinlichkeit eines Unfalls auf Null sinkt. Für diejenigen, die Technikfreaks sind, ist die übliche Hybris, dass, wenn ein Stück Technik ein Problem erzeugen kann, ein anderes Stück Technik das Problem sicherlich lösen kann. Werfen Sie einfach immer mehr Technik hinzu, bis das Problem verschwindet.

Nun, diejenigen, die sich mit systemorientierten Unfällen befasst haben, würden dazu neigen, der vermeintlichen Wichtigtuerei von Technikfreaks zu widersprechen und höflich zu erwidern, indem sie einen Standpunkt vertreten, der als Schweizer Käsemodell (SCM) bekannt ist: „Im SCM werden die Sicherheitsschichten als Scheiben modelliert Käse mit Löchern darin, die Schwachstellen in jeder Sicherheitsschicht darstellen. Mit der Zeit verändern Löcher ihre Form und bewegen sich. Irgendwann, egal wie viele Käsescheiben (Sicherheitsschichten) es gibt, richten sich die Löcher so aus, dass ein direkter Schuss durch alle Käsescheiben möglich ist (es passiert ein Unfall)“ (gemäß dem zuvor zitierten Artikel von Robert Williams und Roman Yampolskiy ).

Ich möchte mich nicht in diese Seitentangente verzetteln, ob es einen garantierten Weg gibt, die KI so zu programmieren, dass sie die Möglichkeit eines Unfalls vollständig und immer abwendet. Es gibt alle möglichen mathematischen und rechnergestützten Beweisansätze, die ausprobiert werden. Ich denke, es ist vernünftig und fair zu erklären, dass wir heute weder eine skalierbare Arbeitsmethode noch Technologien haben, die eine solche Null-Chance eisern garantieren können, und wir sind definitiv mit Tonnen von Tonnen von KI belastet, die durcheinander produziert werden wie wir weiß mit Sicherheit nicht versucht, sich an solche Praktiken zu halten. Dieser letzte Punkt ist entscheidend, denn selbst wenn wir etwas in einem KI-Labor zusammenbrauen können, ist die Skalierung auf die Millionen von wilden und sorglosen KI-Bemühungen, die im Gange sind und die weiterhin auftauchen werden, ein kniffliges Problem und wahrscheinlich nicht gelöst, selbst wenn eine rechnergestützte Prüfmaschine Silber ist Kugel existierte.

Ein weiterer Punkt, der meines Erachtens eine kurze Erwähnung verdient, ist die KI, die durch böswillige menschliche Akteure dazu gebracht wird, unerwünschte Handlungen auszuführen. Ich werde diese Fälle nicht in den Bereich von KI-Unfällen einordnen. Denken Sie daran, dass die Eröffnungsdiskussion nahelegte, dass die Wörterbuchdefinition eines Unfalls ein Vorfall von einem war unbeabsichtigt Natur. Wenn es einem menschlichen Cyberkriminellen gelingt, ein KI-System dazu zu bringen, schlimme Dinge zu tun, stufe ich diese KI nicht als Unfall ein. Ich vertraue darauf, dass Sie sich dieser Vermutung anschließen werden.

Es stellt sich die interessante Frage, wie viel von verschiedenen KI-Fehlverhalten einem reinen KI-Unfall im Gegensatz zu einer hinterhältigen Tat eines Cyberkriminellen zugeschrieben werden kann. Laut einigen der bestehenden Datenbanken, die KI-Vorfälle melden, scheinen die KI-Unfälle häufiger zu passieren als die böswillig angespornten Vorfälle, obwohl Sie diese Vorstellung mit einer kräftigen Dosis Salz nehmen müssen. Ich sage das, weil die Versuchung groß ist, einen Angriff auf ein KI-System nicht zu melden und vielleicht eher bereit zu sein, einen KI-Unfall zu melden.

Es gibt einen äußerst wichtigen Vorbehalt, den wir in Bezug auf KI-Unfälle besprechen müssen.

Die Verwendung des Schlagworts „KI-Unfälle“ ist im Allgemeinen unerwünscht und wird für uns alle, das heißt für die gesamte Gesellschaft, ein ziemliches Chaos anrichten. Wenn ein Mensch vielleicht einen Unfall hat, zucken wir oft mit den Schultern und haben Mitgefühl mit dem Verunglückten. Wir scheinen das Wort „Unfall“ so zu behandeln, als würde es bedeuten, dass niemand für das, was passiert ist, verantwortlich ist.

Nehmen wir das Beispiel eines Autounfalls. Ein Auto schwenkt in einer Rechtskurve weit aus und rammt versehentlich ein anderes Auto, das geradeaus fährt. Shucks, es war nur ein Unfall und zufällig passiert. Diejenigen, die nicht an dem Vorfall beteiligt waren, werden die Angelegenheit vielleicht auf sich beruhen lassen, wenn das Ereignis lediglich als ein passierter Unfall bezeichnet wird.

Ich habe jedoch das Gefühl, dass Sie in dem Auto, das angefahren wurde, nicht so mitfühlend für den Fahrer wären, der die übermäßig weite Kurve gefahren ist. Ihre Meinung wäre sicherlich, dass der andere Fahrer ein mieser Fahrer war und dass entweder eine angeblich illegale oder unkluge Fahrweise zu dem Autounfall geführt hat. Indem der Vorfall als „Unfall“ bezeichnet wird, ist der festgefahrene Fahrer jetzt etwas benachteiligt, da es den Anschein hat, dass alles nur durch Zufall passiert ist und nicht durch die Hände des Fahrers, der es vermasselt hat.

Tatsächlich ist das Wort „Unfall“ so mit unterschiedlichen Konnotationen gefüllt, dass die Regierungsstatistiken zu Autounfällen die Angelegenheit im Großen und Ganzen als Autokollisionen oder Autounfälle bezeichnen, anstatt den Ausdruck Autounfälle zu verwenden. Eine Autokollision oder ein Autounfall scheint keine Auswirkungen darauf zu haben, wie es zu dem Vorfall kam. Inzwischen lässt uns die Formulierung „Autounfall“ fast glauben, dass es eine Laune des Schicksals oder irgendwie außerhalb der Hände der Menschheit war.

Sie können reichlich sehen, wie diese konnotationelle Überlegung ins Spiel kommt, wenn Sie sich auf KI-Unfälle beziehen. Wir wollen nicht, dass KI-Entwickler sich hinter dem Konnotationsschild verstecken, dass die KI nur versehentlich jemandem Schaden zugefügt hat. Das Gleiche gilt für diejenigen, die KI einsetzen. Man könnte argumentieren, dass die Formulierung „KI-Unfälle“ fast eine Anthropomorphisierung der KI ist, die die Gesellschaft dazu verleiten wird, den Menschen, die hinter den Kulissen der KI standen, zu erlauben, sich der Verantwortung zu entziehen. Für meine Diskussion über die zunehmende Bedeutung, Menschen für ihre KI verantwortlich zu machen, siehe meine Diskussion unter Link hier und Link hier.

Ich werde hier fortan das Schlagwort von KI-Unfällen verwenden, aber ich tue dies nur ungern und nur, weil dies die herkömmliche Art ist, auf dieses Phänomen hinzuweisen. Versuche, dies anders zu formulieren, neigen leider dazu, aufgeblähter und nicht so leicht lesbar zu sein. Bitte stellen Sie sicher, dass Sie das Schlagwort so interpretieren, dass Sie nicht wegschauen und nicht erkennen, dass die Menschen, die der KI zugrunde liegen, schuld sind, wenn die KI schief geht.

Um die wahrscheinliche Verwirrung oder die irreführenden Aspekte der Bezugnahme auf KI als Unfall zu veranschaulichen, können wir auf meine Bemerkungen zum Umstoßen einer Vase zurückkommen. Betrachten Sie dieses Beispiel dafür, wie die KI dies tut: „Dieses Problem hat mit Dingen zu tun, die versehentlich oder aus Gleichgültigkeit von der KI getan werden. Ein Beispiel dafür ist ein Reinigungsroboter, der eine Vase umwirft. Komplexe Umgebungen haben so viele Arten von „Vasen“, dass wir wahrscheinlich nicht in der Lage sein werden, eine Strafe für alle Nebeneffekte zu programmieren“ (laut dem Artikel von Robert Williams und Roman Yampolskiy).

Ein KI-System, das in einem Haushalt in Betrieb genommen wird und dann „aus Versehen“ eine Vase umwirft, scheint zu suggerieren, dass niemand für diese nachteilige Aktion der KI verantwortlich gemacht werden sollte. Es war nur ein Unfall, könnte man klagend beklagen. Auf der anderen Seite sollten wir uns zu Recht fragen, warum das KI-System nicht darauf programmiert wurde, den Vasen-Umstand im Allgemeinen zu handhaben. Auch wenn die KI-Entwickler nicht erwartet haben, dass eine Vase per se im Bereich der Objekte liegt, auf die man stoßen könnte, können wir sicherlich fragen, warum es keine übergreifende Objektvermeidung gab, die das KI-System davon abgehalten hätte, die Vase umzuwerfen Vase (daher könnte die KI die Vase zwar nicht als Vase klassifizieren, hätte sie aber dennoch als zu vermeidendes erkennbares Objekt vermeiden können).

Ich habe vorausgesagt und prognostiziere weiterhin, dass wir allmählich auf einen gewaltigen Rechtsstreit über das Aufkommen von KI-Systemen zusteuern, die sich selbst in „KI-Unfälle“ verwickeln und irgendeine Form von Schaden anrichten. Bislang hat die Gesellschaft nicht nennenswert auf den legalen Pushback von KI reagiert, die absichtlich oder unabsichtlich auf den Markt geschaufelt wird und nachteilige Folgen hat. Der heutige KI-Zug, der zu einem Goldrausch unausgegorener KI-Hersteller geworden ist, und diejenigen, die den KI-Einsatz hastig umsetzen, haben gerade Glück und bleiben relativ unberührt von Zivilklagen und Strafverfolgungen.

Die KI-geschürte rechtliche Gegenreaktion wird früher oder später kommen.

Weiter, wie sollen wir versuchen, mit der Unvermeidbarkeit sogenannter KI-Unfälle fertig zu werden?

Eine Sache, die wir sofort tun können, ist zu versuchen, vorherzusehen, wie KI-Unfälle passieren könnten. Indem wir die KI-Unfälle antizipieren, können wir zumindest versuchen, Mittel zu entwickeln, um sie einzudämmen oder ihre Wahrscheinlichkeit zu minimieren. Darüber hinaus können wir versuchen, Leitplanken zu errichten, damit bei einem KI-Unfall die Wahrscheinlichkeit eines demonstrativen Schadens verringert wird.

Eine hilfreiche Reihe von Faktoren, die in dem zuvor zitierten Forschungsartikel beschrieben wurden Verstehen und Vermeiden von KI-Fehlern: Ein praktischer Leitfaden umfasst diese Eigenschaften (wie aus dem Forschungsbericht zitiert):

  • Das System, das von den Ausgängen der KI beeinflusst wird.
  • Zeitverzögerung zwischen KI-Ausgaben und dem größeren System, Beobachtbarkeit des Systems, Grad der menschlichen Aufmerksamkeit und Fähigkeit der Bediener, Fehlfunktionen der KI zu korrigieren.
  • Der maximal mögliche Schaden durch böswillige Nutzung der von der KI kontrollierten Systeme.
  • Kopplung der Komponenten in Nähe der KI und Komplexität der Interaktionen.
  • Wissenslücke über KI und andere verwendete Technologien und das Energieniveau des Systems.

An dieser Stelle dieser heftigen Diskussion würde ich wetten, dass Sie sich einige anschauliche Beispiele wünschen, die das Thema KI-Unfälle weiter verdeutlichen könnten. Es gibt eine besondere und sicherlich beliebte Reihe von Beispielen, die mir am Herzen liegen. Sie sehen, in meiner Eigenschaft als Experte für KI, einschließlich der ethischen und rechtlichen Auswirkungen, werde ich häufig gebeten, realistische Beispiele zu nennen, die Dilemmata der KI-Ethik aufzeigen, damit die etwas theoretische Natur des Themas leichter erfasst werden kann. Einer der eindrucksvollsten Bereiche, der dieses ethische KI-Problem anschaulich darstellt, ist das Aufkommen von KI-basierten, wirklich selbstfahrenden Autos. Dies dient als praktischer Anwendungsfall oder als Beispiel für eine ausführliche Diskussion zu diesem Thema.

Hier ist dann eine bemerkenswerte Frage, die es wert ist, darüber nachzudenken: Erhellt das Aufkommen von KI-basierten, wirklich selbstfahrenden Autos etwas über das Aufkommen sogenannter KI-Unfälle, und wenn ja, was zeigt dies?

Erlauben Sie mir einen Moment, um die Frage auszupacken.

Beachten Sie zunächst, dass an einem echten selbstfahrenden Auto kein menschlicher Fahrer beteiligt ist. Denken Sie daran, dass echte selbstfahrende Autos über ein KI-Fahrsystem gefahren werden. Es ist weder ein menschlicher Fahrer am Steuer erforderlich, noch ist vorgesehen, dass ein Mensch das Fahrzeug fährt. Für meine umfangreiche und laufende Berichterstattung über autonome Fahrzeuge (AVs) und insbesondere selbstfahrende Autos, siehe den Link hier.

Ich möchte weiter klären, was gemeint ist, wenn ich von echten selbstfahrenden Autos spreche.

Die Ebenen selbstfahrender Autos verstehen

Zur Verdeutlichung: Echte selbstfahrende Autos sind solche, bei denen die KI das Auto ganz alleine fährt und es während der Fahraufgabe keine menschliche Hilfe gibt.

Diese fahrerlosen Fahrzeuge gelten als Level 4 und Level 5 (siehe meine Erklärung unter Link hier), während ein Auto, bei dem ein menschlicher Fahrer den Fahraufwand mitteilen muss, normalerweise als Level 2 oder Level 3 betrachtet wird. Die Autos, die die Fahraufgabe mitteilen, werden als halbautonom beschrieben und enthalten typischerweise eine Vielzahl von automatisierte Add-Ons, die als ADAS (Advanced Driver-Assistance Systems) bezeichnet werden.

Es gibt noch kein wirklich selbstfahrendes Auto auf Level 5, und wir wissen noch nicht einmal, ob dies möglich sein wird und wie lange es dauern wird, bis es erreicht wird.

In der Zwischenzeit versuchen die Bemühungen der Stufe 4 allmählich, durch sehr enge und selektive Versuche auf öffentlichen Straßen eine gewisse Traktion zu erreichen. Es gibt jedoch Kontroversen darüber, ob diese Tests per se zulässig sein sollten (wir sind alle Meerschweinchen auf Leben und Tod in einem Experiment) Einige behaupten, dass sie auf unseren Autobahnen und Nebenstraßen stattfinden Link hier).

Da halbautonome Autos einen menschlichen Fahrer erfordern, unterscheidet sich die Einführung dieser Autotypen nicht wesentlich vom Fahren herkömmlicher Fahrzeuge. Daher gibt es an sich nicht viel Neues zu diesem Thema (wie Sie sehen werden) in einem Moment sind die nächsten Punkte allgemein anwendbar).

Für halbautonome Autos ist es wichtig, dass die Öffentlichkeit vor einem störenden Aspekt gewarnt wird, der in letzter Zeit aufgetreten ist, und zwar trotz der menschlichen Fahrer, die immer wieder Videos von sich selbst veröffentlichen, die am Steuer eines Level 2- oder Level 3-Autos einschlafen Wir alle müssen vermeiden, in die Irre geführt zu werden, dass der Fahrer seine Aufmerksamkeit von der Fahraufgabe ablenken kann, während er ein halbautonomes Auto fährt.

Sie sind die verantwortliche Partei für die Fahraktionen des Fahrzeugs, unabhängig davon, wie viel Automatisierung in ein Level 2 oder Level 3 geworfen werden könnte.

Selbstfahrende Autos und KI-Vorfälle

Bei echten selbstfahrenden Fahrzeugen der Stufen 4 und 5 ist kein menschlicher Fahrer an der Fahraufgabe beteiligt.

Alle Insassen werden Passagiere sein.

Die KI fährt.

Ein Aspekt, der sofort diskutiert werden muss, ist die Tatsache, dass die KI, die an den heutigen KI-Antriebssystemen beteiligt ist, nicht empfindungsfähig ist. Mit anderen Worten, die KI ist insgesamt ein Kollektiv computergestützter Programmierung und Algorithmen und mit Sicherheit nicht in der Lage, auf die gleiche Weise zu argumentieren, wie es Menschen können.

Warum wird dadurch zusätzlich betont, dass die KI nicht empfindungsfähig ist?

Weil ich unterstreichen möchte, dass ich bei der Erörterung der Rolle des KI-Antriebssystems der KI keine menschlichen Qualitäten zuschreibe. Bitte beachten Sie, dass es heutzutage eine anhaltende und gefährliche Tendenz gibt, die KI zu anthropomorphisieren. Im Wesentlichen weisen die Menschen der heutigen KI eine menschenähnliche Empfindung zu, trotz der unbestreitbaren und unbestreitbaren Tatsache, dass es eine solche KI noch nicht gibt.

Mit dieser Klarstellung können Sie sich vorstellen, dass das KI-Fahrsystem die Facetten des Fahrens nicht von Haus aus „kennt“. Das Fahren und alles, was dazu gehört, muss als Teil der Hardware und Software des selbstfahrenden Autos programmiert werden.

Lassen Sie uns in die Vielzahl von Aspekten eintauchen, die zu diesem Thema eine Rolle spielen.

Zunächst ist es wichtig zu erkennen, dass nicht alle KI-selbstfahrenden Autos gleich sind. Jeder Autohersteller und jedes selbstfahrende Technologieunternehmen verfolgt seinen eigenen Ansatz, um selbstfahrende Autos zu entwickeln. Daher ist es schwierig, pauschale Aussagen darüber zu treffen, was KI-Fahrsysteme tun oder nicht tun werden.

Darüber hinaus kann die Aussage, dass ein KI-Fahrsystem eine bestimmte Sache nicht macht, später von Entwicklern überholt werden, die den Computer tatsächlich so programmieren, dass sie genau das tun. Schritt für Schritt werden KI-Fahrsysteme sukzessive verbessert und erweitert. Eine heute bestehende Einschränkung ist in einer zukünftigen Iteration oder Version des Systems möglicherweise nicht mehr vorhanden.

Ich vertraue darauf, dass dies eine ausreichende Litanei von Vorbehalten bietet, um das zu untermauern, was ich erzählen werde.

Wir sind jetzt darauf vorbereitet, tief in selbstfahrende Autos und die Möglichkeiten der ethischen KI einzutauchen, die das Aufkommen sogenannter KI-Unfälle mit sich bringen.

Stellen Sie sich vor, dass ein KI-basiertes selbstfahrendes Auto auf den Straßen Ihrer Nachbarschaft unterwegs ist und sicher zu fahren scheint. Anfangs hatten Sie jedes Mal, wenn Sie einen Blick auf das selbstfahrende Auto erhaschen konnten, besondere Aufmerksamkeit gewidmet. Das autonome Fahrzeug zeichnete sich durch ein Rack mit elektronischen Sensoren aus, darunter Videokameras, Radareinheiten, LIDAR-Geräte und dergleichen. Nachdem das selbstfahrende Auto viele Wochen lang durch Ihre Gemeinde gefahren ist, bemerken Sie es kaum noch. Für Sie ist es nur ein weiteres Auto auf den ohnehin stark befahrenen öffentlichen Straßen.

Damit Sie nicht denken, dass es unmöglich oder unglaubwürdig ist, sich mit dem Anblick selbstfahrender Autos vertraut zu machen, habe ich häufig darüber geschrieben, wie sich die Lokale, die im Rahmen von Testfahrten mit selbstfahrenden Autos sind, allmählich daran gewöhnt haben, die herausgeputzten Fahrzeuge zu sehen. Viele der Einheimischen wechselten schließlich vom mundtoten, verzückten Gaffen zu einem ausschweifenden Gähnen aus Langeweile, um diese sich schlängelnden selbstfahrenden Autos zu sehen.

Wahrscheinlich ist der Hauptgrund, warum sie die autonomen Fahrzeuge im Moment bemerken, der Irritations- und Verzweiflungsfaktor. Die vorschriftsmäßigen KI-Fahrsysteme stellen sicher, dass die Autos alle Geschwindigkeitsbegrenzungen und Straßenregeln einhalten. Für hektische menschliche Fahrer in ihren traditionellen von Menschen angetriebenen Autos sind Sie manchmal verärgert, wenn Sie hinter den streng gesetzestreuen KI-basierten selbstfahrenden Autos stecken bleiben.

Das ist etwas, woran wir uns vielleicht alle gewöhnen müssen, zu Recht oder zu Unrecht.

Zurück zu unserer Geschichte.

Eines Tages gerät das selbstfahrende Auto in einen Unfall.

Beim Abbiegen nach rechts schwang das KI-Fahrsystem das autonome Fahrzeug weit aus und ein von Menschen gefahrenes Auto wurde angefahren. Das von Menschen gefahrene Auto fuhr auf der richtigen Fahrspur geradeaus weiter. Es gab keine besondere Gelegenheit für den menschlichen Fahrer, auszuweichen oder einen Zusammenstoß zu vermeiden. Darüber hinaus gab es keine Warnung oder Anzeige des selbstfahrenden Autos, dass es weitgehend rechts abbiegen würde.

Ist das ein Unfall?

Wir können sicherlich sagen, dass es in die Rubrik eines KI-Unfalls fällt. Grundlage für eine solche Behauptung ist, dass am Steuer des selbstfahrenden Autos ein KI-Fahrsystem saß. Irgendwie, aus welchen Gründen auch immer, entschied sich die KI für einen weiten Schwung, wenn sie nach rechts abbog. Das Ergebnis führte dazu, dass das selbstfahrende Auto mit einem von Menschen gefahrenen Auto zusammenstieß.

Erinnern Sie sich an die frühere Diskussion über die Konnotationen, die mit dem Wort „Unfall“ verbunden sind, und sehen Sie, wie solche Untertöne in diesem Szenario zum Tragen kommen. Denken Sie auch daran, dass wir den Fall eines menschlichen Fahrers besprochen haben, der eine weite Rechtskurve macht und in ein von einem anderen Menschen gefahrenes Auto rennt. Wir haben erkannt, dass die Vorstellung, dass diese Tat ein „Unfall“ sei, irreführend und verwirrend ist. Der menschliche Fahrer, der die weite Kurve machte, konnte sich hinter der Vorstellung verstecken, dass sich ein Unfall nur scheinbar durch Zufall oder die Launen des Schicksals ereignet hatte.

Anstatt das Szenario als „KI-Unfall“ zu bezeichnen, wenn das KI-basierte selbstfahrende Auto zu weit geht und das von Menschen gesteuerte Auto trifft, sollten wir vielleicht sagen, dass es sich um einen Autounfall oder eine Autokollision handelte, an der ein selbstfahrendes Auto beteiligt war. fahrendes Auto und ein von Menschen angetriebenes Auto. Wir können dann auf die leere Verwirrung verzichten, dass es sich um einen Unfall mit unerkennbaren Mitteln handelt.

Was glauben Sie, wie die Öffentlichkeit auf den Vorfall reagieren würde?

Nun, wenn der Autohersteller oder das selbstfahrende Technologieunternehmen bei der Kennzeichnung der Angelegenheit als Unfall bleiben kann, können sie möglicherweise die potenzielle Gegenreaktion der Community insgesamt umgehen. Ein Gefühl der Anteilnahme an Unfällen insgesamt würde sich möglicherweise auf den besonderen Umstand übertragen. Weitere Informationen darüber, wie Städte, Landkreise und Staatsoberhäupter möglicherweise auf Vorfälle mit autonomen KI-Fahrzeugen reagieren werden, finden Sie in der Diskussion einer Harvard-Studie, die ich mitleitete und die unter beschrieben wird den Link hier.

Wenn die Situation einfach als Autounfall oder Autokollision beschrieben wird, lässt dies vielleicht die Erkenntnis zu, dass vielleicht jemand oder etwas an dem Vorfall schuld ist. Eine reflexartige Reaktion könnte sein, dass die KI dafür verantwortlich gemacht werden soll. Die Sache ist die, bis oder falls wir uns jemals dafür entscheiden, der KI den Anschein einer juristischen Person zu verleihen, werden Sie nicht in der Lage sein, der KI per se die Verantwortung zuzuschieben (siehe meine Diskussion über KI und juristische Person unter den Link hier).

Wir können das KI-Fahrsystem untersuchen, um herauszufinden, was zu dem scheinbar unangemessenen Fahren und dem anschließenden Autounfall geführt hat. Das bedeutet jedoch nicht, dass die KI zur Rechenschaft gezogen wird. Zu den Verantwortlichen gehören die KI-Entwickler, der Flottenbetreiber des selbstfahrenden Autos und andere. Ich schließe auch andere ein, da die Möglichkeit besteht, dass die Stadt teilweise für die Gestaltung der Ecke verantwortlich gemacht wird, an der die Kurve stattfand. Nehmen wir außerdem an, ein Fußgänger stürmte aus der Ecke und das KI-Fahrsystem entschied sich dafür, der Person auszuweichen, und wurde dann doch in den Autounfall verwickelt.

Und so weiter.

Fazit

Wir würden gerne wissen, was die KI berechnet und wofür sie programmiert wurde. Hat die KI das gemacht, was codiert war? Möglicherweise ist die KI auf einen Fehler oder Fehler in der Programmierung gestoßen, was die Aktionen nicht entschuldigt, aber eher einen Hinweis darauf gibt, wie es zu dem Absturz kam.

Welche Art von KI-Leitplanken wurden in das KI-Fahrsystem einprogrammiert? Wenn es Leitplanken gäbe, würden wir herausfinden wollen, warum sie den Autounfall nicht zu verhindern schienen. Vielleicht hätte das KI-Fahrsystem stehen bleiben können, anstatt abzubiegen. Wir würden gerne wissen, welche Alternativen die KI im Verlauf des Vorfalls rechnerisch bewertet hat.

Abgesehen davon, dem jeweiligen Vorfall auf den Grund zu gehen, besteht eine weitere berechtigte Frage darin, ob das KI-Fahrsystem einen Fehler oder einen anderen eingebetteten Aspekt aufweist, der ähnliche Arten von nachteiligen Handlungen bewirkt. Im Wesentlichen könnte dieser Vorfall ein verräterischer Indikator dafür sein, dass noch mehr kommen werden. Wie wurden computerbasierte Simulationen von Fahrsituationen verwendet, um zu versuchen, diese Art von KI-Fahrsystemaufforderungen zu antizipieren? Gab es genügend Fahrtests auf der Straße, um die KI-Probleme aufzuspüren, die möglicherweise zu dem Autounfall geführt haben?

Dieses Szenario hebt ein umstrittenes Rätsel hervor, das mit dem Aufkommen von KI-basierten selbstfahrenden Autos konfrontiert ist.

Es geht so.

Einerseits besteht der gesellschaftliche Wunsch, selbstfahrende Autos schnell einzuführen, da man hofft, dass KI-Fahrsysteme genauso sicher oder möglicherweise sicherer sein werden als menschliche Fahrer. Allein in den Vereinigten Staaten haben wir derzeit jährlich fast 40,000 Todesfälle durch Autounfälle und etwa 2.5 Millionen Verletzungen. Analysen deuten darauf hin, dass ein beträchtlicher Teil dieser Autounfälle auf menschliches Versagen zurückzuführen ist, z. B. Fahren in betrunkenem Zustand, Fahren in Ablenkung usw den Link hier).

KI-Fahrsysteme werden nicht trinken und fahren. Sie brauchen keine Pause und ermüden sich nicht, wenn sie am Steuer sitzen. Die Annahme ist, dass wir durch die Etablierung selbstfahrender Autos als praktikables Transportmittel die Zahl der menschlichen Fahrer reduzieren können. Dies wiederum sollte bedeuten, dass wir die Anzahl der jährlichen Todesfälle und Verletzungen durch Autounfälle summarisch reduzieren werden.

Einige Experten haben gesagt, dass wir am Ende null Todesfälle und null Verletzungen haben werden und dass diese selbstfahrenden Autos angeblich unzerstörbar sein werden, aber das sind völlig absurde und völlig falsche Erwartungen. Warum das so unaufrichtig ist, habe ich erklärt den Link hier.

Gehen Sie auf jeden Fall davon aus, dass wir eine gewisse Anzahl von Autounfällen haben werden, in die selbstfahrende Autos verwickelt sind. Nehmen Sie auch an, dass diese Autounfälle eine gewisse Anzahl von Todesfällen und Verletzungen haben werden. Die Frage, die sich quält, ist, ob wir als Gesellschaft überhaupt bereit sind, solche Fälle zu tolerieren. Einige sagen, dass, wenn auch nur ein Todesfall oder eine Verletzung durch echte selbstfahrende Autos passiert, das gesamte Kit und Kaboodle geschlossen werden sollte.

Der gegensätzliche Standpunkt ist, dass wir, wenn die Zahl der geretteten Leben die jährlichen Zahlen verringert, das Aufkommen selbstfahrender Autos weiterhin fördern und nicht auf so unlogische Weise reagieren sollten. Wir müssen die Prämisse akzeptieren, dass es selbst bei selbstfahrenden Autos immer noch eine gewisse Anzahl von Todesfällen und Verletzungen geben wird, und dennoch erkennen, dass die jährliche Zahl, wenn sie sinkt, darauf hindeutet, dass wir auf dem richtigen Weg sind.

Natürlich argumentieren einige, dass wir keine selbstfahrenden Autos auf unseren öffentlichen Straßen haben sollten, bis sie entweder als Ergebnis umfangreicher und erschöpfender computerbasierter Simulationen oder durch private Tests auf geschlossenen Strecken für eine solche Nutzung freigegeben sind. Das Gegenargument ist, dass der einzig praktikable und schnellste Weg, selbstfahrende Autos zum Laufen zu bringen, die Nutzung öffentlicher Straßen ist und dass jede Verzögerung bei der Einführung selbstfahrender Autos ansonsten dazu führen wird, dass die schrecklichen Zahlen von Unfällen mit von Menschen angetriebenen Autos anhalten. Ich habe diese Debatte in meinen Kolumnen ausführlicher behandelt und fordere die Leser auf, sich diese Diskussionen anzusehen, um die Perspektiven dieser kontroversen Angelegenheit vollständig zu verstehen.

Lassen Sie uns die Dinge für jetzt abschließen.

KI-Unfälle werden passieren. Wir müssen dem Impuls widerstehen, einen KI-Unfall als scheinbar zu interpretieren zufällig und ergo die Macher und diejenigen, die KI einsetzen, fälschlicherweise kategorisch aus dem Schneider lassen.

Es gibt eine zusätzliche Wendung, die ich Ihnen als letzten faszinierenden Gedanken für Ihren Tag hinterlassen möchte.

Der Komiker Dane Cook soll diesen Witz über Autounfälle erzählt haben: „Vor ein paar Tagen hatte ich einen Autounfall. Ist nicht meine Schuld. Selbst wenn es nicht deine Schuld ist, steigt die andere Person aus ihrem Auto aus und sieht dich an, als wäre es deine Schuld: Warum hast du an einer roten Ampel angehalten und mich mit 80 angefahren!“

Wo die Wendung in den Vordergrund tritt, ist die Möglichkeit, dass ein KI-System sich dafür entscheiden könnte, darauf zu bestehen, dass die KI bei einem KI-Unfall, an dem diese bestimmte KI beteiligt ist, ankündigt, dass der Vorfall die Schuld des Menschen und sicherlich nicht die Schuld der KI war. Übrigens könnte dies vollkommen wahr sein und der Mensch könnte versuchen, die KI zum Sündenbock zu machen, indem er behauptet, dass es die Schuld der KI sei.

Oder vielleicht versucht die KI, den Menschen zum Sündenbock zu machen.

Sie sehen, die KI, die wir entwickeln, könnte auf diese Weise schwierig sein, entweder aus Versehen oder nicht.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-unevitably-of-ai-acidents-which-looms-over-autonomous-self- fahren-autos-auch/