Ethische KI hofft ehrgeizig, dass KI ethisches Verhalten von selbst lernt, wie im Fall von KI in autonomen selbstfahrenden Autos

Aristoteles hat bekanntlich gesagt, dass die Erziehung des Geistes ohne Erziehung des Herzens überhaupt keine Erziehung ist.

Man könnte diese aufschlussreiche Bemerkung so interpretieren, dass es für die Menschheit äußerst wichtig ist, etwas über Ethik und moralisches Verhalten zu lernen. In der klassischen Debatte zwischen Natur und Erziehung muss man sich fragen, wie viel von unseren ethischen Sitten instinktiv angeboren ist, während wie viel im Laufe unseres Lebens gelernt wird. Kleinkinder beobachten Mitmenschen und schöpfen ihre ethischen Grundlagen vermutlich aus dem, was sie sehen und hören. Dasselbe kann man von Teenagern sagen. Auch für aufgeschlossene Erwachsene werden sie sich durch das Erleben der Alltagswelt in ihrem ethischen Denken weiter anpassen und weiterentwickeln.

Natürlich gehört es auch dazu, jemanden explizit über Ethik zu unterrichten. Die Menschen müssen zwangsläufig etwas über ethische Wege lernen, indem sie Kurse zu diesem Thema besuchen oder vielleicht Veranstaltungen und Praktiken besuchen, die für sie von Interesse sind. Ethische Werte können eindeutig identifiziert und geteilt werden, um anderen bei der Formulierung ihrer eigenen Ethikstruktur zu helfen. Darüber hinaus kann Ethik auf subtile Weise in Geschichten oder anderen Unterrichtsmethoden verborgen sein, die letztendlich eine Botschaft darüber enthalten, woraus ethisches Verhalten besteht.

So scheinen Menschen Ethik zu durchdringen.

Was ist mit Künstlicher Intelligenz (KI)?

Mir ist klar, dass eine solche Frage seltsam erscheinen könnte. Wir erwarten sicherlich, dass die Menschen Ethik verinnerlichen und mit einem gewissen Anschein eines Moralkodex durchs Leben gehen. Es ist eine einfache und offensichtliche Tatsache. Andererseits scheint eine Maschine oder ein Computer nicht in denselben Bezugsrahmen zu passen. Ihre Bauchreaktion könnte sein, dass es weit hergeholt oder abwegig ist, KI als eine Verkörperung von Ethik und Moralkodizes zu betrachten.

Das Beste, was wir in Bezug auf KI tun können, ist, sie so zu entwickeln, dass sie nicht von ethischem Verhalten abweicht. KI-Entwickler und diejenigen, die KI einsetzen, sind dafür verantwortlich, dass die KI in ihrer Konzeption und Implementierung bereits den ethischen Grundsätzen entspricht. Aus dem Tor sollte die KI sozusagen bereits makellos und einsatzbereit als eine ethisch einwandfreie Erfindung sein.

Sie hätten sicherlich Recht, wenn Sie denken, dass KI-Systeme tatsächlich so gestaltet werden sollten, dass sie bereits vollständig in eine ethische Grundlage passen. Die Gesellschaft war ziemlich aufgeregt, als die neueste Welle von KI-Systemen zum ersten Mal veröffentlicht wurde und zu zeigen schien, dass wir uns in einer Ära von KI für immer. KI würde helfen, viele der schwierigsten Probleme der Welt zu lösen. Fortschritte in der Technologie wurden genutzt, um die menschlichen Fähigkeiten mit kognitiven Fähigkeiten zu ergänzen, aber erlauben Sie mir zu betonen, dass wir noch keine empfindungsfähige KI haben und wir nicht wissen, ob eine empfindungsfähige KI erreicht werden wird.

Das Problem mit dem Durcheinander, KI in die Welt zu bringen, hat nach und nach die hässliche Schattenseite der KI offenbart, die als bekannt ist KI für schlecht. Es gab viele Schlagzeilen über KI-Systeme, die algorithmische Entscheidungsfindung (ADM) nutzen, die voller Vorurteile und Ungerechtigkeiten ist. Darüber hinaus leidet ein Großteil der zeitgenössischen KI unter einem Mangel an Transparenz, ist in Bezug auf die Erklärung von Berechnungsentscheidungen tendenziell unerklärlich, zeigt häufig einen Mangel an Fairness und hat es einigen ermöglicht, ihre menschliche Verantwortung abzulenken, indem sie mit dem Finger auf KI zeigen.

Ich habe mich in meinen Schriften ausführlich mit ethischer KI und der Ethik der KI befasst, einschließlich den Link hier und den Link hier, nur um ein paar zu nennen.

Wie kann es sein KI für schlecht wenn wir als erklärtes Konstrukt annehmen, dass KI von Anfang an so gestaltet sein sollte, dass unethische Handlungen vermieden werden?

Die Antwort ist vielfältig.

Erstens sind viele KI-Entwickler und Unternehmen, die KI einsetzen, selbst ahnungslos, wie wichtig es ist, ihre KI so zu gestalten, dass sie innerhalb ethischer Grenzen bleibt. Das Konzept ist überhaupt nicht auf ihrem Radar. Der Reiz, schnelles Geld zu verdienen, veranlasst einige dazu, wilde KI-Ideen voranzutreiben, die sie willentlich hervorbringen wollen. Keine Notwendigkeit, irgendwelche ethischen Dinge herauszufinden. Bauen Sie einfach die KI und bringen Sie sie in Gang.

Zweitens gibt es diejenigen, die KI machen, die ein klares Bewusstsein für die ethischen Auswirkungen ausschmücken, aber sie spielen die ethischen KI-Überlegungen offen herunter oder ignorieren sie etwas. Eine gängige Sichtweise ist das klassische Mantra der Technikfreaks, schnell und oft zu scheitern. Iterieren Sie einfach weiter, bis sich die Dinge hoffentlich angemessen geregelt haben. Die Chancen, eine systematische und durchdachte Einbeziehung der KI-Ethik in diese rasanten KI-Bemühungen zu verhindern, sind bedauerlicherweise gering. Ich diskutiere die Notwendigkeit der Stärkung der Führung in Richtung ethischer KI unter den Link hier.

Drittens besteht viel Unklarheit darüber, welche ethischen Leitplanken bei der Entwicklung von KI eingehalten werden sollten. Sicher, es gibt heutzutage viele KI-Ethikrichtlinien, siehe meine Berichterstattung unter den Link hier, obwohl es schwierig ist, diese praktischen theoretischen Grundsätze unbedingt in Einzelheiten für ein bestimmtes zu bauendes KI-System umzuwandeln. Ich habe angedeutet, dass wir langsam ein Aufkommen von KI-Bauwerkzeugen und -Methoden sehen werden, die ethische KI-Codierungspraktiken beinhalten und dazu beitragen, die Lücke zwischen den abstrakten Aspekten und den sprichwörtlichen Facetten von Rubber-meets-the-Road zu schließen.

Viertens untersuchen wir gemäß der Hervorhebung hierin den betroffenen Fall von KI, die, selbst wenn sie anfänglich innerhalb ethischer Grenzen komponiert wurde, sich später während des Gebrauchs über die angenommenen ethisch kodierten Parameter hinaus schlängelt.

Das müssen wir auspacken.

Ein Großteil der heutigen KI nutzt Machine Learning (ML) und Deep Learning (DL). Dies sind computergestützte Musterabgleichtechniken und -technologien. Im Allgemeinen besteht die Idee darin, dass Sie viele relevante Daten zu dem sammeln, was die KI können soll, Sie geben diese Daten in den ausgewählten Computermusterabgleicher ein und der Musterabgleich versucht mathematisch, nützliche Muster zu finden. Beachten Sie, dass diese KI (die wiederum noch nicht existiert) keinerlei Empfindungsfähigkeit besitzt. Es gibt auch keine vernünftige Argumentation. Es ist alles Mathematik und Berechnungen.

Es könnte sein, dass die in ML/DL eingespeisten Daten bereits mit Vorurteilen und Ungleichheiten durchsetzt sind. In diesem Fall besteht die Wahrscheinlichkeit, dass der rechnerische Musterabgleich lediglich dieselben Neigungen nachahmt. Wenn Sie Daten bereitstellen, die eine Rasse gegenüber einer anderen oder ein Geschlecht gegenüber dem anderen bevorzugen, besteht eine beträchtliche Chance, dass der Musterabgleich dies als das entdeckte Muster festhält.

Ein großes Problem bei dieser Art des Speicherns besteht darin, dass wir möglicherweise Schwierigkeiten haben, herauszufinden, dass die Muster auf diesem Aspekt der Daten basieren. Die heikle und komplexe Mathematik kann das Auftauchen solcher gefundenen Muster ziemlich problematisch machen. Selbst das Testen der KI wird diese Tendenzen nicht unbedingt aufdecken, je nach Umfang und Tiefe der angewendeten Tests.

Nehmen wir also an, Sie haben ein KI-System aufgebaut und Ihre Hausaufgaben gemacht, indem Sie zunächst versuchen, die Verwendung von Daten mit bereits bestehenden Vorurteilen zu vermeiden. Als Nächstes testeten Sie nach Durchführung des maschinellen Lernens und des Deep Learning die Ergebnisse, um festzustellen, ob es irgendwie zu Vorurteilen oder Ungerechtigkeiten gekommen ist. Nehmen wir an, Sie finden keine solchen ungünstigen Neigungen.

Alles in allem gibt es jetzt grünes Licht für den Einsatz der KI. Die Menschen werden anfangen, die KI zu verwenden, und wahrscheinlich davon ausgehen, dass sie ethisch korrekt ist. Das denken auch die Entwickler. Das glaubt das Unternehmen, das die KI einsetzt. Weg gehen wir alle.

Folgendes kann passieren.

Eine Ahnung einer Verzerrung, die in den Originaldaten nicht gefunden wurde und die beim Testen der KI nicht aufgefallen ist, wird möglicherweise aktiviert. Vielleicht kommt das nur selten vor. Sie könnten glauben, dass, solange es selten ist, alles gut ist. Ich bezweifle jedoch, dass diejenigen, die für diese Voreingenommenheit anfällig sind, bereit sind, die Dinge so zu sehen. Ich wage zu sagen, dass das KI-System und diejenigen, die es formuliert haben, mit Rückschlägen konfrontiert sein werden, entweder vor Gericht oder vor dem offenen Gericht der gesellschaftlichen Meinung.

Eine andere Variation ist die sprichwörtliche Vorstellung, einen Zoll zu nehmen und eine Meile zu greifen. Die Ahnung mag zunächst winzig sein. Während der Verwendung der KI wurde die KI möglicherweise so konzipiert, dass sie sich im Laufe der Zeit ändert. Diese Art des „Lernens“ oder „Selbstlernens“ kann sehr nützlich sein. Anstatt von den Entwicklern menschlicher KI zu verlangen, dass sie das KI-System kontinuierlich modifizieren und anpassen, ist die KI dafür ausgelegt, dies selbst zu tun. Keine Verzögerungen, keine teuren Arbeitskräfte usw.

Die Kehrseite dieser praktischen Selbstanpassung ist, dass die Ahnung im Rahmen der Nutzung durch die KI immer größer werden kann. Während die Voreingenommenheit in einer engen kleinen Ecke lag, wird ihr jetzt Raum gegeben, um sich auszudehnen. Die KI hat nicht den Anschein, dass dies „falsch“ ist, und erweitert lediglich rechnerisch etwas, das zu funktionieren scheint.

Wem das die Haare zu Berge stehen lässt, muss sich für die nächste Variante hinsetzen.

Angenommen, die Voreingenommenheit war von Anfang an nicht vorhanden und wir sind der festen Überzeugung, dass die KI völlig frei von Vorurteilen ist. Wir hatten entweder Glück oder haben systematisch dafür gesorgt, dass nirgendwo in den Daten Verzerrungen waren und keine durch den rechnerischen Musterabgleich entstanden sind. Trotz dieses Aufatmens darf sich die KI während des Gebrauchs anpassen. Die Tür der Pandora wird geöffnet und die KI entscheidet sich dafür, sich rechnerisch auf Vorurteile zu konzentrieren, die bei allem, was die KI tut, gefunden werden.

Eine neu entdeckte Voreingenommenheit wird von der KI verschlungen, und niemand ist besonders klüger, dass es passiert ist. Huch, wir haben ein Monster geschaffen, einen wahren Frankenstein.

Wie kann diese Entstehung möglicherweise verhindert oder zumindest angedeutet werden?

Ein Ansatz, der an Zugkraft gewinnt, besteht darin, in die KI eine Komponente zum Sammeln von Ethik einzubauen. Die KI ist so konstruiert, dass sie ethische KI-Elemente enthält. Diese Elemente beobachten oder überwachen dann den Rest der KI, während sich die KI im Laufe der Zeit anpasst. Wenn die KI anscheinend über die programmierten ethischen Grundsätze hinausgegangen ist, versucht die ethische KI, diese Anpassungen vorzunehmen, oder warnt die Entwickler, dass etwas schief gelaufen ist.

Sie können versuchen, diese ethische KI-Überwachungskapazität zu programmieren und hoffen, dass sie sich durchsetzt, während die KI verwendet wird.

Ein weiterer etwas umstrittener Ansatz wäre die Verwendung von Machine Learning und Deep Learning, um die ethischen KI-Aspekte in das KI-System einzuarbeiten.

Sag was?

Ja, das vielleicht unorthodoxe Konzept ist, dass statt eines menschlichen Programmierers, der direkt eine Reihe von KI-Ethikregeln kodiert, die KI so geformt ist, dass sie versucht, sie stattdessen zu „lernen“. Erinnern Sie sich daran, dass ich kurz angemerkt habe, dass die Verwendung von ML/DL typischerweise darauf beruht, dass Daten in die Algorithmen eingespeist werden und ein rechnerischer Musterabgleich stattfindet. Die Millionen-Dollar-Frage ist, ob wir den gleichen Mechanismus verwenden können, um einem KI-System ethische Werte zu verleihen.

Ich nehme an, Sie könnten dies mit meiner Diskussion zu Beginn vergleichen, wie Menschen sich ethischer Prinzipien bewusst werden, aber bitte vermenschlichen Sie die heutige KI nicht als vergleichbar mit menschlichem Denken (das ist sie nicht, und ich werde diese Ermahnung in Kürze wiederholen). Die KI kann „von Haus aus“ mit ethischen KI-Vorschriften programmiert werden. Oder die KI könnte ethische KI-Grundsätze „lernen“. Sie können natürlich beides tun, was ich an anderer Stelle behandelt habe, sehen Sie den Link hier.

Nehmen Sie sich einen Moment Zeit, um über das scheinbar verblüffende Konzept nachzudenken, dass KI Ethik „lernen“ und sich daher vermutlich an ethische Verhaltensweisen halten könnte.

Wie das funktionieren kann, verdeutlichen die Forscher am Beispiel eines KI-Systems, das die Wunschtemperatur in einem Haus ermittelt: „Es hat zunächst nur eine Woche lang das Verhalten der Menschen in verschiedenen Haushalten ‚beobachtet' und Rückschlüsse auf ihre Vorlieben gezogen. Dann nutzte es einen Bewegungssensor, um festzustellen, ob jemand zu Hause war. Wenn das Haus leer war, wechselte das intelligente Thermostat in einen hohen Energiesparmodus; Wenn die Leute zu Hause waren, passte der Thermostat die Temperatur an ihre Vorlieben an. Dieses Thermostat erfüllt eindeutig die beiden Anforderungen eines Ethik-Bots, wenn auch eine sehr einfache. Es wertet die Vorlieben der Menschen aus und überführt sie in die Steuerung des Heiz- und Kühlsystems. Man kann sich fragen, was das mit gesellschaftlichen moralischen Werten zu tun hat. Dieser Thermostat ermöglicht Personen mit unterschiedlichen Werten die von ihnen bevorzugte Temperatureinstellung. Die Bewohner des Hauses müssen den Thermostat nicht jeden Tag beim Kommen und Gehen neu einstellen. Dieser einfache Ethik-Bot reduziert auch den gesamten Energie-Fußabdruck der Gemeinschaft“ (gemäß dem Artikel von Amitai Etzioni und Oren Etzioni mit dem Titel „AI Assisted Ethics“ im Band on Ethik und Informationstechnologie).

Bevor ich weiter auf die Drehungen und Wendungen einer KI eingehe, die ethisches Verhalten „lernt“, möchte ich etwas mehr über den Status der KI sagen.

KI kann aus diesen möglichen Zuständen bestehen:

1. Nicht-empfindungsfähige einfache alte KI von heute

2. Empfindungsfähige KI von menschlicher Qualität (wir haben das noch nicht)

3. Empfindungsfähige KI, die superintelligent ist (eine Strecke über #2 hinaus)

Ich werde mich auf den bestehenden Zustand konzentrieren, der eine nicht-empfindungsfähige einfache alte KI ist. Vieles, was Sie über Ethische KI lesen könnten, behandelt manchmal die empfindungsfähige KI und ist daher höchst spekulativ. Ich sage, es ist spekulativ, weil niemand dem Esel den Schwanz anheften kann, was eine empfindungsfähige KI sein wird. Noch weiter über den Bereich der empfindungsfähigen KI menschlicher Qualität hinaus ist die viel gepriesene superintelligente KI. Es gibt viele Science-Fiction-Geschichten und Bedenken darüber, wie diese KI-Varianten beschließen könnten, die Menschheit zu versklaven oder uns vielleicht alle auszulöschen. Dies wird als existenzielles Risiko von KI bezeichnet. Gelegentlich wird das Dilemma auch als katastrophales Risiko der KI bezeichnet.

Einige behaupten, dass es uns gut gehen könnte, solange wir die KI bei der nicht-empfindungsfähigen, einfachen alten KI halten, die wir heute haben. Nehmen wir an, wir können keine empfindungsfähige KI erreichen. Stellen Sie sich vor, egal wie sehr wir uns bemühen, eine empfindungsfähige KI zu entwickeln, wir scheitern dabei. Nehmen Sie auch für Diskussionszwecke an, dass empfindungsfähige KI nicht durch einen mysteriösen spontanen Prozess entsteht.

Sind wir dann nicht sicher, dass diese KI geringeren Kalibers, die die einzig mögliche Art von KI ist, zum Einsatz kommen wird?

Nicht wirklich.

So ziemlich werden wahrscheinlich die gleichen allgemeinen Probleme auftreten. Ich behaupte nicht, dass die KI ihren Weg „denkt“, uns zerstören zu wollen. Nein, die gewöhnliche nicht-empfindungsfähige KI wird lediglich in Machtpositionen versetzt, die uns in Selbstzerstörung verstricken. Zum Beispiel setzen wir nicht-empfindungsfähige KI in Massenvernichtungswaffen ein. Diese autonomen Waffen können nicht denken. Gleichzeitig wird der Mensch nicht vollständig auf dem Laufenden gehalten. Infolgedessen verursacht die KI als eine Form der autonomen Automatisierung versehentlich katastrophale Ergebnisse, entweder durch einen menschlichen Befehl oder durch einen Fehler oder Fehler oder durch implantiertes Böses tun oder durch Selbstanpassungen, die die Dinge dahin führen hässlicher Pfad usw.

Ich würde behaupten, dass das Problem der KI-Ethik für alle drei dieser von der KI vorgeschriebenen Zustände besteht, nämlich dass wir KI-ethische Probleme mit nicht-empfindungsfähiger, einfacher KI und mit empfindungsfähiger KI haben, die entweder nur auf menschlicher Ebene oder der ausgestreckten KI liegt, die reicht die gefeierte Superintelligenz-Ebene.

Angesichts dieser ernüchternden Aussage können wir sicherlich das Ausmaß und die Schwierigkeit diskutieren, die mit den ethischen Problemen auf den jeweiligen Ebenen der KI verbunden sind. Der übliche Standpunkt ist, dass die KI-ethische Zwangslage auf der Ebene der nicht-empfindungsfähigen KI weniger unüberwindbar, auf der Ebene der empfindungsfähigen, menschengleichen KI schwieriger und auf der Ebene der empfindungsfähigen superintelligenten KI ein wahrer Kopfkratzer ist.

Je besser die KI wird, desto schlimmer wird das KI-Ethikproblem.

Vielleicht ist das ein unantastbares Naturgesetz.

Um auf die heutige KI zurückzukommen: Der Versuch, KI ethische Verhaltensweisen durch modernes maschinelles Lernen und Deep Learning „lernen“ zu lassen, ist voller Bedenken und kniffliger Probleme. Angenommen, die KI schafft es nicht, die gewünschten ethischen Grundsätze zu erfassen? Wie werden wir sicher wissen, dass es dabei gescheitert ist? Werden auch andere Teile eines KI-Systems möglicherweise die gesammelten ethischen Konstrukte außer Kraft setzen? Hinzu kommt, dass, wenn die KI sich spontan anpasst, die ethischen Aspekte ausgedünnt oder versehentlich ganz überwältigt werden könnten.

Um die Sache noch schlimmer zu machen, könnte das „Lernen“ dazu führen, dass die KI auf wirklich unethischen Verhaltensweisen landet. Während wir dachten, dass wir das Richtige tun, indem wir die KI dazu anspornen, ethisch zu handeln, stellt sich heraus, dass die KI stattdessen bei den unethischen Aspekten in den Musterabgleich abgerutscht ist. Apropos Schießen auf unseren eigenen Fuß, das könnte absolut passieren.

An dieser Stelle dieser Diskussion würde ich wetten, dass Sie sich einige zusätzliche Beispiele aus der realen Welt wünschen, die hervorheben könnten, wie KI das „Lernen“ der Ethik auf die heutige KI anwenden könnte (außer dem leckeren Teaser des Thermostatbeispiels).

Ich bin froh, dass du gefragt hast.

Es gibt eine besondere und sicherlich beliebte Reihe von Beispielen, die mir am Herzen liegen. Sie sehen, in meiner Eigenschaft als Experte für KI, einschließlich der ethischen und rechtlichen Auswirkungen, werde ich häufig gebeten, realistische Beispiele zu nennen, die Dilemmata der KI-Ethik aufzeigen, damit die etwas theoretische Natur des Themas leichter erfasst werden kann. Einer der eindrucksvollsten Bereiche, der dieses ethische KI-Problem anschaulich darstellt, ist das Aufkommen von KI-basierten, wirklich selbstfahrenden Autos. Dies dient als praktischer Anwendungsfall oder als Beispiel für eine ausführliche Diskussion zu diesem Thema.

Hier ist dann eine bemerkenswerte Frage, die es wert ist, darüber nachzudenken: Erhellt das Aufkommen von KI-basierten, wirklich selbstfahrenden Autos irgendetwas darüber, dass die KI in der Lage ist, ethische KI-Grundsätze zu „lernen“, und wenn ja, was zeigt dies?

Erlauben Sie mir einen Moment, um die Frage auszupacken.

Beachten Sie zunächst, dass an einem echten selbstfahrenden Auto kein menschlicher Fahrer beteiligt ist. Denken Sie daran, dass echte selbstfahrende Autos über ein KI-Fahrsystem gefahren werden. Es ist weder ein menschlicher Fahrer am Steuer erforderlich, noch ist vorgesehen, dass ein Mensch das Fahrzeug fährt. Für meine umfangreiche und laufende Berichterstattung über autonome Fahrzeuge (AVs) und insbesondere selbstfahrende Autos, siehe den Link hier.

Ich möchte weiter klären, was gemeint ist, wenn ich von echten selbstfahrenden Autos spreche.

Die Ebenen selbstfahrender Autos verstehen

Zur Verdeutlichung sind echte selbstfahrende Autos solche, bei denen die KI das Auto ganz alleine fährt und es während der Fahraufgabe keine menschliche Hilfe gibt.

Diese fahrerlosen Fahrzeuge gelten als Level 4 und Level 5 (siehe meine Erklärung unter Link hier), während ein Auto, bei dem ein menschlicher Fahrer den Fahraufwand mitteilen muss, normalerweise als Level 2 oder Level 3 betrachtet wird. Die Autos, die die Fahraufgabe mitteilen, werden als halbautonom beschrieben und enthalten typischerweise eine Vielzahl von automatisierte Add-Ons, die als ADAS (Advanced Driver-Assistance Systems) bezeichnet werden.

Es gibt noch kein echtes selbstfahrendes Auto auf Stufe 5, von dem wir noch nicht einmal wissen, ob dies möglich sein wird und wie lange es dauern wird, bis es dort ankommt.

In der Zwischenzeit versuchen die Bemühungen der Stufe 4 allmählich, durch sehr enge und selektive Versuche auf öffentlichen Straßen eine gewisse Traktion zu erreichen. Es gibt jedoch Kontroversen darüber, ob diese Tests per se zulässig sein sollten (wir sind alle Meerschweinchen auf Leben und Tod in einem Experiment) Einige behaupten, dass sie auf unseren Autobahnen und Nebenstraßen stattfinden Link hier).

Da halbautonome Autos einen menschlichen Fahrer erfordern, unterscheidet sich die Einführung dieser Autotypen nicht wesentlich vom Fahren herkömmlicher Fahrzeuge. Daher gibt es an sich nicht viel Neues zu diesem Thema (wie Sie sehen werden) in einem Moment sind die nächsten Punkte allgemein anwendbar).

Für halbautonome Autos ist es wichtig, dass die Öffentlichkeit vor einem störenden Aspekt gewarnt wird, der in letzter Zeit aufgetreten ist, und zwar trotz der menschlichen Fahrer, die immer wieder Videos von sich selbst veröffentlichen, die am Steuer eines Level 2- oder Level 3-Autos einschlafen Wir alle müssen vermeiden, in die Irre geführt zu werden, dass der Fahrer seine Aufmerksamkeit von der Fahraufgabe ablenken kann, während er ein halbautonomes Auto fährt.

Sie sind die verantwortliche Partei für die Fahraktionen des Fahrzeugs, unabhängig davon, wie viel Automatisierung in ein Level 2 oder Level 3 geworfen werden könnte.

Selbstfahrende Autos und ethische KI-Impfung

Bei echten selbstfahrenden Fahrzeugen der Stufen 4 und 5 ist kein menschlicher Fahrer an der Fahraufgabe beteiligt.

Alle Insassen werden Passagiere sein.

Die KI fährt.

Ein Aspekt, der sofort diskutiert werden muss, ist die Tatsache, dass die KI, die an den heutigen KI-Antriebssystemen beteiligt ist, nicht empfindungsfähig ist. Mit anderen Worten, die KI ist insgesamt ein Kollektiv computergestützter Programmierung und Algorithmen und mit Sicherheit nicht in der Lage, auf die gleiche Weise zu argumentieren, wie es Menschen können.

Warum wird dadurch zusätzlich betont, dass die KI nicht empfindungsfähig ist?

Weil ich unterstreichen möchte, dass ich bei der Erörterung der Rolle des KI-Antriebssystems der KI keine menschlichen Qualitäten zuschreibe. Bitte beachten Sie, dass es heutzutage eine anhaltende und gefährliche Tendenz gibt, die KI zu anthropomorphisieren. Im Wesentlichen weisen die Menschen der heutigen KI eine menschenähnliche Empfindung zu, trotz der unbestreitbaren und unbestreitbaren Tatsache, dass es eine solche KI noch nicht gibt.

Mit dieser Klarstellung können Sie sich vorstellen, dass das KI-Fahrsystem die Facetten des Fahrens nicht von Haus aus „kennt“. Das Fahren und alles, was dazu gehört, muss als Teil der Hardware und Software des selbstfahrenden Autos programmiert werden.

Lassen Sie uns in die Vielzahl von Aspekten eintauchen, die zu diesem Thema eine Rolle spielen.

Zunächst ist es wichtig zu erkennen, dass nicht alle KI-selbstfahrenden Autos gleich sind. Jeder Autohersteller und jedes selbstfahrende Technologieunternehmen verfolgt seinen eigenen Ansatz, um selbstfahrende Autos zu entwickeln. Daher ist es schwierig, pauschale Aussagen darüber zu treffen, was KI-Fahrsysteme tun oder nicht tun werden.

Darüber hinaus kann die Aussage, dass ein KI-Fahrsystem eine bestimmte Sache nicht macht, später von Entwicklern überholt werden, die den Computer tatsächlich so programmieren, dass sie genau das tun. Schritt für Schritt werden KI-Fahrsysteme sukzessive verbessert und erweitert. Eine heute bestehende Einschränkung ist in einer zukünftigen Iteration oder Version des Systems möglicherweise nicht mehr vorhanden.

Ich vertraue darauf, dass dies eine ausreichende Litanei von Vorbehalten bietet, um das zu untermauern, was ich erzählen werde.

Wir sind jetzt darauf vorbereitet, tief in die Möglichkeiten selbstfahrender Autos und ethischer KI einzutauchen, was zu der überraschenden Behauptung führt, dass wir KI dazu bringen können, ethisches Verhalten selbst zu „lernen“.

Lassen Sie uns ein einfaches Beispiel verwenden. Ein KI-basiertes selbstfahrendes Auto ist auf den Straßen Ihrer Nachbarschaft unterwegs und scheint sicher zu fahren. Anfangs hatten Sie jedes Mal, wenn Sie einen Blick auf das selbstfahrende Auto erhaschen konnten, besondere Aufmerksamkeit gewidmet. Das autonome Fahrzeug zeichnete sich durch ein Rack mit elektronischen Sensoren aus, darunter Videokameras, Radareinheiten, LIDAR-Geräte und dergleichen. Nachdem das selbstfahrende Auto viele Wochen lang durch Ihre Gemeinde gefahren ist, bemerken Sie es kaum noch. Für Sie ist es nur ein weiteres Auto auf den ohnehin stark befahrenen öffentlichen Straßen.

Damit Sie nicht denken, dass es unmöglich oder unplausibel ist, sich mit dem Anblick von selbstfahrenden Autos vertraut zu machen, habe ich häufig darüber geschrieben, wie sich die Lokale, die im Rahmen von Testfahrten mit selbstfahrenden Autos sind, allmählich daran gewöhnt haben, die herausgeputzten Fahrzeuge zu sehen. Siehe meine Analyse unter Link hier. Viele der Einheimischen wechselten schließlich vom mundtoten, verzückten Gaffen zu einem ausladenden Gähnen der Langeweile, um diese sich schlängelnden selbstfahrenden Autos zu sehen.

Wahrscheinlich ist der Hauptgrund, warum sie die autonomen Fahrzeuge im Moment bemerken, der Irritations- und Verzweiflungsfaktor. Die vorschriftsmäßigen KI-Fahrsysteme stellen sicher, dass die Autos alle Geschwindigkeitsbegrenzungen und Straßenregeln einhalten. Für hektische menschliche Fahrer in ihren traditionellen von Menschen angetriebenen Autos sind Sie manchmal verärgert, wenn Sie hinter den streng gesetzestreuen KI-basierten selbstfahrenden Autos stecken bleiben.

Das ist etwas, woran wir uns vielleicht alle gewöhnen müssen, zu Recht oder zu Unrecht.

Zurück zu unserer Geschichte. Stellen Sie sich eines Tages vor, ein selbstfahrendes Auto in Ihrer Stadt fährt entlang und gerät in eine Situation, in der ein Fußgänger darauf wartet, die Straße zu überqueren. Nehmen Sie an, dass der Fußgänger nicht per se Vorfahrt hat. Ein menschlich gesteuertes Auto könnte an dem Fußgänger vorbeifahren und dies völlig legal tun. Ebenso ist das KI-Fahrsystem legal in der Lage, am wartenden Fußgänger vorbeizufahren.

Die Entscheidung, ob er anhält und den Fußgänger über die Straße gehen lässt, liegt im Ermessen des Fahrers, unabhängig davon, ob er ein menschlicher Fahrer oder ein KI-Fahrsystem ist.

Ich bin sicher, dass Sie diese Art von Situation unzählige Male erlebt haben. Vielleicht haben Sie es eilig, also halten Sie nicht an, um den Fußgänger überqueren zu lassen. Bei einer anderen Gelegenheit haben Sie genügend Zeit, um an Ihr Ziel zu gelangen, also entscheiden Sie sich dafür, anzuhalten und der wartenden Person zu erlauben, über die Straße zu gehen. Ihre Stimmung und die besonderen Umstände bestimmen, wofür Sie sich entscheiden.

Nichts an diesem Szenario erscheint ungewöhnlich oder ärgerlich.

Bevor ich die KI-Seite der Dinge untersuche, interessiert es Sie vielleicht, dass dieser besondere Aspekt der Diskretion, einem Fußgänger das Überqueren einer Straße zu erlauben, genau untersucht wurde. Forscher haben festgestellt, dass die vom Fahrer getroffene Wahl manchmal offensichtlich von rassischen oder geschlechtsspezifischen Vorurteilen abhängen kann. Ein menschlicher Fahrer könnte den wartenden Fußgänger einschätzen und sich dafür entscheiden, der Person das Überqueren zu erlauben, scheinbar basierend auf den inhärenten Vorurteilen des Fahrers. Ob der Fahrer dies überhaupt merkt, ist Gegenstand laufender Forschung. Siehe meine Berichterstattung unter Link hier.

Ich habe die Voraussetzungen dafür geschaffen, dass wir untersuchen, was ein KI-Fahrsystem in der Fußgängerüberwegsituation tun könnte.

Die herkömmliche Programmierung der KI könnte dazu führen, dass die KI-Entwickler entscheiden, das KI-Fahrsystem immer anhalten zu lassen und den Fußgänger überqueren zu lassen. Dies scheint die ethisch richtige oder höfliche Vorgehensweise zu sein. Das selbstfahrende Auto weicht dem wartenden Menschen aus, der die Straße überqueren möchte.

Ich wage zu sagen, wenn Sie ein Passagier in einem selbstfahrenden Auto wären und die KI immer für alle willkürlich wartenden Fußgänger anhalten würde, könnten Sie verrückt werden. Ihre schnelle Fahrt zum Lebensmittelgeschäft kann um ein Vielfaches länger dauern. Denken Sie auch daran, dass wir uns nicht auf Fußgänger beziehen, die das fromme gesetzliche Vorfahrtsrecht zum Überqueren haben, da in diesen Fällen die KI vermutlich bereits so programmiert wäre, dass sie dies immer zulässt. Wir konzentrieren uns nur auf die diskretionären Umstände.

Es gibt noch weitere Nachteile dieser Erklärung, immer anzuhalten, um willkürliche Fußgänger die Straße überqueren zu lassen.

Diejenigen, die KI-basierte selbstfahrende Autos herstellen und einsetzen, möchten, dass Menschen in ihnen fahren. Die Idee ist, dass wir durch selbstfahrende Autos die Zahl der jährlichen Autounfälle reduzieren könnten, die derzeit allein in den Vereinigten Staaten jährlich etwa 40,000 Todesfälle und 2.5 Millionen Verletzungen verursachen, siehe meine Statistiksammlung unter Link hier. Neben diesem verehrten gesellschaftlichen Ziel hoffen die Autohersteller und selbstfahrenden Technologiehersteller natürlich auch, mit ihren KI-Kreationen Geld zu verdienen.

Ich spreche das an, weil die Leute sich entscheiden könnten, nicht in selbstfahrenden Autos zu fahren, wenn das KI-Fahrsystem solche Dinge tut unnötigerweise am Ende Fahrten verzögern. Jeder normale Mensch würde argumentieren, dass die Fahrt stattdessen schneller sein könnte, wenn er sich für einen menschlichen Fahrer entscheidet, und ergo könnte die Auswahl eines selbstfahrenden KI-Autos für eine Reise sehr weit unten auf der Liste seiner Entscheidungen stehen. Dies wiederum würde bedeuten, dass wir nicht die angestrebte Reduzierung von Autounfällen hätten und dass die Hersteller ihre Waren möglicherweise als unrentabel empfinden würden.

Angesichts dieser Argumente könnten Sie zu der Annahme verleitet werden, dass die KI niemals anhalten sollte, wenn ein zufälliger Fall eines Fußgängers auftritt, der die Straße überqueren möchte. Programmieren Sie einfach das KI-Fahrsystem so, dass es das tut, was streng legal ist. Wenn es keine gesetzliche Verpflichtung gibt, einen Fußgänger überqueren zu lassen, dann hat der wartende Fußgänger Pech. Vielleicht sollte sich die Person auf den Weg zu einem Übergangspunkt machen, der eine Rechtsgrundlage für das Anhalten des selbstfahrenden Autos durch die KI zulässt.

Können Sie sich den Aufschrei darüber vorstellen?

Die Menschen in Ihrer Stadt entdecken nach und nach, dass selbstfahrende KI-Autos niemals einem willkürlichen Fußgänger das Überqueren erlauben. Diese verdammte jähzornige KI! Es ist, als würde die KI den Menschen die Nase rümpfen. Ein ungezogenes Gör von einem Stück nicht brauchbarer Automatisierung. Um das Ganze abzurunden, stellen Sie sich vor, dass es dokumentierte Umstände von Fußgängern gibt, die dringend überqueren müssen, und die KI würde überhaupt nicht anhalten.

In der Zwischenzeit hielten menschliche Fahrer bereitwillig an, um diese „verzweifelten“ Menschen sicher über die Straße zu bringen.

Infolge dieser Empörung sind selbstfahrende KI-Autos auf den Straßen und Nebenstraßen Ihres Ortes nicht mehr willkommen. Genehmigungen, die von der Stadtverwaltung ausgestellt wurden, werden widerrufen. Die undankbaren Bestien von unseren Straßen zu holen, ist der lautstarke Lärm.

Okay, wir scheinen zwischen einem Felsen und einem harten Ort zu sein. Die KI sollte den willkürlichen Fußgänger nicht immer überqueren lassen (nicht immer anhalten). Die KI sollte einen freiwilligen Fußgänger nicht immer am Überqueren hindern (nicht immer vorbeizoomen). Was ist zu tun?

Die offensichtliche Antwort wäre, die KI so zu programmieren, dass sie nach eigenem Ermessen handelt.

Ich bitte Sie, über das ADM (algorithmische Entscheidungsfindung) nachzudenken, aus dem dies bestehen sollte. Wird die KI versuchen, die Art des Fußgängers zu erkennen und anhand der erkannten Merkmale zu entscheiden, ob das selbstfahrende Auto angehalten werden soll oder nicht? Vielleicht ist jemand, der älter aussieht, der Weg zu wählen. Aber ist das Altersdiskriminierung im Entstehen? Und so weiter.

Vielleicht ist das KI-Fahrsystem so programmiert, dass es tagsüber stoppt und niemals nachts stoppt. Die Logik ist möglicherweise, dass es für die Fahrer im selbstfahrenden Auto als sicherer angesehen wird, wenn das autonome Fahrzeug tagsüber zum Stehen kommt, aber nicht in den unsichereren Stunden der Abendzeit.

Das klingt vielleicht sinnvoll. Ein Teil des Problems werden die Erwartungen der Fußgänger sein. Hier ist, was ich meine. Fußgänger sehen, wie die selbstfahrenden KI-Autos an willkürlichen Kreuzungen anhalten, die bei Tageslicht stattfinden. Die Fußgänger wissen nicht, nach welchen Kriterien die KI entscheidet, anzuhalten. Die Annahme einiger Fußgänger ist, dass die KI immer anhalten wird (ohne zu erkennen, dass Tageslicht und Nacht der wahre Faktor sind). Infolgedessen werden diejenigen Fußgänger, die glauben, dass das selbstfahrende Auto immer anhalten wird, ein Risiko eingehen und anfangen zu überqueren, wenn das KI-Fahrsystem überhaupt nicht darauf abzielt, anzuhalten (was die KI wahrscheinlich anhalten würde, wenn der Fußgänger betritt die Straße, obwohl dies heikel sein könnte und die Physik die KI daran hindern könnte, das selbstfahrende Auto anzuhalten, wenn nicht genügend Zeit vorhanden ist, um den scheinbar „irrenden“ Fußgänger nicht zu treffen).

Nehmen Sie an, dass die KI-Entwickler und die Firmen, die die selbstfahrenden Autos in Ihrer Stadt zusammenstellen und einsetzen, sich nicht sicher sind, wie sie die KI in dieser Angelegenheit auf den neuesten Stand bringen können.

Sie beschließen, die KI mit Daten zu „trainieren“, die im gesamten Gebietsschema gesammelt wurden. Es stellt sich heraus, dass es viele in der Stadt montierte Kameras gibt, die das Kommen und Gehen von Autos im gesamten Township erfasst haben. Diese Daten zeigen viele Fälle von Fußgängern, die die Straße willkürlich überqueren möchten. Alle Daten werden in ein Machine Learning- und Deep Learning-System eingespeist, um abzuleiten, was in dieser Gerichtsbarkeit als üblich gilt.

Trainieren wir die KI, das zu tun, was die lokalen ethischen Sitten vorgeben?

Mit anderen Worten, wenn eine bestimmte Stadt eine lokale Kultur hätte, die dazu neigt, anzuhalten und willkürliche Fußgänger überqueren zu lassen, wie durch menschliche Fahreraktionen belegt, würde das ML/DL möglicherweise rechnerisch dieses Muster aufgreifen. Die KI würde dann darauf trainiert, dasselbe zu tun. Auf der anderen Seite, wenn die menschlichen Fahrer selten anhalten, würde die KI diese „Lektion“ möglicherweise aus der rechnerischen Analyse der Daten ziehen. Die KI wird das tun, was Menschen tun, in gewisser Weise.

Die Behauptung ist, dass die ethischen Verhaltensweisen von Menschen in den Daten erfasst werden und dass die KI dieselben ethischen Grundsätze durch Computeranalyse durchdringen wird. Ein Ethiker würde dies im Allgemeinen als einen gemeinschaftlichen Ansatz zur Ethik beschreiben. Die gemeinsamen Werte der Gemeinschaft spiegeln sich in den Bemühungen der Gemeinschaft insgesamt wider.

Dies mag wie eine Dandy-Lösung erscheinen.

Leider gibt es viele Fallstricke.

Ein vielleicht offensichtliches Problem besteht darin, dass die menschlichen Fahrer möglicherweise bereits eine Form von Voreingenommenheit ausüben, wenn sie entscheiden, ob sie anhalten oder nicht anhalten (wie bereits erwähnt). Die KI wird dann ein Nachahmer dieser Vorurteile sein. Wollen wir das so?

Betrachten Sie ein anderes Problem. Angenommen, menschliche Fahrer akzeptieren nicht ohne weiteres, wie die selbstfahrenden KI-Autos funktionieren. Nur weil menschliche Fahrer, sagen wir mal, bereit waren, anzuhalten, kann dies bei selbstfahrenden Autos nicht gleichermaßen angenommen werden. Es könnte sein, dass menschliche Fahrer sich über die selbstfahrenden KI-Autos ärgern, die immer wieder für zufällige Fußgänger anhalten, obwohl dasselbe durch die Hände menschlicher Fahrer passiert, aber das scheint menschliche Fahrer nicht zu stören.

Abgesehen davon, dass es störend ist, können Sie auch die Möglichkeit heraufbeschwören, dass menschliche Fahrer versehentlich selbstfahrende Autos auffahren. Wenn ein menschlicher Fahrer nicht erwartet hat, dass das selbstfahrende Auto für einen Fußgänger anhält, und wenn sich das von Menschen gefahrene Auto direkt hinter dem selbstfahrenden Auto befindet, kann ein schwerwiegendes Missverhältnis der Erwartungen entstehen. Das KI-Fahrsystem bringt das selbstfahrende Auto zum Stehen. Der menschliche Fahrer hat mit dieser Aktion nicht gerechnet. Der menschliche Fahrer knallt in das selbstfahrende Auto. Es kommt zu Verletzungen und möglicherweise Todesfällen.

Ich habe absichtlich auf die Möglichkeit menschlichen Schadens hingewiesen.

Der Fußgänger, der die Straße überquert, mag auf den ersten Blick als triviale Frage erscheinen. Es scheint, dass niemand verletzt werden kann, egal welche Methode die KI wählt, um anzuhalten oder nicht anzuhalten. Falsch! Es besteht die Gefahr, dass der Fußgänger überfahren wird. Es besteht die Möglichkeit, dass ein von Menschen angetriebenes Auto in das selbstfahrende Auto rammt. Der Fahrer und die Passagiere des von Menschen angetriebenen Autos können verletzt werden. Die Fahrer im selbstfahrenden Auto können verletzt werden. Zusätzliche Permutationen möglicher menschlicher Schäden sind leicht vorstellbar.

Fazit

Apropos menschlicher Schaden, ich gebe Ihnen noch etwas, um Ihre Gedanken über dieses ethische KI-Rätsel in Aufruhr zu versetzen.

Eine Nachricht berichtete, dass ein Mann mit einem Auto auf eine Kreuzung fuhr und dafür grünes Licht hatte. Ein anderes von Menschen gefahrenes Auto entschied sich dafür, die rote Ampel der Kreuzung zu überfahren und fuhr illegal und unsicher ungehindert auf die Kreuzung und drohte, das legal fahrende Auto zu treffen.

Der Fahrer sagte Reportern, dass er wählen müsse, ob er den Treffer hinnehmen oder sein Auto wenden könne, um hoffentlich nicht angefahren zu werden, aber es seien Fußgänger in der Nähe und das Wenden könne diese Menschen gefährden. Was würdest du tun? Sie können sich dafür entscheiden, von diesem drohenden Auto angefahren zu werden und vielleicht leben, um die Geschichte zu erzählen. Oder Sie können versuchen zu vermeiden, getroffen zu werden, während Sie möglicherweise unschuldige Fußgänger überfahren.

Bei einem Großteil unseres täglichen Fahrens müssen solche ethisch enormen und sofortigen Entscheidungen getroffen werden. Ich habe dies ausführlich besprochen, zusammen mit dem Bezug dieser Fahrentscheidungen auf Leben und Tod auf das berühmte oder manche sagen berüchtigte Trolley-Problem, siehe meine Ausarbeitung unter den Link hier.

Ersetzen Sie in diesem Szenario den menschlichen Fahrer durch ein KI-Fahrsystem.

Was soll die KI tun?

Das ist eine verwirrende Frage.

Ein Ansatz besteht darin, die KI so zu programmieren, dass sie strikt geradeaus fährt und somit andere Optionen wie das Ausweichen von dem wahrscheinlichen Unfall nicht einmal rechnerisch in Betracht zieht. Ich gehe davon aus, dass Fahrer in selbstfahrenden Autos verärgert sein werden, wenn sie herausfinden, dass die KI nicht dazu entwickelt wurde, etwas anderes zu tun, als den Treffer einzustecken. Sie können Klagen und einen Aufruhr erwarten.

Ein anderer Ansatz wäre, die KI so zu programmieren, dass sie die verschiedenen Möglichkeiten berücksichtigt. Wer aber kann das ADM etablieren, das entscheidet, in welche Richtung das KI-Fahrsystem gehen würde? Es scheint, dass es mit reichlich Bedenken verbunden ist, KI-Entwicklern zu erlauben, solche schwerwiegenden Entscheidungen selbst zu treffen.

Sie könnten versuchen, die KI aus den in alltäglichen Verkehrssituationen gesammelten menschlichen Fahrdaten „lernen“ zu lassen. Dies ähnelt dem Fußgängerüberweg-Dilemma und der früher vorgeschlagenen Idee, gesammelte Daten zu verwenden, um die KI zu sammeln, was auch immer die lokalen ethischen Sitten zu sein scheinen. Dazu gibt es viele Vorbehalte, z. B. ob die von ML/DL entdeckten Muster geeignet sind oder nicht usw.

Ich hatte auch vorgewarnt, dass die KI möglicherweise unethisches Verhalten aufspüren könnte, abhängig von den beteiligten ethischen Sitten. Angenommen, die KI landete irgendwie auf einem Rechenmuster, um immer dann auf die Fußgänger zu zielen, wenn ein anderes Auto drohte, das selbstfahrende Auto zu treffen.

Pass auf, Fußgänger, du wirst fertige Ziele sein.

Zeit, die Diskussion vorerst zu beenden und dies mit einem ermutigenden Schlussgedanken.

Sie wissen vielleicht, dass Isaac Asimov 1950 seine „Drei Gesetze der Robotik“ vorschlug, und wir sind bis heute von diesen proklamierten Regeln begeistert. Obwohl die Regeln leicht einzuhalten zu sein scheinen, wie zum Beispiel, dass ein KI-System oder Roboter einem Menschen keinen Schaden zufügen und nicht zulassen darf, dass ein Mensch Schaden erleidet, gibt es viele entscheidende Nuancen, die dies komplex und manchmal unhaltbar machen, siehe meine Analyse bei den Link hier.

Auf jeden Fall ist hier noch etwas, wofür Asimov auch bekannt ist, wenn auch weniger: „Lass niemals deinen Sinn für Moral davon abhalten, das Richtige zu tun.“

Für die ethische KI, die wir alle zu entwickeln hoffen, müssen wir bedenken, dass die von der KI durchdrungene Ethik möglicherweise nicht das ist, was wir erwartet haben, und dass die KI irgendwie immer noch das Richtige tun muss. Asimov hat es gut gesagt. Schon lange zuvor schien Aristoteles ganz ähnliche Gefühle zu haben.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- der-fall-mit-KI-in-autonomen-selbstfahrenden-autos/