KI-Ethik und KI-Gesetz klären, was tatsächlich vertrauenswürdige KI ist

Vertrauen ist alles, heißt es.

Der bekannte Philosoph Laotse sagte, dass denen, die nicht genug vertrauen, nicht vertraut wird. Ernest Hemingway, ein angesehener Schriftsteller, sagte, dass der beste Weg, um herauszufinden, ob man jemandem vertrauen kann, darin besteht, ihm zu vertrauen.

Inzwischen scheint es, dass Vertrauen sowohl kostbar als auch brüchig ist. Das Vertrauen, das man hat, kann wie ein Kartenhaus zusammenbrechen oder plötzlich platzen wie ein geplatzter Ballon.

Der antike griechische Tragiker Sophokles behauptete, dass Vertrauen stirbt, aber Misstrauen aufblüht. Der französische Philosoph und Mathematiker Descartes behauptete, es sei klug, denen, die uns auch nur einmal getäuscht haben, niemals ganz zu vertrauen. Der milliardenschwere Geschäftsinvestor Warren Buffett ermahnte, dass es zwanzig Jahre dauert, um einen vertrauenswürdigen Ruf aufzubauen, und fünf Minuten, um ihn zu ruinieren.

Sie werden vielleicht überrascht sein zu wissen, dass all diese unterschiedlichen Ansichten und provokanten Meinungen zum Thema Vertrauen entscheidend für das Aufkommen der künstlichen Intelligenz (KI) sind.

Ja, es gibt etwas, das scharf bezeichnet wird vertrauenswürdige KI das bekommt heutzutage verdammt viel Aufmerksamkeit, einschließlich händeringender Pfiffe aus dem Bereich der KI und auch ausgelassene Ausbrüche von denen außerhalb des KI-Bereichs. Die allgemeine Vorstellung beinhaltet, ob die Gesellschaft bereit sein wird, auf KI-Systeme zu vertrauen oder nicht.

Wenn die Gesellschaft KI nicht vertrauen will oder kann, stehen die Chancen gut, dass KI-Systeme nicht an Boden gewinnen. KI, wie wir sie derzeit kennen, wird beiseite geschoben und verstaubt. Schockierenderweise könnte KI auf dem Müllhaufen landen und historisch zu nichts anderem als einem verzweifelt versuchten, aber spektakulär gescheiterten Hightech-Experiment degradiert werden. Alle Bemühungen, die KI wiederzubeleben, würden möglicherweise einem gewaltigen harten Kampf gegenüberstehen und durch alle möglichen Einwände und offenen Proteste gestoppt werden. Angeblich aufgrund mangelnden Vertrauens in KI.

Was soll es sein, sollen wir der KI vertrauen oder sollen wir der KI nicht vertrauen?

Werden wir im Wesentlichen wirklich vertrauenswürdige KI haben?

Das sind ehemalige und ungelöste Fragen. Packen wir es aus.

KI-Ethik und der Kampf um vertrauenswürdige KI

Viele innerhalb der KI glauben, dass die Entwickler von KI-Systemen Vertrauen in die KI gewinnen können, indem sie eine vertrauenswürdige KI angemessen entwickeln. Das Wesentliche ist, dass Sie nicht hoffen können, Vertrauen zu gewinnen, wenn die KI von Anfang an nicht vertrauenswürdig erscheint. Durch die Gestaltung von KI-Systemen auf eine Weise, die als vertrauenswürdig wahrgenommen wird, besteht eine gute Chance, dass die Menschen KI akzeptieren und KI-Anwendungen übernehmen.

Ein Bedenken, das bereits an dieser vertrauenswürdigen KI-Überlegung nörgelt, ist, dass wir uns möglicherweise bereits in einem befinden öffentliches Vertrauensdefizit wenn es um KI geht. Man könnte sagen, dass die KI, die wir bereits gesehen haben, ein Loch gegraben und das Vertrauen in großen Mengen zerstört hat. Anstatt also auf einer ausreichenden Basis der Vertrauenswürdigkeit zu beginnen, muss die KI erstaunlicherweise aus dem Defizit herausklettern und nach jedem gewünschten Quäntchen zusätzlichen Vertrauens greifen, das benötigt wird, um die Menschen davon zu überzeugen, dass KI tatsächlich vertrauenswürdig ist.

In diese Herausforderung kommen KI-Ethik und KI-Recht.

KI-Ethik und KI-Gesetz kämpfen mächtig damit, herauszufinden, was nötig ist, um KI vertrauenswürdig zu machen. Einige vermuten, dass es eine Formel oder eiserne Gesetze gibt, die KI in den vertrauenswürdigen Himmel bringen werden. Andere weisen darauf hin, dass es harter Arbeit und der konsequenten und unerbittlichen Einhaltung der Grundsätze der KI-Ethik und des KI-Rechts bedarf, um das gerühmte Vertrauen der Gesellschaft zu erlangen.

Das aktuelle Rätsel um das Vertrauen in KI ist per se nicht besonders neu.

Man kann problemlos bis in die späten 1990er-Jahre zurückgehen und die damals aufkommende Sehnsucht nach „Trusted Computing“ nachvollziehen. Dies war eine groß angelegte Anstrengung der Technologieindustrie, um herauszufinden, ob Computer insgesamt auf eine Weise hergestellt werden können, die von der Gesellschaft als vertrauenswürdig angesehen wird.

Leitfragen bestanden aus:

  • Konnte Computerhardware so hergestellt werden, dass sie vertrauenswürdig war?
  • Konnte Software so gestaltet werden, dass sie vertrauenswürdig war?
  • Könnten wir global vernetzte Computer einrichten, die vertrauenswürdig wären?
  • Und so weiter.

Die damals vorherrschende Meinung, die bis heute andauert, ist, dass vertrauenswürdiges Computing eine Art heiliger Gral bleibt, der leider immer noch nicht ganz in unserer Reichweite ist (wie in einem Artikel mit dem Titel „Trustworthy AI“ in the Mitteilungen der ACM). Man könnte überzeugend argumentieren, dass KI eine weitere Komponente der Computing-Vertrauenswürdigkeitsumhüllung ist, aber KI macht das Streben nach Vertrauen noch herausfordernder und unsicherer. KI ist zum potenziellen Spoiler im Kampf um vertrauenswürdiges Computing geworden. Möglicherweise das schwächste Glied in der Kette, sozusagen.

Werfen wir einen kurzen Blick darauf, warum die KI unsere Hautschuppen darüber aufgerüttelt hat, dass sie weniger als vertrauenswürdig ist. Darüber hinaus werden wir die Grundsätze der KI-Ethik untersuchen, von denen wir hoffen, dass sie dazu beitragen werden, das bereits halb unter Wasser wahrgenommene Vertrauen (oder sprudelnde Misstrauen) der heutigen KI zu stärken. Für meine fortlaufende und ausführliche Berichterstattung über KI-Ethik siehe den Link hier und den Link hier, nur um ein paar zu nennen.

Ein bestimmtes Segment oder Teil der KI-Ethik, das in den Medien viel Aufmerksamkeit erregt hat, besteht aus KI, die ungünstige Vorurteile und Ungerechtigkeiten aufweist. Sie wissen vielleicht, dass es zu Beginn der jüngsten Ära der KI einen riesigen Ausbruch von Enthusiasmus für das gab, was manche heute nennen KI für immer. Unglücklicherweise begannen wir nach dieser sprudelnden Aufregung, Zeuge zu werden KI für schlecht. Beispielsweise wurde festgestellt, dass verschiedene KI-basierte Gesichtserkennungssysteme rassistische Vorurteile und geschlechtsspezifische Vorurteile enthalten, die ich unter besprochen habe den Link hier.

Bemühungen, sich dagegen zu wehren KI für schlecht sind aktiv unterwegs. Außer lautstark legal Neben dem Streben, das Fehlverhalten einzudämmen, gibt es auch einen substanziellen Drang, die KI-Ethik anzunehmen, um die KI-Abscheulichkeit zu korrigieren. Die Vorstellung ist, dass wir wichtige ethische KI-Prinzipien für die Entwicklung und den Einsatz von KI annehmen und unterstützen sollten, um dies zu unterbieten KI für schlecht und gleichzeitig das Vorzuziehende ankündigen und fördern KI für immer.

In einem ähnlichen Zusammenhang bin ich ein Befürworter des Versuchs, KI als Teil der Lösung von KI-Problemen einzusetzen und Feuer mit Feuer in dieser Denkweise zu bekämpfen. Wir könnten zum Beispiel ethische KI-Komponenten in ein KI-System einbetten, das überwacht, wie der Rest der KI Dinge tut, und so potenziell diskriminierende Bemühungen in Echtzeit erkennen, siehe meine Diskussion unter den Link hier. Wir könnten auch ein separates KI-System haben, das als eine Art KI-Ethikmonitor fungiert. Das KI-System dient als Aufseher, um zu verfolgen und zu erkennen, wann eine andere KI in den unethischen Abgrund geht (siehe meine Analyse solcher Fähigkeiten unter den Link hier).

Ich werde Ihnen gleich einige übergreifende Prinzipien vorstellen, die der KI-Ethik zugrunde liegen. Hier und da schwirren viele solcher Listen herum. Man könnte sagen, dass es noch keine einzige Liste universeller Anziehungskraft und Übereinstimmung gibt. Das ist die traurige Nachricht. Die gute Nachricht ist, dass es zumindest leicht verfügbare KI-Ethik-Listen gibt, und sie neigen dazu, ziemlich ähnlich zu sein. Alles in allem deutet dies darauf hin, dass wir durch eine Art vernünftiger Konvergenz unseren Weg zu einer allgemeinen Gemeinsamkeit dessen finden, woraus KI-Ethik besteht.

Lassen Sie uns zunächst kurz einige der allgemeinen ethischen KI-Vorschriften behandeln, um zu veranschaulichen, was für jeden, der KI herstellt, einsetzt oder verwendet, eine wichtige Überlegung sein sollte.

Zum Beispiel, wie vom Vatikan in der angegeben Rom fordert KI-Ethik und wie ich ausführlich unter behandelt habe den Link hier, dies sind ihre identifizierten sechs primären KI-Ethikprinzipien:

  • Transparenz: Grundsätzlich müssen KI-Systeme erklärbar sein
  • Inklusion: Die Bedürfnisse aller Menschen müssen berücksichtigt werden, damit alle davon profitieren und allen Menschen die bestmöglichen Bedingungen geboten werden, sich zu entfalten und zu entwickeln
  • Verantwortung: Wer den Einsatz von KI gestaltet und einsetzt, muss verantwortungsbewusst und transparent vorgehen
  • Unparteilichkeit: Schaffen oder handeln Sie nicht nach Vorurteilen, um Fairness und Menschenwürde zu wahren
  • Zuverlässigkeit: KI-Systeme müssen zuverlässig arbeiten können
  • Sicherheit und Privatsphäre: KI-Systeme müssen sicher funktionieren und die Privatsphäre der Nutzer respektieren.

Wie vom US-Verteidigungsministerium (DoD) in ihrem angegeben Ethische Grundsätze für den Einsatz künstlicher Intelligenz und wie ich ausführlich unter behandelt habe den Link hier, dies sind ihre sechs primären KI-Ethikprinzipien:

  • Verantwortlich: Das DoD-Personal wird ein angemessenes Maß an Urteilsvermögen und Sorgfalt walten lassen und gleichzeitig für die Entwicklung, den Einsatz und die Nutzung von KI-Fähigkeiten verantwortlich bleiben.
  • Gerecht: Das Ministerium wird gezielte Schritte unternehmen, um unbeabsichtigte Verzerrungen bei den KI-Fähigkeiten zu minimieren.
  • Rückverfolgbar: Die KI-Fähigkeiten der Abteilung werden so entwickelt und eingesetzt, dass das relevante Personal über ein angemessenes Verständnis der Technologie, der Entwicklungsprozesse und der auf KI-Fähigkeiten anwendbaren Betriebsmethoden verfügt, einschließlich transparenter und überprüfbarer Methoden, Datenquellen sowie Entwurfsverfahren und -dokumentation.
  • Zuverlässig: Die KI-Fähigkeiten des Ministeriums werden explizite, genau definierte Verwendungszwecke haben, und die Sicherheit und Wirksamkeit solcher Fähigkeiten werden innerhalb dieser definierten Verwendungszwecke über ihren gesamten Lebenszyklus hinweg getestet und sichergestellt.
  • Regierbar: Die Abteilung wird KI-Fähigkeiten entwerfen und entwickeln, um ihre beabsichtigten Funktionen zu erfüllen und gleichzeitig unbeabsichtigte Folgen zu erkennen und zu vermeiden sowie eingesetzte Systeme, die ein unbeabsichtigtes Verhalten zeigen, zu deaktivieren oder zu deaktivieren.

Ich habe auch verschiedene kollektive Analysen der KI-Ethikprinzipien diskutiert, einschließlich der Behandlung einer Reihe von Forschern, die die Essenz zahlreicher nationaler und internationaler KI-Ethiklehrsätze in einem Papier mit dem Titel „The Global Landscape Of AI Ethics Guidelines“ (veröffentlicht in Natur), und die meine Berichterstattung unter untersucht den Link hier, was zu dieser Keystone-Liste führte:

  • Transparenz
  • Gerechtigkeit & Fairness
  • Nicht-Maleficence
  • Verantwortung
  • Datenschutz
  • Wohltätigkeit
  • Freiheit & Autonomie
  • Vertrauen
  • Nachhaltigkeit
  • Würde
  • Solidarität

Wie Sie vielleicht direkt erraten, kann es äußerst schwierig sein, die diesen Prinzipien zugrunde liegenden Besonderheiten festzunageln. Darüber hinaus ist der Versuch, diese allgemeinen Prinzipien in etwas völlig Greifbares und Detailliertes umzuwandeln, das für die Herstellung von KI-Systemen verwendet werden kann, eine harte Nuss, die es zu knacken gilt. Es ist einfach, mit der Hand zu winken, was KI-Ethikregeln sind und wie sie allgemein eingehalten werden sollten, während es eine viel kompliziertere Situation ist, wenn die KI-Codierung der wahre Gummi sein muss, der auf die Straße trifft.

Die KI-Ethik-Prinzipien müssen von KI-Entwicklern zusammen mit denjenigen angewendet werden, die die KI-Entwicklungsbemühungen verwalten, und sogar von denjenigen, die letztendlich KI-Systeme einsetzen und warten. Alle Beteiligten während des gesamten KI-Lebenszyklus der Entwicklung und Nutzung werden im Rahmen der Einhaltung der etablierten Normen der ethischen KI berücksichtigt. Dies ist ein wichtiges Highlight, da die übliche Annahme ist, dass „nur Programmierer“ oder diejenigen, die die KI programmieren, den Grundsätzen der KI-Ethik unterliegen. Wie bereits erwähnt, braucht es ein Dorf, um KI zu entwickeln und einzusetzen, und dafür muss das gesamte Dorf mit den KI-Ethikvorschriften vertraut sein und sich an diese halten.

Lassen Sie uns auch sicherstellen, dass wir uns bezüglich der Natur der heutigen KI auf derselben Seite befinden.

Es gibt heute keine KI, die empfindungsfähig ist. Wir haben das nicht. Wir wissen nicht, ob empfindungsfähige KI möglich sein wird. Niemand kann treffend vorhersagen, ob wir eine empfindungsfähige KI erreichen werden oder ob die empfindungsfähige KI irgendwie auf wundersame Weise spontan in einer Form einer rechnergestützten kognitiven Supernova entstehen wird (normalerweise als Singularität bezeichnet, siehe meine Berichterstattung unter den Link hier).

Die Art von KI, auf die ich mich konzentriere, besteht aus der nicht-empfindungsfähigen KI, die wir heute haben. Wollten wir wild darüber spekulieren empfindungsfähig AI, diese Diskussion könnte in eine radikal andere Richtung gehen. Eine empfindungsfähige KI wäre angeblich von menschlicher Qualität. Sie müssten bedenken, dass die empfindungsfähige KI das kognitive Äquivalent eines Menschen ist. Mehr noch, da einige spekulieren, dass wir eine superintelligente KI haben könnten, ist es denkbar, dass eine solche KI am Ende klüger als Menschen sein könnte (zu meiner Erforschung einer superintelligenten KI als Möglichkeit siehe die Berichterstattung hier).

Lassen Sie uns die Dinge bodenständiger halten und die heutige rechnerische, nicht-empfindungsfähige KI betrachten.

Machen Sie sich bewusst, dass die heutige KI nicht in der Lage ist, in irgendeiner Weise auf Augenhöhe mit dem menschlichen Denken zu „denken“. Wenn Sie mit Alexa oder Siri interagieren, scheinen die Konversationsfähigkeiten den menschlichen Fähigkeiten ähnlich zu sein, aber die Realität ist, dass sie rechnerisch ist und menschliche Kognition fehlt. Die jüngste Ära der KI hat in großem Umfang maschinelles Lernen (ML) und Deep Learning (DL) genutzt, die den rechnergestützten Musterabgleich nutzen. Dies hat zu KI-Systemen geführt, die den Anschein menschenähnlicher Neigungen erwecken. In der Zwischenzeit gibt es heute keine KI, die einen Anschein von gesundem Menschenverstand hat und auch nicht über die kognitive Verwunderung robusten menschlichen Denkens verfügt.

ML/DL ist eine Form des computergestützten Musterabgleichs. Der übliche Ansatz besteht darin, dass Sie Daten zu einer Entscheidungsaufgabe zusammenstellen. Sie speisen die Daten in die ML/DL-Computermodelle ein. Diese Modelle versuchen, mathematische Muster zu finden. Nachdem solche Muster gefunden wurden, verwendet das KI-System diese Muster, wenn es auf neue Daten stößt. Bei der Präsentation neuer Daten werden die auf den „alten“ oder historischen Daten basierenden Muster angewendet, um eine aktuelle Entscheidung zu treffen.

Ich denke, Sie können sich vorstellen, wohin das führt. Wenn Menschen, die die nach dem Muster getroffenen Entscheidungen getroffen haben, ungünstige Vorurteile eingebaut haben, stehen die Chancen gut, dass die Daten dies auf subtile, aber signifikante Weise widerspiegeln. Machine Learning oder Deep Learning Computational Pattern Matching versucht einfach, die Daten entsprechend mathematisch nachzuahmen. Es gibt keinen Anschein von gesundem Menschenverstand oder anderen empfindungsfähigen Aspekten der von KI erstellten Modellierung per se.

Darüber hinaus erkennen die KI-Entwickler möglicherweise auch nicht, was vor sich geht. Die obskure Mathematik in der ML/DL könnte es schwierig machen, die jetzt verborgenen Vorurteile aufzuspüren. Sie würden zu Recht hoffen und erwarten, dass die KI-Entwickler auf die potenziell vergrabenen Vorurteile testen würden, obwohl dies schwieriger ist, als es scheinen mag. Es besteht eine solide Chance, dass selbst bei relativ umfangreichen Tests immer noch Verzerrungen in den Mustererkennungsmodellen der ML/DL eingebettet sind.

Sie könnten das berühmte oder berüchtigte Sprichwort von Garbage-in-Garbage-out verwenden. Die Sache ist die, dass dies eher Vorurteilen ähnelt, die heimtückisch als Vorurteile in die KI einfließen. Die algorithmische Entscheidungsfindung (ADM) der KI wird zwangsläufig mit Ungerechtigkeiten beladen.

Nicht gut.

Verbinden wir dies mit der Frage nach vertrauenswürdiger KI

Wir scheinen sicherlich nicht bereit zu sein, KI zu vertrauen, die nachteilige Vorurteile und diskriminierende Handlungen zeigt. In diesem Fall würden wir glauben, dass eine solche KI entschieden nicht vertrauenswürdig ist, daher würden wir dazu tendieren, der KI aktiv zu misstrauen. Ohne es mit einem anthropomorphen Vergleich zu übertreiben (ich werde gleich mehr über die Anthropomorphisierung von KI sagen), würde ein Mensch, der ungünstige Vorurteile aufweist, auch als nicht besonders vertrauenswürdig eingestuft werden.

Graben in Vertrauen und Vertrauenswürdigkeit

Vielleicht sollten wir einen Blick darauf werfen, was wir meinen, wenn wir behaupten, dass wir jemandem oder etwas vertrauen oder nicht vertrauen. Betrachten Sie zunächst einige alltägliche Wörterbuchdefinitionen von Vertrauen.

Beispiele dafür, was Vertrauen per Definition bedeutet, sind:

  • Gesichertes Vertrauen in den Charakter, die Fähigkeit, die Stärke oder die Wahrheit von jemandem oder etwas (Merriam-Webster Online-Wörterbuch).
  • Vertrauen auf die Integrität, Stärke, Fähigkeit, Sicherheit usw. einer Person oder Sache (Dictionary.com)
  • Fester Glaube an die Zuverlässigkeit, Wahrheit, Fähigkeit oder Stärke von jemandem oder etwas (Oxford Languages ​​Online-Wörterbuch).

Ich möchte darauf hinweisen, dass sich alle diese Definitionen auf „jemand“ beziehen und sich gleichermaßen auf „etwas“ als potenziell vertrauenswürdig beziehen. Dies ist bemerkenswert, da einige darauf bestehen könnten, dass wir nur Menschen vertrauen und dass der Akt des Vertrauens ausschließlich der Menschheit als unserem Ziel der Vertrauenswürdigkeit vorbehalten ist. Nicht so. Auf Ihren Küchentoaster können Sie sich verlassen. Wenn es Ihren Toast zuverlässig zu machen scheint und dies routinemäßig tut, können Sie sicher den Anschein von Vertrauen haben, ob der Toaster tatsächlich vertrauenswürdig ist.

In derselben Denkweise kann KI auch Gegenstand unserer Vertrauensperspektive sein. Die Chancen stehen gut, dass das mit KI verbundene Vertrauen viel komplizierter sein wird als, sagen wir, ein banaler Toaster. Ein Toaster kann normalerweise nur eine Handvoll Aktionen ausführen. Ein KI-System ist wahrscheinlich viel komplexer und scheint weniger transparent zu arbeiten. Unsere Fähigkeit, die Vertrauenswürdigkeit von KI einzuschätzen und festzustellen, wird sicherlich viel schwieriger sein und besondere Herausforderungen mit sich bringen.

Abgesehen davon, dass es nur komplexer ist, soll ein typisches KI-System nicht deterministisch und potenziell selbstregulierend oder selbstanpassend sein. Wir können diesen Begriff kurz untersuchen.

Eine deterministische Maschine neigt dazu, immer wieder die gleichen Dinge zu tun, vorhersehbar und mit einem erkennbaren Muster ihrer Funktionsweise. Man könnte sagen, dass ein gewöhnlicher Toaster ungefähr auf die gleiche Weise toastet und über Toastkontrollen verfügt, die das Toasten moderieren, was im Allgemeinen von der Person, die den Toaster verwendet, vorhersehbar ist. Im Gegensatz dazu sind komplexe KI-Systeme oft nicht deterministisch konzipiert, was bedeutet, dass sie ganz andere Dinge tun können, als Sie es sonst erwartet hätten. Dies könnte teilweise auch noch verstärkt werden, wenn die KI so geschrieben ist, dass sie sich selbst anpasst, ein Aspekt, der die KI im Fall von ML/DL vorteilhafterweise verbessern lässt, aber auch störend dazu führen kann, dass die KI ins Stocken gerät oder in die Reihen eindringt der KI-Bösartigkeit. Sie wissen vielleicht nicht, was Sie sozusagen getroffen hat, da Sie von den Aktionen der KI völlig überrascht wurden.

Was könnten wir tun, um zu versuchen, KI der Vertrauenswürdigkeit näher zu bringen?

Ein Ansatz besteht darin sicherzustellen, dass diejenigen, die KI bauen und einsetzen, sich an eine Reihe von KI-Ethikregeln halten. Wie von diesen KI-Forschern erwähnt: „Vertrauen ist eine Einstellung, dass sich ein Agent wie erwartet verhält und man sich darauf verlassen kann, dass er sein Ziel erreicht. Das Vertrauen bricht nach einem Fehler oder Missverständnis zwischen dem Agenten und der vertrauenden Person zusammen. Der psychologische Zustand des Vertrauens in KI ist eine emergente Eigenschaft eines komplexen Systems, das normalerweise viele Zyklen von Design, Training, Einsatz, Leistungsmessung, Regulierung, Neugestaltung und Umschulung umfasst“ (angegeben in der Mitteilungen der ACM, „Trust, Regulation, and Human-in-the-Loop AI Within the European Region“ von Stuart Middleton, Emmanuel Letouze, Ali Hossaini und Adriane Chapman, April 2022).

Das Wesentliche ist, dass wenn wir KI-Entwickler dazu bringen können, sich an ethische KI zu halten, sie hoffentlich am Ende vertrauenswürdige KI produzieren werden. Das ist alles schön und gut, aber es scheint in der realen Welt etwas unpraktisch zu sein, obwohl es absolut ein Weg ist, der es wert ist, weiterverfolgt zu werden.

Hier ist was ich meine.

Angenommen, KI-Entwickler unternehmen fleißige Anstrengungen, um ein KI-System für einen Zweck zu entwickeln, den wir im Allgemeinen X nennen. Sie stellen sorgfältig sicher, dass die KI die Transparenzvorschriften der KI-Ethik einhält. Sie sorgen dafür, dass die Privatsphäre angemessen in die KI integriert wird. Bei fast allen üblichen KI-Ethikprinzipien stellen die KI-Erbauer umfassend sicher, dass die KI die gegebenen Grundsätze erfüllt.

Soll man dieser KI jetzt vertrauen?

Erlauben Sie mir, Ihnen zu helfen, Ihre Gedanken zu dieser offenen Frage zu durchdringen.

Es stellt sich heraus, dass Cyber-Gauner es geschafft haben, die KI zu infiltrieren und die KI heimlich dazu zu bringen, X auszuführen und die Cyber-Hacker mit allen Daten zu füttern, die die KI sammelt. Dadurch untergraben diese Übeltäter auf heimtückische Weise das Datenschutzgebot. Sie sind sich glücklicherweise nicht bewusst, dass dies unter der Haube der KI geschieht.

Mit dieser zusätzlichen Information stelle ich Ihnen dieselbe Frage noch einmal.

Vertraust du dieser KI?

Ich wage zu behaupten, dass die meisten Menschen sofort erklären würden, dass sie dies mit Sicherheit tun nicht Vertrauen Sie dieser speziellen KI. Vielleicht hätten sie ihm früher vertraut. Sie entscheiden sich nun dafür, die KI nicht mehr als vertrauenswürdig zu betrachten.

Einige wichtige Erkenntnisse, die auf diesem einfachen Beispiel basieren, sind es wert, darüber nachzudenken:

  • Dynamik des Vertrauens. Selbst die besten Absichten, alle Grundlagen abzudecken, um sicherzustellen, dass KI-Ethik in ein KI-System integriert wird, sind keine Garantie dafür, was die KI sein oder werden könnte. Sobald die KI in Betrieb genommen wird, können Außenstehende möglicherweise die Errungenschaften der ethischen KI untergraben.
  • Vertrauen von innen untergraben. Der Akt der Untergrabung der Vertrauenswürdigkeit muss nicht unbedingt von Außenstehenden sein. Ein Insider, der das KI-System regelmäßig wartet, könnte einen Fehler machen und die KI dahingehend schwächen, dass sie weniger vertrauenswürdig ist. Dieser KI-Entwickler hat möglicherweise keine Ahnung, was er geschaffen hat.
  • Unbeabsichtigte Vertrauensverluste. Eine sich selbst anpassende oder selbst regulierende KI könnte sich irgendwann selbst anpassen und in das nicht vertrauenswürdige Gebiet abdriften. Vielleicht versucht die KI, die Transparenz der KI zu stärken, und gefährdet gleichzeitig und unangemessen die Aspekte der Privatsphäre.
  • Streuung des Vertrauens. Der Versuch, alle Grundsätze der KI-Ethik mit dem gleichen Höchstmaß an Vertrauenswürdigkeit zu erreichen, ist normalerweise nicht ohne Weiteres durchführbar, da sie häufig gegensätzliche Ziele verfolgen oder andere inhärente potenzielle Konflikte aufweisen. Es ist eine ziemlich idealisierte Perspektive zu glauben, dass alle ethischen KI-Vorschriften verträumt aufeinander abgestimmt und alle in gleichem, maximierbarem Maße erreichbar sind.
  • Vertrauen kann teuer zu erlangen sein. Die Kosten für den Versuch, einen erstklassigen Anschein einer vertrauenswürdigen KI zu erreichen, indem Sie die verschiedenen umfangreichen und erschöpfenden Schritte unternehmen und sich an die Litanei der KI-Ethikprinzipien halten, werden relativ hoch sein. Sie können leicht argumentieren, dass die Kosten unerschwinglich wären, um einige KI-Systeme in Betrieb zu nehmen, die ansonsten einen wichtigen Wert für die Gesellschaft haben, selbst wenn die KI aus Gründen der Vertrauenswürdigkeit, sagen wir, weniger als ideal war.
  • Und so weiter.

Interpretieren Sie die vorangegangenen Bemerkungen nicht falsch, um vorzuschlagen, dass wir die Bemühungen um den gründlichen Aufbau und Einsatz vertrauenswürdiger KI irgendwie abwenden sollten. Sie würden sozusagen kurzerhand das Kind mit dem Bade ausschütten. Die richtige Interpretation ist, dass wir diese vertrauensvollen Aktivitäten durchführen müssen, um KI in eine vertrauenswürdige Betrachtung zu bringen, und doch ist dies allein kein Allheilmittel oder Wundermittel.

Mehrgleisige Wege zu vertrauenswürdiger KI

Es gibt wichtige zusätzliche, vielschichtige Wege, um eine vertrauenswürdige KI anzustreben.

Wie ich beispielsweise bereits in meinen Kolumnen behandelt habe, zielen unzählige neu entstehende Gesetze und Vorschriften in Bezug auf KI darauf ab, KI-Hersteller dazu zu bringen, vertrauenswürdige KI zu entwickeln, siehe den Link hier und den Link hier.

Diese rechtlichen Leitplanken sind als übergreifendes Mittel von entscheidender Bedeutung, um sicherzustellen, dass diejenigen, die KI entwickeln, für ihre KI voll verantwortlich gemacht werden. Ohne solche potenziellen Rechtsbehelfe und rechtmäßigen Strafen werden diejenigen, die KI durcheinander auf den Markt bringen, dies wahrscheinlich weiterhin tun, ohne sich ernsthaft darum zu kümmern, eine vertrauenswürdige KI zu erreichen. Ich möchte insbesondere hinzufügen, dass diese Gesetze und Vorschriften, wenn sie schlecht konzipiert oder unzureichend umgesetzt sind, das Streben nach vertrauenswürdiger KI bedauerlicherweise untergraben könnten, was vielleicht ironischerweise und seltsamerweise eine nicht vertrauenswürdige KI gegenüber einer vertrauenswürdigen KI fördert (weitere Erläuterungen finden Sie in meinen Kolumnendiskussionen).

Ich war auch ein überzeugter Verfechter dessen, was ich leidenschaftlich bezeichne KI-Schutzengel-Bots (siehe meine Berichterstattung unter den Link hier). Dies ist eine aufkommende Methode oder ein Ansatz, um zu versuchen, Feuer mit Feuer zu bekämpfen, nämlich die Verwendung von KI, um uns im Umgang mit anderer KI zu helfen, die möglicherweise vertrauenswürdig ist oder nicht.

Zunächst wird etwas Hintergrundkontext nützlich sein.

Angenommen, Sie entscheiden sich dafür, sich auf ein KI-System zu verlassen, dessen Vertrauenswürdigkeit Sie nicht sicher sind. Ein Hauptanliegen könnte sein, dass Sie mit Ihren Versuchen allein sind, herauszufinden, ob der KI zu trauen ist oder nicht. Die KI ist möglicherweise rechnerisch schneller als Sie und kann Sie ausnutzen. Sie brauchen jemanden oder etwas auf Ihrer Seite, um zu helfen.

Eine Perspektive ist, dass es immer einen Human-in-the-Loop geben sollte, der Ihnen bei der Nutzung eines KI-Systems hilft. Dies ist jedoch eine problematische Lösung. Wenn die KI in Echtzeit arbeitet, was wir gleich besprechen werden, wenn es um das Aufkommen von KI-basierten selbstfahrenden Autos geht, reicht es möglicherweise nicht aus, einen Menschen in der Schleife zu haben. Die KI könnte in Echtzeit agieren, und bis ein bestimmter Mensch in der Schleife ins Bild kommt, um herauszufinden, ob die KI ordnungsgemäß funktioniert, könnte bereits ein katastrophales Ergebnis eingetreten sein.

Nebenbei bringt dies einen weiteren Faktor zum Thema Vertrauen mit sich. Wir weisen normalerweise eine Vertrauensstufe basierend auf dem Kontext oder den Umständen zu, mit denen wir konfrontiert sind. Sie können Ihrem kleinen Sohn oder Ihrer kleinen Tochter voll und ganz vertrauen, dass sie Ihnen treu sind, aber wenn Sie sich beim Wandern darauf verlassen, dass das Kleinkind Ihnen sagt, ob es sicher ist, auf den Rand einer Klippe zu treten, wären Sie meiner Meinung nach klug zu überlegen, ob das Kleinkind diese Art von Ratschlägen auf Leben und Tod geben kann. Das Kind könnte dies ernsthaft und aufrichtig tun und dennoch nicht in der Lage sein, solche Ratschläge angemessen zu erteilen.

Derselbe Begriff ist mit Vertrauen verbunden, wenn es um KI geht. Ein KI-System, mit dem Sie Dame oder Schach spielen, ist wahrscheinlich nicht an Überlegungen über Leben und Tod beteiligt. Sie können entspannter mit Ihrem Vertrauensauftrag umgehen. Ein KI-basiertes selbstfahrendes Auto, das mit hohen Geschwindigkeiten über eine Autobahn rast, erfordert ein viel größeres Maß an Vertrauen. Der kleinste Fehler des KI-Fahrsystems könnte direkt zu Ihrem Tod und dem Tod anderer führen.

In einem veröffentlichten Interview mit Beena Ammanath, Executive Director des Global Deloitte AI Institute und Autorin des Buches Vertrauenswürdige KI, Ein ähnlicher Schwerpunkt liegt auf der Berücksichtigung der kontextuellen Facetten, in denen die Vertrauenswürdigkeit von KI ins Spiel kommt: „Wenn Sie eine KI-Lösung entwickeln, die Patientendiagnosen durchführt, sind Fairness und Voreingenommenheit äußerst wichtig. Aber wenn Sie einen Algorithmus entwickeln, der den Ausfall eines Düsentriebwerks vorhersagt, sind Fairness und Voreingenommenheit nicht so wichtig. Vertrauenswürdige KI ist wirklich eine Struktur, die Ihnen hilft, über die Dimensionen des Vertrauens in Ihrer Organisation nachzudenken“ (VentureBeat, 22. März 2022).

Wenn Sie über vertrauenswürdige KI sprechen, können Sie dieses Thema auf vielfältige Weise interpretieren.

Zum Beispiel, vertrauenswürdige KI ist etwas, das wir alle als wünschenswertes und erstrebenswertes Ziel ansehen, nämlich dass wir den Wunsch haben sollten, vertrauenswürdige KI zu entwickeln und zu verbreiten. Es gibt eine andere Verwendung des Schlagworts. Eine etwas alternative Verwendung ist that vertrauenswürdige KI ist ein Zustands- oder Messzustand, sodass jemand behaupten könnte, er habe ein KI-System entwickelt, das eine Instanz vertrauenswürdiger KI darstellt. Sie können auch den Ausdruck verwenden vertrauenswürdige KI um eine Methode oder einen Ansatz vorzuschlagen, der verwendet werden kann, um KI-Vertrauenswürdigkeit zu erlangen. Usw.

In diesem Zusammenhang vertraue ich darauf, dass Sie erkennen, dass nicht alle KI gleich sind und dass wir darauf achten müssen, keine pauschalen Aussagen über die gesamte KI zu machen. Ein bestimmtes KI-System unterscheidet sich wahrscheinlich erheblich von einem anderen KI-System. Eines dieser KI-Systeme kann sehr vertrauenswürdig sein, während das andere nur geringfügig vertrauenswürdig ist. Seien Sie vorsichtig bei der Annahme, dass KI ein Monolith ist, der entweder absolut vertrauenswürdig oder absolut nicht vertrauenswürdig ist.

Dies ist einfach nicht der Fall.

Als nächstes möchte ich kurz auf einige meiner laufenden Forschungen zu vertrauenswürdiger KI eingehen, die Sie möglicherweise interessieren, und die sich ergebende Rolle von KI abdecken KI-Schutzengel-Bots.

Hier ist, wie es geht.

Sie wären mit einem KI-System (einem KI-Schutzengel-Bot) bewaffnet, das entwickelt wurde, um die Vertrauenswürdigkeit eines anderen KI-Systems zu messen. Der KI-Schutzengel-Bot hat als oberstes Ziel Ihre Sicherheit. Stellen Sie sich das so vor, als hätten Sie die Möglichkeit, die KI, auf die Sie sich verlassen, zu überwachen, indem Sie ein anderes KI-System in Ihrer wahren Tasche haben, das vielleicht auf Ihrem Smartphone oder ähnlichen Geräten läuft. Ihr sprichwörtlicher KI-Wächter kann auf einer Grundlage rechnen, auf der die KI, auf die Sie sich verlassen, ebenfalls arbeitet, mit hoher Geschwindigkeit arbeitet und die aktuelle Situation in Echtzeit berechnet, viel schneller als ein Mensch in der Schleife dies tun könnte.

Sie könnten auf den ersten Blick denken, dass die KI, auf die Sie sich bereits verlassen, welche haben sollte intern KI-Leitplanken, die dasselbe tun wie dieser separat berechnende KI-Schutzengel-Bot. Ja, das wäre sicherlich erwünscht. Ein Bedenken besteht darin, dass die in ein KI-System eingebauten KI-Leitplanken möglicherweise integral und nachteilig auf die KI per se ausgerichtet sind, sodass die vermeintliche KI-Leitplanke nicht mehr in der Lage ist, die KI gewissermaßen unabhängig zu verifizieren oder zu validieren.

Die gegensätzliche Idee ist, dass Ihr KI-Schutzengel-Bot ein unabhängiger KI-Mechanismus oder ein KI-Mechanismus eines Drittanbieters ist, der sich von der KI unterscheidet, auf die Sie sich verlassen. Es sitzt außerhalb der anderen KI und bleibt Ihnen gewidmet und nicht der KI, die überwacht oder bewertet wird.

Eine einfache Möglichkeit, darüber nachzudenken, kann durch die folgenden vereinfachten gleichungsähnlichen Aussagen ausgedrückt werden. Wir könnten sagen, dass „P“ potenziell „R“ vertrauen möchte, um eine bestimmte Aufgabe „X“ zu erledigen:

Dies wäre Folgendes, wenn nur Personen beteiligt sind:

  • Person P vertraut Person R die Aufgabe X an.

Wenn wir uns dafür entscheiden, uns auf KI zu verlassen, ändert sich die Aussage wie folgt:

  • Person P vertraut KI-Instanz-R die Aufgabe X an.

Wir können den KI-Schutzengel-Bot hinzufügen, indem wir Folgendes sagen:

  • Person P vertraut der KI-Instanz-R die Aufgabe X an, da sie von der KI-Schutzengel-Bot-Instanz-Z überwacht wird

Der KI-Schutzengel-Bot bewertet unermüdlich und unerbittlich die KI, auf die Sie sich verlassen. Daher könnte Ihr praktischer KI-Wächter Sie warnen, dass das Vertrauen dieser anderen KI nicht gerechtfertigt ist. Oder der KI-Wächter könnte elektronisch mit der anderen KI interagieren, um sicherzustellen, dass jede Abweichung davon, vertrauenswürdig zu sein, schnell korrigiert wird, und so weiter (siehe meine Berichterstattung zu solchen Details unter den Link hier).

Die Trusty-Trust-Reservoir-Metapher

Da wir unterschiedliche Ebenen von Vertrauen diskutieren, könnten Sie eine nützliche Metapher über Vertrauenswürdigkeit finden, indem Sie sich Vertrauen als eine Art Reservoir vorstellen.

Sie haben ein gewisses Maß an Vertrauen in eine bestimmte Person oder Sache unter bestimmten Umständen zu einem bestimmten Zeitpunkt. Das Niveau des Vertrauens wird steigen oder fallen, je nachdem, was sonst noch in Bezug auf diese bestimmte Person oder Sache passiert. Das Vertrauen könnte auf einem Null-Niveau liegen, wenn Sie keinerlei Vertrauen in die Person oder Sache haben. Das Vertrauen könnte negativ sein, wenn Sie es wagen, dieser Person oder Sache zu misstrauen.

Im Fall von KI-Systemen wird Ihr Vertrauensreservoir für die bestimmte KI, auf die Sie sich unter bestimmten Umständen verlassen, steigen oder fallen, je nachdem, wie Sie die Vertrauenswürdigkeit der KI einschätzen. Manchmal sind Sie sich dieses unterschiedlichen Vertrauensniveaus in die KI bewusst, während Sie sich in anderen Fällen vielleicht weniger bewusst sind und eher aufgrund einer Ahnung Urteile über die Vertrauenswürdigkeit fällen.

Zu den Möglichkeiten, die wir hier besprochen haben, gehören:

  • Einhaltung der KI-Ethik. Wenn die KI, auf die Sie sich verlassen, durch den Versuch entwickelt wurde, die richtigen KI-Ethikregeln einzuhalten, würden Sie dieses Verständnis vermutlich nutzen, um das Niveau Ihres Vertrauensreservoirs für dieses bestimmte KI-System zu erhöhen. Als Randbemerkung ist es auch möglich, dass Sie hinsichtlich ihrer Vertrauenswürdigkeit auch auf andere KI-Systeme verallgemeinern, obwohl dies manchmal eine irreführende Form dessen sein kann, was ich nenne KI vertraut auf Aura-Ausbreitung (Seien Sie dabei vorsichtig!).
  • Verwenden Sie einen Human-in-the-Loop. Wenn die KI einen Human-in-the-Loop hat, können Sie Ihr wahrgenommenes Vertrauen in die KI positiv verstärken.
  • Gesetze und Vorschriften erlassen. Wenn es Gesetze und Vorschriften gibt, die mit dieser bestimmten Art von KI verbunden sind, können Sie Ihr Vertrauen ebenfalls stärken.
  • Setze einen KI-Schutzengel-Bot ein. Wenn Sie einen KI-Schutzengel-Bot bereit haben, wird auch dies Ihr Vertrauensniveau weiter erhöhen.

Wie bereits erwähnt, kann Vertrauen ziemlich brüchig sein und augenblicklich auseinanderfallen (dh das Vertrauensreservoir entleert schnell und plötzlich das gesamte aufgebaute Vertrauen).

Stellen Sie sich vor, Sie befinden sich in einem KI-basierten selbstfahrenden Auto und das KI-Fahren macht plötzlich eine radikale Rechtskurve, wodurch die Räder quietschen und das autonome Fahrzeug beinahe in einen gefährlichen Überschlag zwingen würde. Was würde mit Ihrem Vertrauen passieren? Es scheint, dass selbst wenn Sie der KI zuvor ein erhöhtes Maß an Vertrauen entgegengebracht haben, Sie Ihr Vertrauensniveau dramatisch und abrupt senken würden, vernünftigerweise.

An dieser Stelle dieser gewichtigen Diskussion würde ich wetten, dass Sie sich weitere anschauliche Beispiele wünschen, die das Wesen und den Umfang einer vertrauenswürdigen KI veranschaulichen könnten. Es gibt eine besondere und sicherlich beliebte Reihe von Beispielen, die mir am Herzen liegen. Sie sehen, in meiner Eigenschaft als Experte für KI, einschließlich der ethischen und rechtlichen Auswirkungen, werde ich häufig gebeten, realistische Beispiele zu nennen, die Dilemmata der KI-Ethik aufzeigen, damit die etwas theoretische Natur des Themas leichter erfasst werden kann. Einer der eindrucksvollsten Bereiche, der dieses ethische KI-Problem anschaulich darstellt, ist das Aufkommen von KI-basierten, wirklich selbstfahrenden Autos. Dies dient als praktischer Anwendungsfall oder als Beispiel für eine ausführliche Diskussion zu diesem Thema.

Hier ist dann eine bemerkenswerte Frage, die es wert ist, darüber nachzudenken: Erhellt das Aufkommen von KI-basierten echten selbstfahrenden Autos irgendetwas über das Streben nach vertrauenswürdiger KI, und wenn ja, was zeigt dies?

Erlauben Sie mir einen Moment, um die Frage auszupacken.

Beachten Sie zunächst, dass an einem echten selbstfahrenden Auto kein menschlicher Fahrer beteiligt ist. Denken Sie daran, dass echte selbstfahrende Autos über ein KI-Fahrsystem gefahren werden. Es ist weder ein menschlicher Fahrer am Steuer erforderlich, noch ist vorgesehen, dass ein Mensch das Fahrzeug fährt. Für meine umfangreiche und laufende Berichterstattung über autonome Fahrzeuge (AVs) und insbesondere selbstfahrende Autos, siehe den Link hier.

Ich möchte weiter klären, was gemeint ist, wenn ich von echten selbstfahrenden Autos spreche.

Die Ebenen selbstfahrender Autos verstehen

Zur Verdeutlichung: Echte selbstfahrende Autos sind solche, bei denen die KI das Auto ganz alleine fährt und es während der Fahraufgabe keine menschliche Hilfe gibt.

Diese fahrerlosen Fahrzeuge gelten als Level 4 und Level 5 (siehe meine Erklärung unter Link hier), während ein Auto, bei dem ein menschlicher Fahrer den Fahraufwand mitteilen muss, normalerweise als Level 2 oder Level 3 betrachtet wird. Die Autos, die die Fahraufgabe mitteilen, werden als halbautonom beschrieben und enthalten typischerweise eine Vielzahl von automatisierte Add-Ons, die als ADAS (Advanced Driver-Assistance Systems) bezeichnet werden.

Es gibt noch kein wirklich selbstfahrendes Auto auf Level 5, und wir wissen noch nicht einmal, ob dies möglich sein wird und wie lange es dauern wird, bis es erreicht wird.

In der Zwischenzeit versuchen die Bemühungen der Stufe 4 allmählich, durch sehr enge und selektive Versuche auf öffentlichen Straßen eine gewisse Traktion zu erreichen. Es gibt jedoch Kontroversen darüber, ob diese Tests per se zulässig sein sollten (wir sind alle Meerschweinchen auf Leben und Tod in einem Experiment) Einige behaupten, dass sie auf unseren Autobahnen und Nebenstraßen stattfinden Link hier).

Da halbautonome Autos einen menschlichen Fahrer erfordern, unterscheidet sich die Einführung dieser Autotypen nicht wesentlich vom Fahren herkömmlicher Fahrzeuge. Daher gibt es an sich nicht viel Neues zu diesem Thema (wie Sie sehen werden) in einem Moment sind die nächsten Punkte allgemein anwendbar).

Für halbautonome Autos ist es wichtig, dass die Öffentlichkeit vor einem störenden Aspekt gewarnt wird, der in letzter Zeit aufgetreten ist, und zwar trotz der menschlichen Fahrer, die immer wieder Videos von sich selbst veröffentlichen, die am Steuer eines Level 2- oder Level 3-Autos einschlafen Wir alle müssen vermeiden, in die Irre geführt zu werden, dass der Fahrer seine Aufmerksamkeit von der Fahraufgabe ablenken kann, während er ein halbautonomes Auto fährt.

Sie sind die verantwortliche Partei für die Fahraktionen des Fahrzeugs, unabhängig davon, wie viel Automatisierung in ein Level 2 oder Level 3 geworfen werden könnte.

Selbstfahrende Autos und vertrauenswürdige KI

Bei echten selbstfahrenden Fahrzeugen der Stufen 4 und 5 ist kein menschlicher Fahrer an der Fahraufgabe beteiligt.

Alle Insassen werden Passagiere sein.

Die KI fährt.

Ein Aspekt, der sofort diskutiert werden muss, ist die Tatsache, dass die KI, die an den heutigen KI-Antriebssystemen beteiligt ist, nicht empfindungsfähig ist. Mit anderen Worten, die KI ist insgesamt ein Kollektiv computergestützter Programmierung und Algorithmen und mit Sicherheit nicht in der Lage, auf die gleiche Weise zu argumentieren, wie es Menschen können.

Warum wird dadurch zusätzlich betont, dass die KI nicht empfindungsfähig ist?

Weil ich unterstreichen möchte, dass ich bei der Erörterung der Rolle des KI-Antriebssystems der KI keine menschlichen Qualitäten zuschreibe. Bitte beachten Sie, dass es heutzutage eine anhaltende und gefährliche Tendenz gibt, die KI zu anthropomorphisieren. Im Wesentlichen weisen die Menschen der heutigen KI eine menschenähnliche Empfindung zu, trotz der unbestreitbaren und unbestreitbaren Tatsache, dass es eine solche KI noch nicht gibt.

Mit dieser Klarstellung können Sie sich vorstellen, dass das KI-Fahrsystem die Facetten des Fahrens nicht von Haus aus „kennt“. Das Fahren und alles, was dazu gehört, muss als Teil der Hardware und Software des selbstfahrenden Autos programmiert werden.

Lassen Sie uns in die Vielzahl von Aspekten eintauchen, die zu diesem Thema eine Rolle spielen.

Zunächst ist es wichtig zu erkennen, dass nicht alle KI-selbstfahrenden Autos gleich sind. Jeder Autohersteller und jedes selbstfahrende Technologieunternehmen verfolgt seinen eigenen Ansatz, um selbstfahrende Autos zu entwickeln. Daher ist es schwierig, pauschale Aussagen darüber zu treffen, was KI-Fahrsysteme tun oder nicht tun werden.

Darüber hinaus kann die Aussage, dass ein KI-Fahrsystem eine bestimmte Sache nicht macht, später von Entwicklern überholt werden, die den Computer tatsächlich so programmieren, dass sie genau das tun. Schritt für Schritt werden KI-Fahrsysteme sukzessive verbessert und erweitert. Eine heute bestehende Einschränkung ist in einer zukünftigen Iteration oder Version des Systems möglicherweise nicht mehr vorhanden.

Ich vertraue darauf, dass dies eine ausreichende Litanei von Vorbehalten bietet, um das zu untermauern, was ich erzählen werde.

Wir sind jetzt bereit, tief in selbstfahrende Autos und vertrauenswürdige KI einzutauchen.

Vertrauen ist alles, insbesondere bei KI-basierten selbstfahrenden Autos.

Die Gesellschaft scheint das Aufkommen selbstfahrender Autos argwöhnisch zu beobachten. Einerseits besteht die große Hoffnung, dass das Aufkommen echter selbstfahrender Autos die Zahl der jährlichen Autototen nachweislich reduzieren wird. Allein in den Vereinigten Staaten gibt es jährlich etwa 40,000 Todesfälle und etwa 2.5 Millionen Verletzungen durch Autounfälle, siehe meine Statistiksammlung unter den Link hier. Menschen trinken und fahren. Menschen fahren abgelenkt. Die Aufgabe des Autofahrens scheint darin zu bestehen, sich immer wieder zielsicher auf das Fahren konzentrieren zu können und keinen Autounfall zu erleiden. Daher könnten wir träumerisch hoffen, dass KI-Fahrsysteme selbstfahrende Autos wiederholt und zielsicher führen werden. Sie können selbstfahrende Autos als Zweierlei auffassen, die darin besteht, die Anzahl der Todesfälle und Verletzungen bei Autounfällen zu reduzieren und Mobilität möglicherweise auf einer viel breiteren und zugänglicheren Basis verfügbar zu machen.

Aber die gesellschaftliche Wahrnehmung überlagert inzwischen die Sorge, ob selbstfahrende Autos sicher genug sein werden, um auf unseren öffentlichen Straßen im Allgemeinen zu fahren.

Wenn auch nur ein selbstfahrendes Auto in einen Unfall oder eine Kollision gerät, die zu einem einzigen Tod oder einer schweren Verletzung führt, können Sie wahrscheinlich davon ausgehen, dass das heute etwas aufgebaute Vertrauen in diese KI-basierten fahrerlosen Autos steil sinken wird. Wir haben gesehen, wie dies geschah, als sich in Arizona der mittlerweile berüchtigte Vorfall ereignete, bei dem ein etwas (nicht wirklich) selbstfahrendes Auto in einen Fußgänger fuhr und ihn tötete (siehe meine Berichterstattung unter Link hier).

Einige Experten weisen darauf hin, dass es unfair und unangemessen ist, das Vertrauen in selbstfahrende KI-Autos auf die Facette zu stützen, dass nur ein solcher nächster tödlicher Unfall oder Zusammenstoß die bereits relativ unfallfreien öffentlichen Straßenversuche untergraben könnte. Darüber hinaus besteht auf einer weiteren unfairen Grundlage die Wahrscheinlichkeit, dass die Gesellschaft, egal welche Marke oder welches Modell von selbstfahrenden KI-Autos in einen traurigen Vorfall verwickelt wird, zweifellos alle selbstfahrenden Automarken beschuldigen würde.

Die Gesamtheit der selbstfahrenden Autos könnte summarisch beschmutzt werden und die Branche als Ganzes könnte einen enormen Rückschlag erleiden, der zu einer möglichen Einstellung aller öffentlichen Straßenversuche führen könnte.

Ein Beitrag zu einem solchen Rückschlag findet sich in den unsinnigen Proklamationen ausgesprochener Befürworter selbstfahrender Autos, dass alle fahrerlosen Autos unzerstörbar sein werden. Diese Vorstellung, unzerstörbar zu sein, ist nicht nur völlig falsch (vgl den Link hier), richtet es die selbstfahrende Autoindustrie heimtückisch auf völlig aus dem Gleichgewicht geratene Erwartungen ein. Diese abwegigen und unerreichbaren Behauptungen, dass es keine Todesfälle durch selbstfahrende Autos geben wird, nähren das Missverständnis, dass alle Unfälle mit fahrerlosen Autos ein sicheres Zeichen dafür sind, dass das ganze Kit und Kaboodle umsonst ist.

Es ist eine deutliche Traurigkeit zu erkennen, dass der Fortschritt hin zu selbstfahrenden Autos und der zentimeterweise Aufbau von gesellschaftlichem Vertrauen in einem Augenblick zunichte gemacht werden könnten. Das wird ein verdammtes Schaufenster über die Brüchigkeit des Vertrauens sein.

Fazit

Viele Autohersteller und selbstfahrende Technologieunternehmen halten sich im Allgemeinen an die Grundsätze der KI-Ethik und versuchen, vertrauenswürdige KI in Bezug auf sichere und zuverlässige selbstfahrende Autos auf KI-Basis aufzubauen und einzusetzen. Bitte beachten Sie, dass einige dieser Firmen stärker und den ethischen KI-Grundsätzen mehr verpflichtet sind als andere. Es gibt auch gelegentlich Rand- oder Neulinge im Zusammenhang mit selbstfahrenden Autos, die einen Großteil der Eckpfeiler der KI-Ethik beiseite zu schieben scheinen (siehe meine Rezension unter den Link hier).

An anderen Fronten wurden nach und nach neue Gesetze und Vorschriften für selbstfahrende Autos in die Rechtsbücher aufgenommen. Ob sie den nötigen Biss haben, um sie zu unterstützen, ist eine andere Frage, ebenso, ob die Durchsetzung dieser Gesetze ernst genommen oder übersehen wird (siehe meine Kolumnen für Analysen dazu).

Dazu kommt noch der Hightech-Aspekt. Ich habe vorausgesagt, dass wir nach und nach Varianten von KI-Schutzengel-Bots sehen werden, die sich im Bereich der autonomen Fahrzeuge und selbstfahrenden Autos durchsetzen werden. Wir sind noch nicht da. Dies wird sich noch mehr durchsetzen, sobald die Popularität von selbstfahrenden Autos weiter zunimmt.

Dieser letzte Punkt bringt einen berühmten Satz über Vertrauen zur Sprache, den Sie zweifellos bereits auswendig kennen.

Vertrauen, aber überprüfen.

Wir können uns erlauben, unser Vertrauen auszudehnen, vielleicht sogar großzügig. In der Zwischenzeit sollten wir auch mit Argusaugen darauf achten, dass das Vertrauen, das wir wecken, mit Worten und Taten bestätigt wird. Lassen Sie uns etwas Vertrauen in die KI setzen, aber überprüfen Sie endlos, ob wir unser Vertrauen angemessen und mit offenen Augen setzen.

Darauf können Sie mir vertrauen.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/