KI-Ethik und autonome Systeme, die aus dem letzten Alaska-Airlines-Flug gelernt wurden, bei dem der Pilot und der Co-Pilot vor dem Start uneins waren und sich abrupt dafür entschieden, zum Terminal zurückzurollen und getrennte Wege zu gehen

Fluggesellschaften waren in letzter Zeit ziemlich oft in den Nachrichten.

Wir befinden uns mitten im Flugstress im Sommer. Müde und frustrierte Passagiere sehen sich mit allen möglichen Flugunterbrechungen und Verzerrungen der Flugpläne konfrontiert. Flüge werden unerwartet storniert. Flüge haben Verspätung. Passagiere rauchen. Es gab leider viele Fälle von Passagieren, die diesen Ärger ausbrechen ließen, und wir haben erbärmlicherweise viel zu viele virale Videos von Kopf-an-Kopf-Konfrontationen und manchmal brutalen Handgreiflichkeiten gesehen.

Seltener erfahren wir von Streitigkeiten zwischen einem Piloten und einem Copiloten, die im Cockpit auftreten können.

Das ist eine ziemliche Überraschung.

In der Tat sind wir natürlich verblüfft, wenn wir glauben, dass ein Pilot und ein Copilot in jeder Phase eines Fluges den Anschein einer ernsthaften Meinungsverschiedenheit haben würden. Bezieht sich die Meinungsverschiedenheit darauf, welche Kaffeesorte die beste ist, gehen wir davon aus, dass dies den Arbeitsaufwand für das Fliegen des Flugzeugs nicht beeinträchtigen würde. Die beiden würden einfach ihren Mangel an Augenkontakt zu einem scheinbar flugirrelevanten Thema abtun. Ihr professionelles Auftreten und ihre langjährige Pilotenausbildung würden sich bemerkbar machen und sie würden sich wieder auf die Flugdetails konzentrieren.

Bedenken Sie jedoch, wann a berufliche Meinungsverschiedenheiten greift ein.

Ich werde Ihnen kurz eine Nachricht mitteilen, die weit verbreitet ist über einen kürzlichen Vorfall von etwas, das während eines Fluges in den USA passiert ist und sich auf eine behauptete berufliche Meinungsverschiedenheit im Cockpit bezieht.

Dies wird hier hauptsächlich zitiert, damit wir ein verwandtes Thema untersuchen können, das für das Aufkommen der künstlichen Intelligenz (KI) von großer Bedeutung ist. Sie sehen, es kann eine Form von, sagen wir, beruflichen Meinungsverschiedenheiten zwischen nicht nur Menschen in einer Meinungsverschiedenheit von Mensch zu Mensch geben, aber wir können auch etwas Ähnliches inmitten der Einführung von KI und daraus resultierenden beruflichen Meinungsverschiedenheiten zwischen Mensch und KI haben . Alle möglichen KI-Ethik-Überlegungen tauchen auf. Für meine ausführliche und laufende Berichterstattung über KI-Ethik und ethische KI-Themen siehe den Link hier und den Link hier, nur ein paar zu nennen.

Machen Sie sich bereit für eine faszinierende Geschichte.

Wie kürzlich in den Nachrichten berichtet wurde, kam es offenbar während eines Fluges der Alaska Airline, der von Washington nach San Francisco ging, zu einem Fall von „beruflicher Meinungsverschiedenheit“. Laut den Nachrichtenberichten hatte sich der Flug vom Gate entfernt und wartete auf dem Rollfeld auf die Erlaubnis zum Rollen und Abfliegen. Ein Sturm war im Gange und führte zu einer Flugverspätung von mehr als anderthalb Stunden. Es stellte sich heraus, dass das Flugzeug schließlich umdrehte und zum Gate zurückflog, was einige der Passagiere normalerweise für eine sturmbedingte Sicherheitsvorkehrung gehalten hätten.

Laut verschiedenen Tweets scheint es, dass der Pilot und der Copilot während ihrer Zeit dort im Cockpit eine Art Fehde außerhalb der Sichtweite hatten und irgendwie zu dem Schluss kamen, dass der umsichtigste Ansatz darin bestehen würde, den Flug zu schrubben und zum Terminal zurückzukehren . Tweets deuteten darauf hin, dass der Kapitän und der Erste Offizier offenbar nicht miteinander auskommen könnten. Die Fluggesellschaft gab später eine Erklärung ab, dass die Situation unglücklich war (die Situation wurde nicht explizit angegeben oder per se erklärt), die beiden Flugoffiziere wurden vom Management bewertet und als flugfähig befunden, die Besatzungen wurden ausgetauscht und der Flug fand schließlich statt und erreichte später San Francisco.

In gewissem Sinne sollten diese Passagiere entlastet werden, wenn Pilot und Copilot tatsächlich eine berufliche Meinungsverschiedenheit darüber hatten, ob das Flugzeug angemessen zum Abheben bereit war oder ob das Risiko, durch einen Sturm zu fliegen, in einem angemessenen Sicherheitsbereich lag dankbar, dass das Flugzeug zum Gate zurückgebracht wurde. Lieber sicher sein, als dass es einem Leid tut. Eine zusätzliche Verspätung ist die mutmaßliche Verringerung der Risiken wert, die mit einer als holprig oder ungünstig eingestuften Flugreise verbunden sind.

Einige Leute mögen überrascht sein, dass eine solche professionelle Meinungsverschiedenheit entstehen kann.

Wir haben vielleicht den falschen Eindruck, dass alles, was im Cockpit passiert, absolut präzise und gut gescriptet ist. Alle Formen menschlicher Diskretion wurden scheinbar aus dem Prozess herausgewrungen. Basierend auf anspruchsvollen und sorgfältig berechneten Karten ist ein Flug entweder in Ordnung oder nicht. Es kann keine Meinungsverschiedenheiten geben, wenn angenommen wird, dass das gesamte Kit und Caboodle auf einem unwiderlegbaren Kalkül von Fakten und Zahlen basiert.

Das ist nicht die ganze Wahrheit. Sicher, es gibt eine Menge Protokolle und alle Arten von Checks and Balances, aber das drückt nicht das ganze Jota des menschlichen Urteilsvermögens aus. Piloten und Copiloten üben immer noch menschliches Urteilsvermögen aus. Glücklicherweise wird dieses menschliche Urteilsvermögen durch jahrelanges Fliegen geschärft. Die Chancen stehen gut, dass ein Pilot und Kopilot in einem kommerziellen Passagierflugzeug über reichlich vorherige Flugerfahrung verfügen und ihre langjährige gründliche Argumentation und Urteilskraft, die mit der Arbeit an der Flugsteuerung verbunden sind, leicht nutzen kann.

Angesichts der bemerkenswerten Rolle des menschlichen Urteilsvermögens können wir logischerweise davon ausgehen, dass ein Pilot und ein Copilot manchmal berufliche Meinungsverschiedenheiten haben werden. Meistens gibt es vermutlich sehr wenig solcher Meinungsverschiedenheiten. Die Piloten und Copiloten für Alltagsflüge dürften zum überwiegenden Teil gut auf die Zeit abgestimmt sein. Nur wenn ein Flugszenario die konventionellen Grenzen überschreiten könnte, würden wir mit stärkeren Spannungen rechnen.

Wenn es eine starke Meinungsverschiedenheit zwischen den beiden gibt, wage ich zu sagen, dass wir wollen, dass sie es ausdiskutieren.

Stellen Sie sich eine Situation vor, in der der Pilot unbedingt weiterfahren möchte, der Copilot jedoch das Risiko als zu hoch einschätzt. Lediglich den Kopiloten vor dem Piloten nicken zu lassen, erscheint unerwünscht. Der Copilot ist ein Check-and-Balance für das, woran ein Pilot denken könnte. Für diejenigen, die wollen, dass ein Copilot die Klappe hält und nur gedankenlos handelt, was der Pilot beschließt, nun, das ist keine große Beruhigung. Ein Copilot ist nicht einfach ein Ersatzpilot, der erst dann ins Spiel kommt, wenn der Pilot völlig handlungsunfähig ist. Das ist ein falsches Verständnis davon, wie wichtig es ist, einen Piloten und einen Copiloten im Cockpit zu haben.

Dazu kommt noch der andere Aspekt.

Stellen Sie sich den Fall eines Piloten vor, der nicht glaubt, dass ein Flug fortgesetzt werden sollte, und währenddessen der Copilot begeistert davon ist, in die Luft zu kommen. Was dann? Durch die erwartete Hierarchie soll sich der Pilot konventionell gegenüber dem Copiloten durchsetzen. Die zugewiesene Rolle, der Hauptverantwortliche zu sein, macht den Piloten zum Größeren dessen, was ansonsten einigermaßen gleich ist. Normalerweise hat der Pilot insgesamt mehr Flugzeiterfahrung als der Copilot, und ergo muss der Copilot hierarchisch den Wünschen des Piloten nachgeben (wenn dies im Rahmen des Zumutbaren ist).

Auf jeden Fall sind wir uns alle einig, dass die Entscheidung, nicht zu fliegen, sicherlich weniger riskant ist als die Entscheidung, zu fliegen. Sobald das Flugzeug in der Luft ist, wird das Risiko im Vergleich zu einem gewöhnlichen stabilen Boden enorm. Ein gewöhnlicher Linienflug, der einfach zum Terminal zurückrollt, ohne in die Luft gestiegen zu sein, wäre eine ziemlich einvernehmliche Lösung für jede hitzige und erbitterte Debatte über das Fliegen.

Lassen Sie uns den Gang wechseln und diese spunkige Nachricht für einen ganz anderen, aber zuordenbaren Zweck verwenden.

Wir haben allmählich eine Verbreitung von KI-basierten autonomen Systemen unter uns. Manchmal führt die KI sozusagen die Show. Die KI erledigt alles von A bis Z, und wir könnten dies als vollständig autonome oder nahezu autonome KI auffassen. In anderen Fällen können wir KI haben, die mit einem „Human-in-the-Loop“ interagiert und bis zu einem gewissen Grad darauf angewiesen ist.

Ich möchte mich auf das Thema eines KI-basierten autonomen oder teilautonomen Systems konzentrieren, das von Anfang an einen Menschen in der Schleife hat. Die KI und der Mensch werden absichtlich zusammengeschoben und sollen zusammenarbeiten. Sie sind Kohorten bei der Durchführung einer bestimmten Aufgabe. Die KI allein soll die Aufgabe nicht ausführen. Die KI muss mit dem designierten Human-in-the-Loop interagieren.

Ich erwähne diese Charakterisierung, um sie von Situationen zu unterscheiden, in denen der Mensch-in-der-Loop als optionale Facette betrachtet wird. Im Wesentlichen wird der KI freie Hand gelassen. Wenn sich die KI dafür entscheidet, den Menschen zu nutzen, sei es so. Es ist nicht erforderlich, dass die KI mit dem designierten Menschen Kontakt aufnehmen oder Hand in Hand mit ihm arbeiten muss. Die Analysen, die ich gleich erzählen werde, sind sicherlich für diese Art von relevant optional Interaktionsanordnung, aber das ist nicht das, worauf ich in dieser speziellen Diskussion speziell hinaus will.

Okay, wir haben also eine Art Aufgabe, an der ein Mensch und eine KI zusammenarbeiten werden, untrennbar voneinander. Im abstrakten Sinne haben wir auf dem einen Sitz einen Menschen und auf dem anderen Begleitsitz ein KI-System. Ich sage das frech, weil wir diese Diskussion nicht auf einen Roboter zum Beispiel beschränken, der tatsächlich auf einem Sitz sitzen könnte. Ich spiele metaphorisch auf die Vorstellung an, dass die KI irgendwo an der Aufgabe beteiligt ist und der Mensch auch. Physisch ist ihr Aufenthaltsort für die Diskussion nicht besonders wichtig.

Möglicherweise sind Sie sich nicht sicher, wann ein solcher Umstand eintreten könnte.

Kinderleicht.

Ich werde später auf das Aufkommen autonomer Fahrzeuge und selbstfahrender Autos eingehen. Auf bestimmten Ebenen der Autonomie sollen die KI und der Mensch zusammenarbeiten. Die KI könnte das Auto fahren und verlangen, dass der Mensch die Fahrsteuerung übernimmt. Der Mensch könnte das Auto fahren und die KI aktivieren, um die Steuerung zu übernehmen. Sie wechseln sich an der Fahrsteuerung ab.

Darüber hinaus ist die KI bei einigen Designs im Wesentlichen die ganze Zeit aktiv (oder, sofern nicht ausgeschaltet), sodass die KI immer bereit ist. Darüber hinaus könnte die KI je nach der sich entwickelnden Situation direkt eingreifen, auch ohne dass der Mensch darum bittet. Angenommen, der Mensch scheint am Steuer eingeschlafen zu sein. Da der Mensch die KI anscheinend nicht aktivieren kann (weil die Person schläft), könnte die KI so programmiert sein, dass sie die Steuerung vom Menschen übernimmt.

Einige Designs bringen die KI und den Menschen in einen dualen Fahransatz. Die KI fährt und der Mensch fährt. Oder, wenn Sie es vorziehen, der Mensch fährt und die KI fährt auch. Sie fahren jeweils das Fahrzeug. Ich vergleiche das mit diesen speziell ausgerüsteten Autos, die Sie vielleicht beim Fahrtraining benutzt haben, und es gab zwei Sätze von Fahrsteuerungen im Fahrzeug, einen für den Fahrschüler und einen für den Fahrlehrer.

Dies ist nur ein Beispiel für eine Umgebung, in der KI und Menschen möglicherweise gemeinsam an einer Aufgabe arbeiten. Es gibt alle möglichen Möglichkeiten. Andere Arten von autonomen Fahrzeugen könnten ähnlich entwickelt werden, wie Flugzeuge, Drohnen, Tauchboote, Überwasserschiffe, Züge und so weiter. Wir müssen nicht nur Fahrzeug- und Transporteinstellungen berücksichtigen. Stellen Sie sich den medizinischen Bereich und Operationen vor, die gemeinsam von einem Arzt und einem KI-System durchgeführt werden. Die Liste ist endlos.

Fast möchte ich mich auf den klassisch lärmenden Witz über einen Menschen und eine KI beziehen, die zusammen in eine Bar gehen. Es ist ein ziemlicher Lacher für diejenigen, die sich für KI interessieren.

Im Ernst, kehren wir zum Fokus eines Menschen und eines KI-Systems zurück, die an einer bestimmten Aufgabe zusammenarbeiten. Erstens möchte ich vermeiden, die KI zu vermenschlichen, was ich durchweg betonen werde. Die KI ist nicht empfindungsfähig. Bitte denken Sie daran.

Hier etwas zum Nachdenken: Wird ein ausgewiesener Human-in-the-Loop immer vollkommen mit einer KI im Team übereinstimmen?

Bei jeder komplexen Aufgabe erscheint es unwahrscheinlich, dass der Mensch und die KI vollständig und immer vollständig im Einklang stehen. Der Mensch wird möglicherweise manchmal mit der KI nicht einverstanden sein. Wir können diese Annahme bis zur Bank mitnehmen.

Ich möchte Sie bitten, auch diese vielleicht überraschende Möglichkeit in Betracht zu ziehen: Wird die KI mit einem designierten Human-in-the-Loop immer völlig einverstanden sein?

Auch hier scheint es bei jeder komplexen Aufgabe durchaus vorstellbar, dass die KI in einigen Fällen nicht mit dem Menschen einverstanden ist. Wenn Sie bereits zu der Vorstellung neigen, dass KI immer falsch liegen muss, während Menschen immer Recht haben müssen, sollten Sie diese voreilige Schlussfolgerung noch einmal überdenken. Stellen Sie sich ein Auto vor, in dem ein Mensch und eine KI gemeinsam das halbautonome Fahrzeug fahren. Der Mensch steuert auf eine Mauer zu. Wieso den? Wir wissen es nicht, vielleicht ist der Mensch betrunken oder eingeschlafen, aber wir wissen, dass es keine gute Idee ist, gegen eine Mauer zu krachen, wenn alle anderen gleich sind. Die KI könnte die bevorstehende Katastrophe erkennen und versuchen, von der bevorstehenden Barriere wegzusteuern.

Alles in allem werden wir die eindeutige Möglichkeit haben, dass die KI und der Mensch nicht miteinander übereinstimmen. Die andere Art, dasselbe zu sagen, ist, dass Menschen und KI sind sich nicht einig. Beachten Sie, dass ich nicht möchte, dass die Abfolge von KI-und-Mensch versus Mensch-und-KI irgendetwas über die Richtung oder Plausibilität der Meinungsverschiedenheit suggeriert.

Die beiden Arbeiter, ein Mensch und einer, der KI ist, sind sich nicht einig.

Wir könnten im Voraus erklären, dass wir immer dann, wenn eine Meinungsverschiedenheit zwischen einer bestimmten KI und einem bestimmten Menschen auftritt, im Voraus verkünden, dass der Mensch über die KI siegt. Davon abgesehen scheint uns mein anschauliches Beispiel vom Auto, das gegen eine Mauer fährt, davon abzubringen, dass der Mensch zwangsläufig immer Recht haben muss.

Wir könnten uns dagegen dafür entscheiden, im Voraus zu erklären, dass wir bei jeder Meinungsverschiedenheit im Voraus festgestellt haben, dass die KI Recht und der Mensch Unrecht hat. Auch dies ist keine sinnvoll verallgemeinerbare Bestimmung. Stellen Sie sich ein Auto vor, in dem die KI einen eingebetteten Softwarefehler oder -fehler aufweist und die KI versucht, das Fahrzeug von der Straße in einen Graben zu lenken. Unter der Annahme, dass alles andere gleich ist, sollte der Mensch in der Lage sein, diese KI-Fahraktion zu überwinden und zu verhindern, dass das Fahrzeug in der Rinne landet.

Lassen Sie uns dies kurz zusammenfassen:

  • Wird ein Human-in-the-Loop immer voll und ganz mit KI einverstanden sein? Antworten: Nein.
  • Wird KI mit einem Human-in-the-Loop immer völlig einverstanden sein? Antworten: Nein.
  • Wird ein Human-in-the-Loop im Vergleich zu KI immer Recht haben? Antworten: Nicht unbedingt.
  • Wird die KI im Vergleich zum Human-in-the-Loop immer Recht haben? Antwort: Nicht unbedingt.

Sie können die KI sicherlich so einrichten, dass sie standardmäßig als die „falsche“ oder schwächere Partei betrachtet wird und sich daher immer dem Menschen zuwendet, wenn eine Meinungsverschiedenheit auftritt. Ebenso können Sie die KI so einrichten, dass sie davon ausgeht, dass die KI als „richtig“ betrachtet wird, wenn ein Mensch mit der KI nicht einverstanden ist. Ich möchte klarstellen, dass wir dies programmatisch tun können, wenn wir dies wünschen. Ich behaupte jedoch, dass dies im Allgemeinen nicht immer der Fall sein wird. Es gibt sicherlich Situationen, in denen wir nicht im Voraus wissen, ob die KI „Recht“ oder der Mensch „Recht“ hat, wenn es darum geht, sich bei einer Meinungsverschiedenheit in Bezug auf eine bestimmte Aufgabe für das eine oder andere zu entscheiden.

Ich habe Sie zu einer sehr wichtigen und höchst komplizierten Frage geführt.

Was sollten wir tun, wenn es zwischen dem Human-in-the-Loop und der KI zu einer beruflichen Meinungsverschiedenheit kommt (oder wir können dies äquivalent als zwischen der KI und dem Human-in-the-Loop ausdrücken)?

Versuchen Sie nicht, der Frage auszuweichen.

Einige mögen argumentieren, dass dies niemals passieren würde, aber wie ich in meinem Beispiel über das Auto dargelegt habe, könnte es sicherlich passieren. Einige mögen argumentieren, dass ein Mensch offensichtlich überlegen ist und der Gewinner jeder Meinungsverschiedenheit sein muss. Mein Beispiel mit dem Auto und der Ziegelmauer schlägt diese ein. Es gibt KI-Befürworter, die darauf bestehen könnten, dass KI der Gewinner sein muss, weil sie angeblich menschliche Emotionen und mutwilliges Denken dieser willkürlichen, verschwommen denkenden Menschen überwindet. Noch einmal, mein anderes Beispiel, bei dem das Auto in den Graben fährt, untergräbt diese Behauptung.

In der realen Welt werden sich KI und Menschen nicht einig sein, selbst wenn die beiden absichtlich in eine Teamsituation gebracht werden, um eine gemeinsam übernommene Aufgabe zu erfüllen. Es wird passieren. Wir können nicht den Kopf in den Sand stecken und so tun, als würde es nicht passieren.

Wir haben gesehen, dass die Menschen, die das Flugzeug steuerten, offenbar in Meinungsverschiedenheiten gerieten. Zum Glück stimmten sie zu, anderer Meinung zu sein, so scheint es. Sie brachten das Flugzeug zurück zum Terminal. Sie fanden einen Weg, um mit der Meinungsverschiedenheit umzugehen. Die Lösung ihrer Meinungsverschiedenheit funktionierte gut, im Vergleich dazu, ob sie vielleicht im Cockpit zu Faustschlägen gegangen oder vielleicht in die Luft geflogen wären und weiterhin kämpferisch miteinander gewesen wären. Das ist ein trauriges Szenario, das unhaltbar ist, und wir können dankbar sein, dass es nicht eingetreten ist.

Gestatten Sie mir, meine Liste der verschiedenen Möglichkeiten bereitzustellen, wie die Meinungsverschiedenheiten zwischen KI und Human-in-the-Loop (oder Human-in-the-Loop und KI) gelöst werden könnten:

  • Die KI und der zusammengeschlossene Mensch klären die Dinge (einvernehmlich oder nicht)
  • Der Mensch hat standardmäßig Vorrang vor der KI
  • KI hat standardmäßig Vorrang vor dem Menschen
  • Standardmäßig hat eine andere vorgegebene feste Auflösung Vorrang
  • Ein dritter Mensch wird eingeschleift und seine Angabe hat Vorrang vor den Parteien
  • Drittanbieter-KI wird eingeschleift und ihre Anzeige hat Vorrang vor den Parteien
  • Der fremde Mensch ersetzt den bestehenden Menschen, die Dinge gehen von neuem weiter
  • KI von Drittanbietern ersetzt die bestehende KI, die Dinge gehen von neuem
  • Fremder Mensch ersetzt bestehende KI, Dinge laufen neu (jetzt Mensch-zu-Mensch)
  • KI von Drittanbietern ersetzt den vorhandenen Menschen, die Dinge gehen neu (jetzt AI-to-AI)
  • Andere

Diese sind es reichlich wert, ausgepackt zu werden.

Bevor wir uns weiter mit den wilden und wolligen Überlegungen befassen, die dem Umgang mit KI und menschlichen Meinungsverschiedenheiten zugrunde liegen, lassen Sie uns einige zusätzliche Grundlagen zu zutiefst wesentlichen Themen darlegen. Wir müssen kurz in die KI-Ethik und insbesondere in das Aufkommen von Machine Learning (ML) und Deep Learning (DL) eintauchen.

Sie sind sich vielleicht vage bewusst, dass eine der lautesten Stimmen heutzutage im KI-Bereich und sogar außerhalb des KI-Bereichs darin besteht, nach einem größeren Anschein von ethischer KI zu schreien. Werfen wir einen Blick darauf, was es bedeutet, sich auf KI-Ethik und ethische KI zu beziehen. Darüber hinaus werden wir untersuchen, was ich meine, wenn ich von Machine Learning und Deep Learning spreche.

Ein bestimmtes Segment oder Teil der KI-Ethik, das in den Medien viel Aufmerksamkeit erregt hat, besteht aus KI, die ungünstige Vorurteile und Ungerechtigkeiten aufweist. Sie wissen vielleicht, dass es zu Beginn der jüngsten Ära der KI einen riesigen Ausbruch von Enthusiasmus für das gab, was manche heute nennen KI für immer. Unglücklicherweise begannen wir nach dieser sprudelnden Aufregung, Zeuge zu werden KI für schlecht. Beispielsweise wurde festgestellt, dass verschiedene KI-basierte Gesichtserkennungssysteme rassistische Vorurteile und geschlechtsspezifische Vorurteile enthalten, die ich unter besprochen habe den Link hier.

Bemühungen, sich dagegen zu wehren KI für schlecht sind aktiv unterwegs. Außer lautstark legal Neben dem Streben, das Fehlverhalten einzudämmen, gibt es auch einen substanziellen Drang, die KI-Ethik anzunehmen, um die KI-Abscheulichkeit zu korrigieren. Die Vorstellung ist, dass wir wichtige ethische KI-Prinzipien für die Entwicklung und den Einsatz von KI annehmen und unterstützen sollten, um dies zu unterbieten KI für schlecht und gleichzeitig das Vorzuziehende ankündigen und fördern KI für immer.

In einem ähnlichen Zusammenhang bin ich ein Befürworter des Versuchs, KI als Teil der Lösung von KI-Problemen einzusetzen und Feuer mit Feuer in dieser Denkweise zu bekämpfen. Wir könnten zum Beispiel ethische KI-Komponenten in ein KI-System einbetten, das überwacht, wie der Rest der KI Dinge tut, und so potenziell diskriminierende Bemühungen in Echtzeit erkennen, siehe meine Diskussion unter den Link hier. Wir könnten auch ein separates KI-System haben, das als eine Art KI-Ethikmonitor fungiert. Das KI-System dient als Aufseher, um zu verfolgen und zu erkennen, wann eine andere KI in den unethischen Abgrund geht (siehe meine Analyse solcher Fähigkeiten unter den Link hier).

Ich werde Ihnen gleich einige übergreifende Prinzipien vorstellen, die der KI-Ethik zugrunde liegen. Hier und da schwirren viele solcher Listen herum. Man könnte sagen, dass es noch keine einzige Liste universeller Anziehungskraft und Übereinstimmung gibt. Das ist die traurige Nachricht. Die gute Nachricht ist, dass es zumindest leicht verfügbare KI-Ethik-Listen gibt, und sie neigen dazu, ziemlich ähnlich zu sein. Alles in allem deutet dies darauf hin, dass wir durch eine Art vernünftiger Konvergenz unseren Weg zu einer allgemeinen Gemeinsamkeit dessen finden, woraus KI-Ethik besteht.

Lassen Sie uns zunächst kurz einige der allgemeinen ethischen KI-Vorschriften behandeln, um zu veranschaulichen, was für jeden, der KI herstellt, einsetzt oder verwendet, eine wichtige Überlegung sein sollte.

Zum Beispiel, wie vom Vatikan in der angegeben Rom fordert KI-Ethik und wie ich ausführlich unter behandelt habe den Link hier, dies sind ihre identifizierten sechs primären KI-Ethikprinzipien:

  • Transparenz: Grundsätzlich müssen KI-Systeme erklärbar sein
  • Inklusion: Die Bedürfnisse aller Menschen müssen berücksichtigt werden, damit alle davon profitieren und allen Menschen die bestmöglichen Bedingungen geboten werden, sich zu entfalten und zu entwickeln
  • Verantwortung: Wer den Einsatz von KI gestaltet und einsetzt, muss verantwortungsbewusst und transparent vorgehen
  • Unparteilichkeit: Schaffen oder handeln Sie nicht nach Vorurteilen, um Fairness und Menschenwürde zu wahren
  • Zuverlässigkeit: KI-Systeme müssen zuverlässig arbeiten können
  • Sicherheit und Privatsphäre: KI-Systeme müssen sicher funktionieren und die Privatsphäre der Nutzer respektieren.

Wie vom US-Verteidigungsministerium (DoD) in ihrem angegeben Ethische Grundsätze für den Einsatz künstlicher Intelligenz und wie ich ausführlich unter behandelt habe den Link hier, dies sind ihre sechs primären KI-Ethikprinzipien:

  • Verantwortlich: Das DoD-Personal wird ein angemessenes Maß an Urteilsvermögen und Sorgfalt walten lassen und gleichzeitig für die Entwicklung, den Einsatz und die Nutzung von KI-Fähigkeiten verantwortlich bleiben.
  • Gerecht: Das Ministerium wird gezielte Schritte unternehmen, um unbeabsichtigte Verzerrungen bei den KI-Fähigkeiten zu minimieren.
  • Rückverfolgbar: Die KI-Fähigkeiten der Abteilung werden so entwickelt und eingesetzt, dass das relevante Personal über ein angemessenes Verständnis der Technologie, der Entwicklungsprozesse und der auf KI-Fähigkeiten anwendbaren Betriebsmethoden verfügt, einschließlich transparenter und überprüfbarer Methoden, Datenquellen sowie Entwurfsverfahren und -dokumentation.
  • Zuverlässig: Die KI-Fähigkeiten des Ministeriums werden explizite, genau definierte Verwendungszwecke haben, und die Sicherheit und Wirksamkeit solcher Fähigkeiten werden innerhalb dieser definierten Verwendungszwecke über ihren gesamten Lebenszyklus hinweg getestet und sichergestellt.
  • Regierbar: Die Abteilung wird KI-Fähigkeiten entwerfen und entwickeln, um ihre beabsichtigten Funktionen zu erfüllen und gleichzeitig unbeabsichtigte Folgen zu erkennen und zu vermeiden sowie eingesetzte Systeme, die ein unbeabsichtigtes Verhalten zeigen, zu deaktivieren oder zu deaktivieren.

Ich habe auch verschiedene kollektive Analysen der KI-Ethikprinzipien diskutiert, einschließlich der Behandlung einer Reihe von Forschern, die die Essenz zahlreicher nationaler und internationaler KI-Ethiklehrsätze in einem Papier mit dem Titel „The Global Landscape Of AI Ethics Guidelines“ (veröffentlicht in Natur), und die meine Berichterstattung unter untersucht den Link hier, was zu dieser Keystone-Liste führte:

  • Transparenz
  • Gerechtigkeit & Fairness
  • Nicht-Maleficence
  • Verantwortung
  • Datenschutz
  • Wohltätigkeit
  • Freiheit & Autonomie
  • Vertrauen
  • Nachhaltigkeit
  • Würde
  • Solidarität

Wie Sie vielleicht direkt erraten, kann es äußerst schwierig sein, die diesen Prinzipien zugrunde liegenden Besonderheiten festzunageln. Darüber hinaus ist der Versuch, diese allgemeinen Prinzipien in etwas völlig Greifbares und Detailliertes umzuwandeln, das für die Herstellung von KI-Systemen verwendet werden kann, eine harte Nuss, die es zu knacken gilt. Es ist einfach, mit der Hand zu winken, was KI-Ethikregeln sind und wie sie allgemein eingehalten werden sollten, während es eine viel kompliziertere Situation ist, wenn die KI-Codierung der wahre Gummi sein muss, der auf die Straße trifft.

Die KI-Ethik-Prinzipien müssen von KI-Entwicklern zusammen mit denjenigen angewendet werden, die die KI-Entwicklungsbemühungen verwalten, und sogar von denjenigen, die letztendlich KI-Systeme einsetzen und warten. Alle Beteiligten während des gesamten KI-Lebenszyklus der Entwicklung und Nutzung werden im Rahmen der Einhaltung der etablierten Normen der ethischen KI berücksichtigt. Dies ist ein wichtiges Highlight, da die übliche Annahme ist, dass „nur Programmierer“ oder diejenigen, die die KI programmieren, den Grundsätzen der KI-Ethik unterliegen. Wie bereits erwähnt, braucht es ein Dorf, um KI zu entwickeln und einzusetzen, und dafür muss das gesamte Dorf mit den KI-Ethikvorschriften vertraut sein und sich an diese halten.

Lassen Sie uns auch sicherstellen, dass wir uns bezüglich der Natur der heutigen KI auf derselben Seite befinden.

Es gibt heute keine KI, die empfindungsfähig ist. Wir haben das nicht. Wir wissen nicht, ob empfindungsfähige KI möglich sein wird. Niemand kann treffend vorhersagen, ob wir eine empfindungsfähige KI erreichen werden oder ob die empfindungsfähige KI irgendwie auf wundersame Weise spontan in einer Form einer rechnergestützten kognitiven Supernova entstehen wird (normalerweise als Singularität bezeichnet, siehe meine Berichterstattung unter den Link hier).

Die Art von KI, auf die ich mich konzentriere, besteht aus der nicht-empfindungsfähigen KI, die wir heute haben. Wollten wir wild darüber spekulieren empfindungsfähig AI, diese Diskussion könnte in eine radikal andere Richtung gehen. Eine empfindungsfähige KI wäre angeblich von menschlicher Qualität. Sie müssten bedenken, dass die empfindungsfähige KI das kognitive Äquivalent eines Menschen ist. Mehr noch, da einige spekulieren, dass wir eine superintelligente KI haben könnten, ist es denkbar, dass eine solche KI am Ende klüger als Menschen sein könnte (zu meiner Erforschung einer superintelligenten KI als Möglichkeit siehe die Berichterstattung hier).

Lassen Sie uns die Dinge bodenständiger halten und die heutige rechnerische, nicht-empfindungsfähige KI betrachten.

Machen Sie sich bewusst, dass die heutige KI nicht in der Lage ist, in irgendeiner Weise auf Augenhöhe mit dem menschlichen Denken zu „denken“. Wenn Sie mit Alexa oder Siri interagieren, scheinen die Konversationsfähigkeiten den menschlichen Fähigkeiten ähnlich zu sein, aber die Realität ist, dass sie rechnerisch ist und menschliche Kognition fehlt. Die jüngste Ära der KI hat in großem Umfang maschinelles Lernen (ML) und Deep Learning (DL) genutzt, die den rechnergestützten Musterabgleich nutzen. Dies hat zu KI-Systemen geführt, die den Anschein menschenähnlicher Neigungen erwecken. In der Zwischenzeit gibt es heute keine KI, die einen Anschein von gesundem Menschenverstand hat und auch nicht über die kognitive Verwunderung robusten menschlichen Denkens verfügt.

ML/DL ist eine Form des computergestützten Musterabgleichs. Der übliche Ansatz besteht darin, dass Sie Daten zu einer Entscheidungsaufgabe zusammenstellen. Sie speisen die Daten in die ML/DL-Computermodelle ein. Diese Modelle versuchen, mathematische Muster zu finden. Nachdem solche Muster gefunden wurden, verwendet das KI-System diese Muster, wenn es auf neue Daten stößt. Bei der Präsentation neuer Daten werden die auf den „alten“ oder historischen Daten basierenden Muster angewendet, um eine aktuelle Entscheidung zu treffen.

Ich denke, Sie können sich vorstellen, wohin das führt. Wenn Menschen, die die nach dem Muster getroffenen Entscheidungen getroffen haben, ungünstige Vorurteile eingebaut haben, stehen die Chancen gut, dass die Daten dies auf subtile, aber signifikante Weise widerspiegeln. Machine Learning oder Deep Learning Computational Pattern Matching versucht einfach, die Daten entsprechend mathematisch nachzuahmen. Es gibt keinen Anschein von gesundem Menschenverstand oder anderen empfindungsfähigen Aspekten der von KI erstellten Modellierung per se.

Darüber hinaus erkennen die KI-Entwickler möglicherweise auch nicht, was vor sich geht. Die obskure Mathematik in der ML/DL könnte es schwierig machen, die jetzt verborgenen Vorurteile aufzuspüren. Sie würden zu Recht hoffen und erwarten, dass die KI-Entwickler auf die potenziell vergrabenen Vorurteile testen würden, obwohl dies schwieriger ist, als es scheinen mag. Es besteht eine solide Chance, dass selbst bei relativ umfangreichen Tests immer noch Verzerrungen in den Mustererkennungsmodellen der ML/DL eingebettet sind.

Sie könnten das berühmte oder berüchtigte Sprichwort von Garbage-in-Garbage-out verwenden. Die Sache ist die, dass dies eher Vorurteilen ähnelt, die heimtückisch als Vorurteile in die KI einfließen. Die algorithmische Entscheidungsfindung (ADM) der KI wird zwangsläufig mit Ungerechtigkeiten beladen.

Nicht gut.

Kehren wir zu unserem Fokus auf Meinungsverschiedenheiten zwischen KI und einem Menschen zurück.

Ich habe zuvor darauf hingewiesen, dass dies einige der Strategien zur Lösung von Meinungsverschiedenheiten sind:

  • Die KI und der zusammengeschlossene Mensch klären die Dinge (einvernehmlich oder nicht)
  • Der Mensch hat standardmäßig Vorrang vor der KI
  • KI hat standardmäßig Vorrang vor dem Menschen
  • Standardmäßig hat eine andere vorgegebene feste Auflösung Vorrang
  • Ein dritter Mensch wird eingeschleift und seine Angabe hat Vorrang vor den Parteien
  • Drittanbieter-KI wird eingeschleift und ihre Anzeige hat Vorrang vor den Parteien
  • Der fremde Mensch ersetzt den bestehenden Menschen, die Dinge gehen von neuem weiter
  • KI von Drittanbietern ersetzt die bestehende KI, die Dinge gehen von neuem
  • Fremder Mensch ersetzt bestehende KI, Dinge laufen neu (jetzt Mensch-zu-Mensch)
  • KI von Drittanbietern ersetzt den vorhandenen Menschen, die Dinge gehen neu (jetzt AI-to-AI)
  • Andere

Zeit, diese auszupacken.

Bedenken Sie zunächst, dass es hier um alles geht Professionell Meinungsverschiedenheiten.

Eine berufliche Meinungsverschiedenheit wird grob als eine Meinungsverschiedenheit im Zusammenhang mit einer arbeitsbezogenen Aufgabe definiert.

Beispielsweise könnte eine Meinungsverschiedenheit zwischen einem Piloten und einem Copiloten darüber, ob ein Flug angesichts eines Sturms fortgesetzt werden soll, vernünftigerweise als berufliche Meinungsverschiedenheit bezeichnet werden. Im Gegensatz dazu wird eine heftige Meinungsverschiedenheit darüber, für welche Kaffeemarke der Pilot plädiert und welche Marke der Copilot bevorzugt, in diesem speziellen Kontext leicht als nicht professionelle Meinungsverschiedenheit eingestuft.

Natürlich, wenn sich eine nicht-berufliche Meinungsverschiedenheit in eine berufliche Meinungsverschiedenheit einschleicht, könnten wir letztendlich an der nicht-beruflichen Meinungsverschiedenheit als vermuteter Quelle oder Funke für die berufliche Meinungsverschiedenheit interessiert sein. Stellen Sie sich vor, ein Pilot und ein Copilot streiten erbittert darüber, welche Kaffeesorte die beste ist, was dann leider in flugspezifische Bedenken (Wortspiel!) übergeht, z. B. ob sie abheben sollen oder nicht.

Zweitens müssen wir das Ausmaß der beruflichen Meinungsverschiedenheiten im Auge behalten.

Vielleicht der Pilot und der Copilot oder in leichter Meinungsverschiedenheit darüber, weiter zu fliegen. Sie befinden sich nicht im Streit und erwägen lediglich die Vor- und Nachteile, ob sie abheben sollen. Dies ist nicht das Kaliber oder Ausmaß einer professionellen Meinungsverschiedenheit, die wir hier üblicherweise berücksichtigen. Die Sache ist, dass es sein kann, dass die berufliche Meinungsverschiedenheit vorübergehend ist und beide Parteien freundlich oder zumindest zeitnah eine Lösung erarbeiten. Im Allgemeinen konzentrieren sich die beruflichen Meinungsverschiedenheiten innerhalb des Geltungsbereichs auf diejenigen, die scheinbar hartnäckig sind, und die beiden Parteien bleiben standhaft in Meinungsverschiedenheiten.

Drittens muss normalerweise etwas ernsthaftes auf dem Spiel stehen, damit diese Richtlinien ins Spiel kommen.

Die Entscheidung zu fliegen oder nicht zu fliegen ist eine Entscheidung auf Leben und Tod, wenn der Flug aufgrund eines Sturms gefährdet ist oder das Flugzeug als nicht vollständig auf eine solche Reise vorbereitet gilt. Das ist eine ernste Angelegenheit. Wir können die Richtlinien immer noch auf die weniger einflussreichen beruflichen Meinungsverschiedenheiten anwenden, obwohl es mehr Mühe machen könnte, als es wert ist.

Okay, unsere Überlegungen sind folgende:

  • Die Meinungsverschiedenheit ist hauptsächlich beruflich orientiert und nicht über etwas Nicht-Professionelles
  • Die Meinungsverschiedenheit ist von anhaltender Natur und nicht nur vorübergehend oder anderweitig leicht zu lösen
  • Die Meinungsverschiedenheit sagt schwerwiegende Konsequenzen voraus und hat normalerweise ein wirkungsvolles Ergebnis
  • Die Parteien sind zerstritten und scheinen hartnäckig zu sein

Werfen wir nun einen genaueren Blick auf jede meiner vorgeschlagenen Richtlinien oder Ansätze zum Umgang mit solchen beruflichen Meinungsverschiedenheiten.

Die KI und der zusammengeschlossene Mensch klären die Dinge (einvernehmlich oder nicht)

Ich beginne die Liste mit der einfachen Möglichkeit, dass die KI und der Mensch in der Schleife in der Lage sind, die fachliche Meinungsverschiedenheit untereinander zu lösen. Es scheint, dass vielleicht das Beispiel der beiden Menschen, des Piloten und des Copiloten, diese Art von Umstand veranschaulicht. Sie beschlossen irgendwie, zum Terminal zurückzukehren und getrennte Wege zu gehen. Es könnte sein, dass ein KI-System und ein Mensch in der Lage sind, einen Lösungsansatz zu finden, der für beide Parteien im Allgemeinen zufriedenstellend ist, und die Angelegenheit somit zufriedenstellend abgeschlossen wird.

Der Mensch hat standardmäßig Vorrang vor der KI

Bei der Einrichtung der KI könnten wir eine Regel programmieren, die besagt, dass der Mensch in der Schleife immer Vorrang hat, wenn es zu einer beruflichen Meinungsverschiedenheit kommt. Dies wäre der explizit codierte Standardwert. Wir könnten auch eine Form der Überschreibung zulassen, nur für den Fall, obwohl die ständige Regel sein wird, dass der Mensch sich durchsetzt.

KI hat standardmäßig Vorrang vor dem Menschen

Wenn wir die KI einrichten, könnten wir eine Regel programmieren, die besagt, dass die KI immer Vorrang vor dem Human-in-the-Loop hat, wenn es zu einer beruflichen Meinungsverschiedenheit kommt. Dies ist die explizit codierte Standardeinstellung. Wir könnten auch eine Form der Überschreibung zulassen, nur für den Fall, obwohl die ständige Regel sein wird, dass die KI sich durchsetzt.

Standardmäßig hat eine andere vorgegebene feste Auflösung Vorrang

Wenn wir die KI einrichten, könnten wir eine Regel programmieren, die besagt, dass eine andere vorher festgelegte Lösung Vorrang hat, wenn es zu einer beruflichen Meinungsverschiedenheit mit dem Human-in-the-Loop kommt. Der Human-in-the-Loop setzt sich standardmäßig nicht durch. Die KI setzt sich standardmäßig nicht durch. Es gibt eine andere vorher festgelegte Auflösung. Zum Beispiel gibt es vielleicht das Werfen einer Münze, die verwendet wird, um zu entscheiden, welche der beiden Parteien als der richtige Weg angesehen wird. Das würde offensichtlich ziemlich willkürlich erscheinen; Ein weiterer beispielhafter Ansatz wäre also, dass eine spezialisierte Regel greift, die einen Wert basierend auf den Eingaben der beiden Parteien berechnet und als Tiebreaker zu einem Ergebnis kommt.

Ein dritter Mensch wird eingeschleift und seine Angabe hat Vorrang vor den Parteien

Bei einer beruflichen Meinungsverschiedenheit könnte eine Regel lauten, dass eine dritte Partei, die ein Mensch ist, angerufen und in die Umgebung eingebunden wird, um eine Entscheidung über die Beilegung der Meinungsverschiedenheit zu treffen. Die KI ist so programmiert, dass sie sich dem widersetzt, was der dritte Mensch entscheidet. Der Mensch, der sich bereits im Human-in-the-Loop befindet, wurde zuvor angewiesen, dass er sich in einer solchen Situation ebenfalls dem fremden Menschen zuwenden soll. Abgesehen davon können Sie wahrscheinlich davon ausgehen, dass der Human-in-the-Loop möglicherweise Angst davor hat, dem beizutreten, was auch immer der Mensch des Dritten entscheidet, wenn die Entscheidung nicht mit der Human-in-the-Loop-Haltung übereinstimmt.

Drittanbieter-KI wird eingeschleift und ihre Anzeige hat Vorrang vor den Parteien

Bei einer beruflichen Meinungsverschiedenheit könnte eine Regel lauten, dass ein Dritter, bei dem es sich um ein anderes KI-System handelt, aufgerufen und in die Umgebung eingeschleift wird, um eine Entscheidung über die Beilegung der Meinungsverschiedenheit zu treffen. Die ursprüngliche KI ist so programmiert, dass sie sich dem widersetzt, was die KI des Drittanbieters entscheidet. Der Mensch, der sich bereits im Human-in-the-Loop befindet, wurde zuvor angewiesen, dass er sich in einer solchen Situation ebenfalls auf die fremde KI verlassen soll. Abgesehen davon können Sie wahrscheinlich davon ausgehen, dass der Human-in-the-Loop möglicherweise Angst davor hat, dem beizutreten, was auch immer die KI eines Drittanbieters entscheidet, wenn die Entscheidung nicht mit der Human-in-the-Loop-Haltung übereinstimmt.

Der fremde Mensch ersetzt den bestehenden Menschen, die Dinge gehen von neuem weiter

Bei einer beruflichen Meinungsverschiedenheit wird der Human-in-the-Loop durch einen Dritten ersetzt, der ein Mensch ist, und der fortan zum Human-in-the-Loop wird. Der Mensch, der der ursprüngliche Human-in-the-Loop für die Aufgabe war, wird nicht mehr als Teil der anstehenden Aufgabe betrachtet. Es ist ein offener Aspekt, was sonst mit dem jetzt ersetzten Human-in-the-Loop passiert, aber wir sagen, dass sie mit Sicherheit keine dauerhafte Rolle mehr in der Arbeitsaufgabe spielen.

KI von Drittanbietern ersetzt die bestehende KI, die Dinge gehen von neuem

Bei einer beruflichen Meinungsverschiedenheit wird die KI durch eine KI eines Drittanbieters ersetzt und diese wird fortan zur KI, die für die jeweilige Arbeitsaufgabe verwendet wird. Die KI, die ursprünglich für die Aufgabe verwendet wurde, wird nicht mehr als Teil der vorliegenden Aufgabe betrachtet. Es ist ein offener Aspekt, was sich sonst mit der jetzt ersetzten KI herausstellt, aber wir sagen, dass die KI mit Sicherheit keine dauerhafte Rolle mehr in der Arbeitsaufgabe spielt.

Fremder Mensch ersetzt bestehende KI, Dinge laufen neu (jetzt Mensch-zu-Mensch)

Bei einer beruflichen Meinungsverschiedenheit wird die KI durch einen Drittmenschen ersetzt, für den diese Person nun die als Co-Team betrachtete Partei wird, die für die anstehende Arbeitsaufgabe eingesetzt wird. Die KI, die ursprünglich für die Aufgabe verwendet wurde, wird nicht mehr als Teil der vorliegenden Aufgabe betrachtet. Es ist ein offener Aspekt, was sich sonst mit der jetzt ersetzten KI herausstellt, aber wir sagen, dass die KI mit Sicherheit keine dauerhafte Rolle mehr in der Arbeitsaufgabe spielt. Kurz gesagt, dies wird nun zu einer von zwei Parteien von Mensch zu Mensch durchgeführten Aufgabe.

KI von Drittanbietern ersetzt den vorhandenen Menschen, die Dinge gehen neu (jetzt AI-to-AI)

Bei einer fachlichen Meinungsverschiedenheit wird der Human-in-the-Loop durch eine KI eines Drittanbieters ersetzt und diese KI wird fortan zum Ersatz für den vorhergehenden Human-in-the-Loop. Der Mensch, der der ursprüngliche Human-in-the-Loop für die Aufgabe war, wird nicht mehr als Teil der anstehenden Aufgabe betrachtet. Es ist ein offener Aspekt, was sonst mit dem jetzt ersetzten Human-in-the-Loop passiert, aber wir sagen, dass sie mit Sicherheit keine dauerhafte Rolle mehr in der Arbeitsaufgabe spielen. Kurz gesagt, dies wird jetzt zu einer Zwei-Parteien-KI-zu-KI, um die Aufgabe auszuführen.

Andere

Andere Variationen können entwickelt werden, um mit einer beruflichen Meinungsverschiedenheit fertig zu werden, aber wir haben hier einige der Grundpfeiler behandelt.

Wie können wir entscheiden, welcher dieser Ansätze der richtige für eine bestimmte Situation ist?

Eine Vielzahl von Problemen spielen bei einer solchen Auswahl eine Rolle. Es gibt technologische Überlegungen. Es gibt geschäftliche Erwägungen. Es gibt rechtliche und ethische Erwägungen.

Bis zu einem gewissen Grad ist das der Grund, warum KI-Ethik und Ethische KI ein so wichtiges Thema sind. Die Grundsätze der KI-Ethik veranlassen uns, wachsam zu bleiben. KI-Technologen können sich manchmal mit Technologie beschäftigen, insbesondere mit der Optimierung von Hightech. Sie berücksichtigen nicht unbedingt die größeren gesellschaftlichen Auswirkungen. Eine KI-Ethik-Denkweise zu haben und diese integral in die KI-Entwicklung und -Einführung zu integrieren, ist entscheidend für die Herstellung angemessener KI, einschließlich (vielleicht überraschend oder ironischerweise) der Bewertung, wie KI-Ethik von Unternehmen angenommen wird.

Neben der Anwendung von KI-Ethikregeln im Allgemeinen stellt sich die entsprechende Frage, ob wir Gesetze haben sollten, die verschiedene Verwendungen von KI regeln. Auf Bundes-, Landes- und lokaler Ebene werden neue Gesetze verbreitet, die den Umfang und die Art der Gestaltung von KI betreffen. Der Versuch, solche Gesetze zu entwerfen und zu erlassen, erfolgt schrittweise. Die KI-Ethik dient zumindest als wohlüberlegte Notlösung und wird mit ziemlicher Sicherheit bis zu einem gewissen Grad direkt in diese neuen Gesetze aufgenommen.

Beachten Sie, dass einige vehement argumentieren, dass wir keine neuen Gesetze brauchen, die KI abdecken, und dass unsere bestehenden Gesetze ausreichen. Tatsächlich warnen sie davor, dass wir, wenn wir einige dieser KI-Gesetze erlassen, die goldene Gans töten werden, indem wir gegen Fortschritte in der KI vorgehen, die immense gesellschaftliche Vorteile bieten.

An diesem Punkt dieser gewichtigen Diskussion würde ich wetten, dass Sie einige anschauliche Beispiele wünschen, die dieses Thema veranschaulichen könnten. Es gibt eine besondere und sicherlich beliebte Reihe von Beispielen, die mir am Herzen liegen. Sie sehen, in meiner Eigenschaft als Experte für KI, einschließlich der ethischen und rechtlichen Auswirkungen, werde ich häufig gebeten, realistische Beispiele zu nennen, die Dilemmata der KI-Ethik aufzeigen, damit die etwas theoretische Natur des Themas leichter erfasst werden kann. Einer der eindrucksvollsten Bereiche, der dieses ethische KI-Problem anschaulich darstellt, ist das Aufkommen von KI-basierten, wirklich selbstfahrenden Autos. Dies dient als praktischer Anwendungsfall oder als Beispiel für eine ausführliche Diskussion zu diesem Thema.

Hier ist dann eine bemerkenswerte Frage, die es wert ist, darüber nachzudenken: Erhellt das Aufkommen von KI-basierten, wirklich selbstfahrenden Autos irgendetwas über die Beilegung von Meinungsverschiedenheiten zwischen KI und Mensch, und wenn ja, was zeigt dies?

Erlauben Sie mir einen Moment, um die Frage auszupacken.

Beachten Sie zunächst, dass an einem echten selbstfahrenden Auto kein menschlicher Fahrer beteiligt ist. Denken Sie daran, dass echte selbstfahrende Autos über ein KI-Fahrsystem gefahren werden. Es ist weder ein menschlicher Fahrer am Steuer erforderlich, noch ist vorgesehen, dass ein Mensch das Fahrzeug fährt. Für meine umfangreiche und laufende Berichterstattung über autonome Fahrzeuge (AVs) und insbesondere selbstfahrende Autos, siehe den Link hier.

Ich möchte weiter klären, was gemeint ist, wenn ich von echten selbstfahrenden Autos spreche.

Die Ebenen selbstfahrender Autos verstehen

Zur Verdeutlichung: Echte selbstfahrende Autos sind solche, bei denen die KI das Auto ganz alleine fährt und es während der Fahraufgabe keine menschliche Hilfe gibt.

Diese fahrerlosen Fahrzeuge gelten als Level 4 und Level 5 (siehe meine Erklärung unter Link hier), während ein Auto, bei dem ein menschlicher Fahrer den Fahraufwand mitteilen muss, normalerweise als Level 2 oder Level 3 betrachtet wird. Die Autos, die die Fahraufgabe mitteilen, werden als halbautonom beschrieben und enthalten typischerweise eine Vielzahl von automatisierte Add-Ons, die als ADAS (Advanced Driver-Assistance Systems) bezeichnet werden.

Es gibt noch kein wirklich selbstfahrendes Auto auf Level 5, und wir wissen noch nicht einmal, ob dies möglich sein wird und wie lange es dauern wird, bis es erreicht wird.

In der Zwischenzeit versuchen die Bemühungen der Stufe 4 allmählich, durch sehr enge und selektive Versuche auf öffentlichen Straßen eine gewisse Traktion zu erreichen. Es gibt jedoch Kontroversen darüber, ob diese Tests per se zulässig sein sollten (wir sind alle Meerschweinchen auf Leben und Tod in einem Experiment) Einige behaupten, dass sie auf unseren Autobahnen und Nebenstraßen stattfinden Link hier).

Da halbautonome Autos einen menschlichen Fahrer erfordern, unterscheidet sich die Einführung dieser Autotypen nicht wesentlich vom Fahren herkömmlicher Fahrzeuge. Daher gibt es an sich nicht viel Neues zu diesem Thema (wie Sie sehen werden) in einem Moment sind die nächsten Punkte allgemein anwendbar).

Für halbautonome Autos ist es wichtig, dass die Öffentlichkeit vor einem störenden Aspekt gewarnt wird, der in letzter Zeit aufgetreten ist, und zwar trotz der menschlichen Fahrer, die immer wieder Videos von sich selbst veröffentlichen, die am Steuer eines Level 2- oder Level 3-Autos einschlafen Wir alle müssen vermeiden, in die Irre geführt zu werden, dass der Fahrer seine Aufmerksamkeit von der Fahraufgabe ablenken kann, während er ein halbautonomes Auto fährt.

Sie sind die verantwortliche Partei für die Fahraktionen des Fahrzeugs, unabhängig davon, wie viel Automatisierung in ein Level 2 oder Level 3 geworfen werden könnte.

Selbstfahrende Autos und Meinungsverschiedenheiten zwischen KI und Mensch

Bei echten selbstfahrenden Fahrzeugen der Stufen 4 und 5 ist kein menschlicher Fahrer an der Fahraufgabe beteiligt.

Alle Insassen werden Passagiere sein.

Die KI fährt.

Ein Aspekt, der sofort diskutiert werden muss, ist die Tatsache, dass die KI, die an den heutigen KI-Antriebssystemen beteiligt ist, nicht empfindungsfähig ist. Mit anderen Worten, die KI ist insgesamt ein Kollektiv computergestützter Programmierung und Algorithmen und mit Sicherheit nicht in der Lage, auf die gleiche Weise zu argumentieren, wie es Menschen können.

Warum wird dadurch zusätzlich betont, dass die KI nicht empfindungsfähig ist?

Weil ich unterstreichen möchte, dass ich bei der Erörterung der Rolle des KI-Antriebssystems der KI keine menschlichen Qualitäten zuschreibe. Bitte beachten Sie, dass es heutzutage eine anhaltende und gefährliche Tendenz gibt, die KI zu anthropomorphisieren. Im Wesentlichen weisen die Menschen der heutigen KI eine menschenähnliche Empfindung zu, trotz der unbestreitbaren und unbestreitbaren Tatsache, dass es eine solche KI noch nicht gibt.

Mit dieser Klarstellung können Sie sich vorstellen, dass das KI-Fahrsystem die Facetten des Fahrens nicht von Haus aus „kennt“. Das Fahren und alles, was dazu gehört, muss als Teil der Hardware und Software des selbstfahrenden Autos programmiert werden.

Lassen Sie uns in die Vielzahl von Aspekten eintauchen, die zu diesem Thema eine Rolle spielen.

Zunächst ist es wichtig zu erkennen, dass nicht alle KI-selbstfahrenden Autos gleich sind. Jeder Autohersteller und jedes selbstfahrende Technologieunternehmen verfolgt seinen eigenen Ansatz, um selbstfahrende Autos zu entwickeln. Daher ist es schwierig, pauschale Aussagen darüber zu treffen, was KI-Fahrsysteme tun oder nicht tun werden.

Darüber hinaus kann die Aussage, dass ein KI-Fahrsystem eine bestimmte Sache nicht macht, später von Entwicklern überholt werden, die den Computer tatsächlich so programmieren, dass sie genau das tun. Schritt für Schritt werden KI-Fahrsysteme sukzessive verbessert und erweitert. Eine heute bestehende Einschränkung ist in einer zukünftigen Iteration oder Version des Systems möglicherweise nicht mehr vorhanden.

Ich hoffe, dass dies eine ausreichende Litanei von Vorbehalten bietet, um das zu untermauern, was ich gleich erzählen werde.

Bei vollautonomen Fahrzeugen besteht möglicherweise keine Chance auf eine fachliche Meinungsverschiedenheit zwischen einem Menschen und der KI, da es möglicherweise keinen Human-in-the-Loop gibt. Das Bestreben vieler Hersteller von selbstfahrenden Autos ist es, den menschlichen Fahrer vollständig aus der Fahraufgabe zu nehmen. Das Fahrzeug wird nicht einmal für Menschen zugängliche Fahrsteuerungen enthalten. In diesem Fall kann ein menschlicher Fahrer, falls vorhanden, nicht an der Fahraufgabe teilnehmen, da er keinen Zugang zu irgendwelchen Fahrsteuerungen hat.

Bei einigen vollautonomen Fahrzeugen ermöglichen einige Designs immer noch, dass ein Mensch in der Schleife ist, obwohl der Mensch nicht verfügbar sein oder überhaupt am Fahrprozess teilnehmen muss. Somit kann ein Mensch am Fahren teilnehmen, wenn die Person dies wünscht. Zu keinem Zeitpunkt ist die KI jedoch darauf angewiesen, dass der Mensch irgendwelche Fahraufgaben übernimmt.

Bei teilautonomen Fahrzeugen besteht eine Hand-in-Hand-Beziehung zwischen dem menschlichen Fahrer und der KI. Der menschliche Fahrer kann die Fahrsteuerung vollständig übernehmen und die KI im Wesentlichen daran hindern, am Fahren teilzunehmen. Wenn der menschliche Fahrer die KI wieder in die Fahrerrolle einsetzen möchte, kann er dies tun, obwohl dies den Menschen dann manchmal dazu zwingt, die Fahrsteuerung aufzugeben.

Eine andere Form des teilautonomen Betriebs würde darin bestehen, dass der menschliche Fahrer und die KI teamfähig zusammenarbeiten. Die KI fährt und der Mensch fährt. Sie fahren zusammen. Die KI könnte sich dem Menschen beugen. Der Mensch könnte sich der KI beugen.

Irgendwann könnten das KI-Fahrsystem und der menschliche Fahrer in der Schleife einen Punkt erreichen, an dem eine „professionelle Meinungsverschiedenheit“ über die anstehende Fahraufgabe besteht.

Um zu veranschaulichen, wie schwierig die Umsetzung einiger der oben genannten Regeln für den Umgang mit einer beruflichen Meinungsverschiedenheit sein kann, betrachten Sie den Fall, in dem ein Dritter hinzugezogen wird, um sich mit der Angelegenheit zu befassen und eine Entscheidung zur Lösung des ungelösten Problems vorzulegen.

Angenommen, ein Autohersteller oder ein selbstfahrendes Technologieunternehmen hat dafür gesorgt, dass entfernte menschliche Bediener Zugriff auf die Fahrsteuerung von Fahrzeugen innerhalb seiner Flotte haben. Der menschliche Bediener sitzt in einem weit entfernten Büro oder einer ähnlichen Umgebung. Über ein Computersystem können sie die Fahrszene sehen, indem sie auf die Kameras und andere Sensorgeräte zugreifen, die in das selbstfahrende Auto geladen sind. Für sie ist das fast so, als würden sie ein Online-Videospiel spielen, obwohl die realen Umstände natürlich potenziell schlimme Folgen haben können.

Ein KI-System und ein menschlicher Fahrer im Auto fahren ein halbautonomes Fahrzeug über eine lange Autobahn. Plötzlich will die KI in einen Graben steuern. Der menschliche Fahrer will das nicht. Die beiden ringen um die Fahrsteuerung.

Wie wird das gelöst?

Wir hätten vielleicht vorher einführen können, dass der Mensch immer gewinnt. Nehmen wir jedoch an, dass wir uns entschieden haben, dies nicht zu tun.

Wir hätten vorher einführen können, dass KI immer gewinnt. Angenommen, wir haben uns dagegen entschieden. Alles in allem haben wir keine dieser Regeln übernommen, außer dass wir entschieden haben, dass ein dritter Mensch eingreifen und eine professionelle Meinungsverschiedenheit jeglicher substanzieller Art lösen kann.

In diesem Anwendungsfall kämpfen die KI und der menschliche Fahrer am Steuer um die Fahrsteuerung. Dies wird, sagen wir, an den entfernten menschlichen Bediener (unser Drittpartei-Mensch) übermittelt. Der entfernte menschliche Bediener untersucht, was vor sich geht, und beschließt, vom Graben wegzusteuern, um scheinbar abzuwenden, was die KI zu tun versuchte. Angenommen, der entfernte menschliche Bediener lenkt gleichzeitig in den Gegenverkehr, was vielleicht weder die KI noch der menschliche Fahrer im Auto tun wollten.

Der Punkt ist, dass die Art und Weise, wie diese Regel implementiert wurde, darin besteht, dass der menschliche Bediener eines Drittanbieters in der Lage ist, sowohl die KI als auch den Human-in-the-Loop vollständig zu überschreiben. Ob dies zu einem guten Ergebnis führen wird, ist sicherlich nicht sicher.

Ich werde dieses Beispiel verwenden, um einige zusätzliche Erkenntnisse zu diesen Themen hervorzuheben.

Sie können nicht die unverschämte Annahme machen, dass das Ergebnis der beigelegten Meinungsverschiedenheit notwendigerweise ein garantiert gutes Ergebnis ist, nur weil eine dieser Regeln eingeführt wird. Es könnte nicht sein. Es gibt keine eiserne, immer richtige Regel, die ausgewählt werden kann.

Außerdem sind einige dieser Regeln möglicherweise nicht realisierbar.

Betrachten Sie das Beispiel des entfernten menschlichen Bedieners, der eingreift, wenn sich die KI und der menschliche Fahrer um die Fahrsteuerung streiten. Es kann viele Sekunden dauern, bis der entfernte menschliche Bediener herausfindet, was vor sich geht. Bis dahin könnte das Fahrzeug bereits im Graben gelandet sein oder andere negative Folgen gehabt haben. Nehmen wir außerdem an, dass der Standort des Fahrzeugs einen Fernzugriff ausschließt, beispielsweise weil es sich an einem Ort befindet, an dem es keine elektronische Netzwerkkonnektivität gibt. Oder vielleicht funktionieren die Netzwerkfunktionen des Fahrzeugs gerade nicht.

Wie Sie sehen können, mag die Regel auf dem Papier gut aussehen, obwohl die tatsächliche Anwendung der Regel ein sehr schwieriger oder höchst riskanter Ansatz sein kann. Sehen Sie sich meine Berichterstattung mit kritischem Blick über die Fernsteuerung von autonomen Fahrzeugen und selbstfahrenden Autos an den Link hier.

Ich möchte kurz auf ein anderes verwandtes Thema eingehen, das ich in einer bevorstehenden Analyse eingehender behandeln werde.

Eine der zunehmenden Bedenken in Bezug auf autonome Fahrzeuge und selbstfahrende Autos, die halbautonom sind, ist die sogenannte Hot-Potato-Syndrom.

Das ist der Deal.

Ein KI-Fahrsystem und ein Mensch fahren gemeinsam. Es entsteht eine schlimme Zwangslage. Die KI wurde so programmiert, dass sie sich aus der Fahraufgabe zurückzieht und die Dinge dem Menschen übergibt, wenn ein schlimmer Moment eintritt. Dies erscheint vielleicht insofern „vernünftig“, als wir uns auf die Regel zu berufen scheinen, dass der Mensch der standardmäßige „Gewinner“ bei jeder potenziellen beruflichen Meinungsverschiedenheit ist.

Aber der Ausfall der KI könnte schändlicheren oder als heimtückisch angesehenen Zwecken dienen. Es könnte sein, dass der Autohersteller oder das selbstfahrende Technologieunternehmen nicht möchte, dass seine KI als „Schuld“ betrachtet wird, wenn ein Autounfall passiert. Um scheinbar nicht so festgenagelt zu werden, übergibt die KI die Steuerung abrupt an den Menschen. Voila, der Mensch ist nun vermutlich komplett für das Fahrzeug verantwortlich.

Der Kicker ist, dass angenommen wird, dass die KI diese Übergabe mit, sagen wir, einer verbleibenden Sekunde vor einem Absturz durchführt.

Würde der Mensch wirklich Zeit haben, den Absturz abzuwenden?

Wahrscheinlich nicht.

Angenommen, die KI führt die Übergabe mit wenigen verbleibenden Millisekunden oder Nanosekunden durch. Ich wage zu behaupten, dass der Mensch im Wesentlichen keine Chance hat, irgendetwas zu tun, um den Absturz abzuwenden.

Aus Sicht des Autoherstellers oder der Firma für selbstfahrende Autos können sie versuchen, so zu tun, als hätten sie saubere Hände, wenn ein solcher Autounfall passiert. Das Auto wurde von einem Menschen gefahren. Die KI fuhr das Auto nicht. Die einzige „logische“ Schlussfolgerung scheint zu sein, dass der Mensch schuld und die KI völlig schuldlos sein muss.

Es ist ein Topf.

Darauf werde ich in einer der nächsten Kolumnen ausführlicher eingehen.

Fazit

Berufliche Meinungsverschiedenheiten werden auftreten.

Es ist schwer, sich eine komplexe Aufgabe vorzustellen, bei der zwei Parteien die Aufgabe gemeinsam ausführen und bei der es niemals zu professionellen Meinungsverschiedenheiten kommt. Dies scheint ein Fantasieland oder zumindest eine große Seltenheit zu sein.

Heute haben wir viele, viele Fälle professioneller Meinungsverschiedenheiten von Mensch zu Mensch, für die täglich friedlich und vernünftig Lösungen auf die eine oder andere Weise gefunden werden. Tatsächlich schaffen wir oft absichtlich Situationen, um berufliche Meinungsverschiedenheiten zu fördern und ans Licht zu bringen. Sie könnten argumentieren, dass dies die berühmte Weisheit zeigt, dass manchmal zwei Köpfe besser sind als einer.

Mit zunehmender Verbreitung von KI werden wir viele KI-zu-Mensch- oder Mensch-zu-KI-Task-Performer mit zwei Parteien haben, und es wird solche geben berufliche Meinungsverschiedenheiten das wird passieren. Der faule Ansatz besteht darin, sich immer dem Menschen zu beugen. Dies ist möglicherweise nicht der geeignetste Ansatz. KI könnte die bessere Wahl sein. Oder eine der anderen oben genannten Regeln könnte ein soliderer Ansatz sein.

Es gibt diese weise Regel, die oft wiederholt wird, dass wir uns im Allgemeinen alle darauf einigen können sollten, nicht einer Meinung zu sein, obwohl, wenn es um die Sache geht, manchmal eine Meinungsverschiedenheit eindeutig gelöst werden muss, sonst führt die anstehende Angelegenheit zu unsäglichem Unheil. Wir können eine Meinungsverschiedenheit nicht einfach dahinsiechen lassen. Die Zeit könnte von entscheidender Bedeutung sein und Menschenleben könnten auf dem Spiel stehen.

Es gibt eine eindeutige Anforderung für einige umsichtige Mittel, um Meinungsverschiedenheiten zu lösen, auch wenn dies nicht unbedingt angenehm ist, einschließlich wenn KI und ein Human-in-the-Loop nicht auf Augenhöhe oder Byte-zu-Byte sind.

Ich vertraue darauf, dass Sie dieser durchaus angenehmen Behauptung nicht widersprechen werden.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- der-pilot-und-der-kopilot-waren-vor-dem-start-uneinig-und-entschieden-sich-abrupt-für-das-taxi-zurück-zum-terminal-und-gehen-getrennte-wege/