KI-Ethik befürchtet eine Verschlechterung der KI-Asymmetrie inmitten von Menschen, die das kurze Ende des Stocks bekommen

Manchmal ist man am falschen Ende des Sticks.

Diese Umgangssprache kann auf den Begriff der Asymmetrie angewendet werden.

Ja, ich werde über Asymmetrie sprechen. Wie Sie wahrscheinlich in dieser auf den Kopf gestellten Welt, in der wir leben, schon erlebt haben, gibt es Gelegenheiten, in denen Sie feststellen, dass Sie weniger Wissen über eine Angelegenheit haben, die für Sie relativ wichtig ist. Dies wird formal als bezeichnet Informationsasymmetrie.

Der Schlüssel ist, dass Sie weniger Wissen oder Informationen haben, als Sie sich vielleicht wünschen würden, und Sie haben entschieden weniger als die andere Partei, die an der Angelegenheit beteiligt ist. Sie sind gegenüber der anderen Partei deutlich benachteiligt. Sie wissen etwas, was Sie nicht wissen. Sie können ihr Wissen nutzen, insbesondere in Bezug auf das, was Sie nicht wissen, und bei holprigen Beratungen oder Verhandlungen mit Ihnen die Oberhand gewinnen.

Nun, es gibt ein neues Kind in der Stadt, bekannt als KI-Asymmetrie.

Dieses neueste Schlagwort bezieht sich auf die Möglichkeit, dass Sie gegen jemanden antreten, der mit KI bewaffnet ist, während Sie nicht so bewaffnet sind.

Sie haben KI auf ihrer Seite, während Sie, nun ja, nur Sie haben. Die Dinge sind schief. Sie sind vermeintlich benachteiligt. Die andere Seite wird in der Lage sein, Kreise um Sie herum zu laufen, da sie durch KI erweitert wird. Das könnte in dem berühmten Sprichwort enthalten sein, dass in Liebe und Krieg alles fair ist (ein seit langem geprägtes Sprichwort Euphen von John Lyly, 1578), obwohl die Dynamik und Gefahren der KI-Asymmetrie herausfordernde ethische KI-Probleme aufwerfen. Für meine fortlaufende und umfassende Berichterstattung über KI-Ethik und Ethische KI siehe den Link hier und den Link hier, nur um ein paar zu nennen.

Bevor wir in den KI-Bereich und seine zahlreichen Komplexitäten in Bezug auf die KI-Asymmetrie eintauchen, wollen wir uns zunächst mit der alltäglichen regulären Version der einfachen alten Informationsasymmetrie befassen. Dies wird die Voraussetzungen dafür schaffen, in den sprichwörtlichen KI-Neuling auf dem Block einzudringen.

Eine kurze und gezielt erhellende Geschichte könnte Ihren Appetit anregen.

Neulich hatte ich unterwegs eine Reifenpanne und suchte schnell nach einem passenden Ersatz, der sofort montiert werden konnte. Mit meinem Smartphone suchte ich online nach Reifengeschäften in der Nähe, um herauszufinden, wie weit ich mit meinem Runflat-Reifen fahren musste und ob Geschäfte geöffnet waren. Darüber hinaus habe ich ihre Online-Kundenbewertungen schnell bewertet und versucht, etwas Nützliches darüber zu erfahren, wie lange sie im Geschäft waren, und andere Faktoren, die ihre Würdigkeit unter Beweis stellen könnten.

Als ich eines der Reifengeschäfte anrief, machte mir der Angestellte einen luftigen Kostenvoranschlag für die Kosten des Reifens und seiner Montage. Der Reifen war nicht ganz das, was ich mir vorgestellt hatte, aber der Verkäufer versicherte mir, dass sie die einzige Werkstatt in der Gegend sein würden, die die Arbeit sofort erledigen könnte. Nach Angaben des Verkäufers hätte keiner der anderen nahegelegenen Reifenläden solche Reifen auf Lager, und es würde mindestens einen Tag dauern, bis diese Wettbewerber einen geeigneten Reifen aus einem halb entfernten Lagerhaus bekämen.

Ich war mitten in einer Informationsasymmetrie.

Der Angestellte gab an, mehr über den örtlichen Status der Reifengeschäfte und insbesondere über den Reifentyp zu wissen, den ich brauchte. Ich befand mich in einem Gebiet, das ich nur auf der Durchreise durchquerte, und hatte keinerlei Wissen aus erster Hand über die Reifengeschäfte in diesem bestimmten geografischen Gebiet. Soweit ich wusste, war der Angestellte genau richtig und gab mir die ungeschminkte Wahrheit.

Aber tat der Angestellte das?

Vielleicht ja vielleicht nein.

Es könnte sein, dass der Angestellte aufrichtig alles glaubte, was mir übermittelt wurde. Für den Angestellten war dies die Wahrheit. Oder vielleicht hat der Angestellte die Wahrheit etwas übertrieben. Es war möglich, dass das, was gesagt wurde, möglicherweise wahr sein könnte, obwohl die Art und Weise, wie es dargestellt wurde, implizierte, dass es die absolute und unwiderlegbare Wahrheit war. Natürlich hätte es auch völliger Unsinn sein können, und der Verkäufer zahlte nur Schilling für das Reifengeschäft, um mein Geschäft zu verdienen. Könnte eine saftige Provision auf dem Spiel gewesen sein?

Ich wage zu behaupten, dass niemand gerne in einer solchen Außenseiterposition ist.

Die Einsätze der Situation sind ein entscheidender Faktor dafür, wie wichtig eine Informationsasymmetrie ist. Wenn es um Leben oder Tod geht, ist es eine lückenhafte und höchst unerwünschte Haltung, in der Hundehütte zu sein und sich auf das zu verlassen, was die andere Partei weiß oder zu wissen vorgibt. Wenn der Einsatz gering ist , wie wenn Sie in einem Restaurant Ihr Abendessen bestellen und der Kellner Ihnen sagt, dass das Fischgericht himmlisch ist, Sie aber noch nie dort gegessen haben und unzureichend informiert sind, können Sie diesem Minimum an Informationsasymmetrie ohne große Angst zustimmen (I nehmen Sie auch an, dass Sie auch darauf wetten, dass der Server nicht riskieren würde, einen schlechten Rat zu geben und ein anständiges Trinkgeld zu verpassen).

Um auf die Geschichte mit abgefahrenen Reifen zurückzukommen (ein Wortspiel!): Ich hätte nicht sofort herausfinden können, ob der Angestellte mir zuverlässige und informative Einblicke gab. Sie fragen sich vielleicht, was passiert ist. Ich beschloss, einige der anderen Reifengeschäfte in der Nähe anzurufen.

Bist du bereit für das, was ich entdeckt habe?

Alle anderen Reifengeschäfte hatten meinen Wunschreifen auf Lager und wollten mich nicht augenzwinkernd dazu überreden, einen anderen Reifen zu nehmen (wie es der erste Verkäufer versuchte). Sie konnten die Arbeit auch im gleichen Zeitrahmen erledigen wie der erste Reifenhändler, den ich zufällig anrief. Zum ungefähr gleichen Preis.

Ich versichere Ihnen, dass ein willkommener Seufzer der Erleichterung meinerseits auftauchte.

Ironischerweise war in Murphys Gesetz des Pechs der erste Ort, den ich kontaktierte, der einzige, der sozusagen zum Mittagessen auszugehen schien. Ich bin froh, dass ich versucht habe, mehr Informationen zu erhalten. Dies verringerte die Informationsasymmetrielücke. Ich applaudierte mir selbst dafür, dass ich bei meiner Stange geblieben war und nicht an den ersten Ort gegangen war, den ich angerufen hatte.

Abgesehen davon war ich mit einer gewissen Art von Kosten verbunden, um zusätzliche Informationen zu erhalten. Ich habe ungefähr vier Anrufe getätigt, die jeweils etwa fünfzehn bis zwanzig Minuten in Anspruch genommen haben. In diesem Sinne habe ich ungefähr anderthalb Stunden damit verbracht, nur herauszufinden, wohin ich mein Auto bringen soll. Wenn ich mein Auto sofort auf diesen ersten Platz gebracht hätte, wäre der neue Reifen zu diesem Zeitpunkt fast auf meinem Auto gewesen. Andererseits hätte ich später mit ziemlicher Sicherheit die schnelle Entscheidung bereut, die ich in einer heimtückischen Informationsasymmetrie-Bindung getroffen habe.

Manchmal muss man die Zähne zusammenbeißen und die gefürchtete Informationsasymmetrie nehmen, wie sie kommt. Du hoffst nur, dass jede Entscheidung, die du triffst, gut genug sein wird. Es ist möglicherweise keine „perfekte“ Entscheidung und Sie könnten die getroffene Entscheidung später bereuen. Der andere Aspekt ist, dass Sie versuchen könnten, Ihre Seite der Informationsgleichung zu stärken, obwohl dies nicht unbedingt kostenlos ist und auch wertvolle Zeit verschlingen kann, je nachdem, ob die geschätzte Zeit von entscheidender Bedeutung ist.

Jetzt, da Sie zweifellos beruhigt sind zu wissen, dass mein Auto mit seinen brandneuen und korrekten Reifen gut läuft, kann ich mich der Entstehung von KI-Asymmetrie zuwenden.

Stellen Sie sich eine KI-Leidensgeschichte vor.

Sie suchen nach einem Wohnungsbaudarlehen. Es gibt einen Online-Analysator für Hypothekenanfragen, den eine bestimmte Bank verwendet. Das Online-System nutzt die fortschrittlichen KI-Fähigkeiten von heute. Sie müssen nicht mit einem menschlichen Kreditvergabeagenten sprechen. Die KI macht das alles.

Das KI-System führt Sie durch eine Reihe von Eingabeaufforderungen. Sie füllen die Formulare pflichtbewusst aus und antworten dem KI-System. Diese KI ist sehr gesprächig. Während Sie in der Vergangenheit vielleicht ein herkömmliches computerbasiertes Formularsystem verwendet haben, ähnelt diese KI-Variante eher der Interaktion mit einem menschlichen Agenten. Nicht ganz, aber genug, dass man fast glauben könnte, dass ein Mensch auf der anderen Seite dieser Aktivität war.

Nachdem Sie Ihr Bestes getan haben, um Ihre Anfrage mit dieser KI zu „besprechen“, teilt sie Ihnen am Ende mit, dass die Kreditanfrage leider nicht genehmigt wurde. Irgendwie geht es Ihnen auf die Nerven, dass die KI eine Entschuldigung anzubieten scheint, als ob die KI den Kredit genehmigen wollte, aber diese gemeinen Menschen, die die Bank beaufsichtigen, dies der KI nicht erlauben würden. Für meine Berichterstattung darüber, wie irreführend diese Art von angeblichen KI-Entschuldigungen sind, siehe den Link hier.

Sie haben keine Ahnung, warum Sie abgelehnt wurden. Die KI gibt keine Erklärung ab. Vielleicht hat die KI einen Fehler gemacht oder ihre Berechnungen vermasselt. Schlimmer noch, nehmen Sie an, die KI hat bei der Entscheidung über den Kredit einige höchst fragwürdige Überlegungen wie Ihre Rasse oder Ihr Geschlecht angestellt. Alles, was Sie wissen, ist, dass Sie anscheinend Ihre Zeit verschwendet haben und zwischenzeitlich auch eine Menge privater Daten an die KI und die Bank übergeben haben. Ihre KI hat dich besiegt.

Dies würde als Beispiel für KI-Asymmetrie bezeichnet werden.

Du warst gegen die Bank. Die Bank war mit KI bewaffnet. Sie waren nicht gleich bewaffnet. Du hattest deinen Verstand und deine Schule der Weisheit, aber keine KI in deiner Gesäßtasche. Geist gegen eine Maschine. Leider hat die Maschine in diesem Fall gewonnen.

Was hast du zu tun?

Erstens müssen wir auf gesellschaftlicher Ebene erkennen, dass diese KI-Asymmetrie wächst und nahezu allgegenwärtig wird. Menschen begegnen KI in allen Systemen, mit denen wir täglich interagieren. Manchmal ist die KI das einzige Element, mit dem wir interagieren, wie in diesem Beispiel über die Kreditanfrage. In anderen Fällen könnte ein Mensch auf dem Laufenden sein, der sich auf KI verlässt, um ihm bei der Ausführung eines bestimmten Dienstes zu helfen. Für den Kredit könnte es sein, dass die Bank Sie mit einem menschlichen Agenten sprechen lässt, anstatt mit KI zu interagieren, aber für den der menschliche Agent ein Computersystem verwendet, um auf die KI zuzugreifen, die den menschlichen Agenten während des Kreditantragsprozesses leitet (und Sie können sich fast immer sicher sein, dass der menschliche Agent so handelt, als ob er eingesperrt wäre, indem er strikt tun muss, was die KI „ihm sagt“).

Wie auch immer, die KI ist immer noch im Spiel.

Zweitens müssen wir versuchen sicherzustellen, dass die KI-Asymmetrie zumindest auf einer KI-ethischen Grundlage erfolgt.

Erlauben Sie mir, diese scheinbar seltsame Bemerkung zu erklären. Sehen Sie, wenn wir einigermaßen sicher sein können, dass die KI auf ethisch einwandfreie Weise handelt, können wir uns vielleicht über die Asymmetrie trösten, die im Spiel ist. Auf einer etwas analogen, aber auch lockeren Basis könnten Sie sagen, dass, wenn meine Interaktion mit dem ersten Angestellten des Reifengeschäfts einige strenge ethische Richtlinien in Kraft gehabt und durchgesetzt hätte, mir vielleicht nicht die Geschichte erzählt worden wäre, die mir erzählt wurde, oder zumindest mir hätte vielleicht nicht sofort herausfinden müssen, ob mir eine Lügengeschichte erzählt wurde.

Ich werde gleich mehr über KI-Ethik erklären.

Drittens sollten wir nach Wegen suchen, die KI-Asymmetrie zu reduzieren. Wenn Sie eine KI hatten, die auf Ihrer Seite war und danach strebte, Ihr Trainer oder Beschützer zu sein, könnten Sie diese KI möglicherweise verwenden, um der anderen KI, mit der Sie gegeneinander antreten, etwas entgegenzusetzen. Wie heißt es so schön: Manchmal macht es durchaus Sinn, Feuer mit Feuer zu bekämpfen.

Bevor wir uns weiter mit den wilden und schwammigen Überlegungen befassen, die der KI-Asymmetrie zugrunde liegen, wollen wir einige zusätzliche Grundlagen zu zutiefst wesentlichen Themen schaffen. Wir müssen kurz in die KI-Ethik und insbesondere in das Aufkommen von Machine Learning (ML) und Deep Learning (DL) eintauchen.

Sie sind sich vielleicht vage bewusst, dass eine der lautesten Stimmen heutzutage im KI-Bereich und sogar außerhalb des KI-Bereichs darin besteht, nach einem größeren Anschein von ethischer KI zu schreien. Werfen wir einen Blick darauf, was es bedeutet, sich auf KI-Ethik und ethische KI zu beziehen. Darüber hinaus werden wir untersuchen, was ich meine, wenn ich von Machine Learning und Deep Learning spreche.

Ein bestimmtes Segment oder Teil der KI-Ethik, das in den Medien viel Aufmerksamkeit erregt hat, besteht aus KI, die ungünstige Vorurteile und Ungerechtigkeiten aufweist. Sie wissen vielleicht, dass es zu Beginn der jüngsten Ära der KI einen riesigen Ausbruch von Enthusiasmus für das gab, was manche heute nennen KI für immer. Unglücklicherweise begannen wir nach dieser sprudelnden Aufregung, Zeuge zu werden KI für schlecht. Beispielsweise wurde festgestellt, dass verschiedene KI-basierte Gesichtserkennungssysteme rassistische Vorurteile und geschlechtsspezifische Vorurteile enthalten, die ich unter besprochen habe den Link hier.

Bemühungen, sich dagegen zu wehren KI für schlecht sind aktiv unterwegs. Außer lautstark legal Neben dem Streben, das Fehlverhalten einzudämmen, gibt es auch einen substanziellen Drang, die KI-Ethik anzunehmen, um die KI-Abscheulichkeit zu korrigieren. Die Vorstellung ist, dass wir wichtige ethische KI-Prinzipien für die Entwicklung und den Einsatz von KI annehmen und unterstützen sollten, um dies zu unterbieten KI für schlecht und gleichzeitig das Vorzuziehende ankündigen und fördern KI für immer.

In einem ähnlichen Zusammenhang bin ich ein Befürworter des Versuchs, KI als Teil der Lösung von KI-Problemen einzusetzen und Feuer mit Feuer in dieser Denkweise zu bekämpfen. Wir könnten zum Beispiel ethische KI-Komponenten in ein KI-System einbetten, das überwacht, wie der Rest der KI Dinge tut, und so potenziell diskriminierende Bemühungen in Echtzeit erkennen, siehe meine Diskussion unter den Link hier. Wir könnten auch ein separates KI-System haben, das als eine Art KI-Ethikmonitor fungiert. Das KI-System dient als Aufseher, um zu verfolgen und zu erkennen, wann eine andere KI in den unethischen Abgrund geht (siehe meine Analyse solcher Fähigkeiten unter den Link hier).

Ich werde Ihnen gleich einige übergreifende Prinzipien vorstellen, die der KI-Ethik zugrunde liegen. Hier und da schwirren viele solcher Listen herum. Man könnte sagen, dass es noch keine einzige Liste universeller Anziehungskraft und Übereinstimmung gibt. Das ist die traurige Nachricht. Die gute Nachricht ist, dass es zumindest leicht verfügbare KI-Ethik-Listen gibt, und sie neigen dazu, ziemlich ähnlich zu sein. Alles in allem deutet dies darauf hin, dass wir durch eine Art vernünftiger Konvergenz unseren Weg zu einer allgemeinen Gemeinsamkeit dessen finden, woraus KI-Ethik besteht.

Lassen Sie uns zunächst kurz einige der allgemeinen ethischen KI-Vorschriften behandeln, um zu veranschaulichen, was für jeden, der KI herstellt, einsetzt oder verwendet, eine wichtige Überlegung sein sollte.

Zum Beispiel, wie vom Vatikan in der angegeben Rom fordert KI-Ethik und wie ich ausführlich unter behandelt habe den Link hier, dies sind ihre identifizierten sechs primären KI-Ethikprinzipien:

  • Transparenz: Grundsätzlich müssen KI-Systeme erklärbar sein
  • Inklusion: Die Bedürfnisse aller Menschen müssen berücksichtigt werden, damit alle davon profitieren und allen Menschen die bestmöglichen Bedingungen geboten werden, sich zu entfalten und zu entwickeln
  • Verantwortung: Wer den Einsatz von KI gestaltet und einsetzt, muss verantwortungsbewusst und transparent vorgehen
  • Unparteilichkeit: Schaffen oder handeln Sie nicht nach Vorurteilen, um Fairness und Menschenwürde zu wahren
  • Zuverlässigkeit: KI-Systeme müssen zuverlässig arbeiten können
  • Sicherheit und Privatsphäre: KI-Systeme müssen sicher funktionieren und die Privatsphäre der Nutzer respektieren.

Wie vom US-Verteidigungsministerium (DoD) in ihrem angegeben Ethische Grundsätze für den Einsatz künstlicher Intelligenz und wie ich ausführlich unter behandelt habe den Link hier, dies sind ihre sechs primären KI-Ethikprinzipien:

  • Verantwortlich: Das DoD-Personal wird ein angemessenes Maß an Urteilsvermögen und Sorgfalt walten lassen und gleichzeitig für die Entwicklung, den Einsatz und die Nutzung von KI-Fähigkeiten verantwortlich bleiben.
  • Gerecht: Das Ministerium wird gezielte Schritte unternehmen, um unbeabsichtigte Verzerrungen bei den KI-Fähigkeiten zu minimieren.
  • Rückverfolgbar: Die KI-Fähigkeiten der Abteilung werden so entwickelt und eingesetzt, dass das relevante Personal über ein angemessenes Verständnis der Technologie, der Entwicklungsprozesse und der auf KI-Fähigkeiten anwendbaren Betriebsmethoden verfügt, einschließlich transparenter und überprüfbarer Methoden, Datenquellen sowie Entwurfsverfahren und -dokumentation.
  • Zuverlässig: Die KI-Fähigkeiten des Ministeriums werden explizite, genau definierte Verwendungszwecke haben, und die Sicherheit und Wirksamkeit solcher Fähigkeiten werden innerhalb dieser definierten Verwendungszwecke über ihren gesamten Lebenszyklus hinweg getestet und sichergestellt.
  • Regierbar: Die Abteilung wird KI-Fähigkeiten entwerfen und entwickeln, um ihre beabsichtigten Funktionen zu erfüllen und gleichzeitig unbeabsichtigte Folgen zu erkennen und zu vermeiden sowie eingesetzte Systeme, die ein unbeabsichtigtes Verhalten zeigen, zu deaktivieren oder zu deaktivieren.

Ich habe auch verschiedene kollektive Analysen der KI-Ethikprinzipien diskutiert, einschließlich der Behandlung einer Reihe von Forschern, die die Essenz zahlreicher nationaler und internationaler KI-Ethiklehrsätze in einem Papier mit dem Titel „The Global Landscape Of AI Ethics Guidelines“ (veröffentlicht in Natur), und die meine Berichterstattung unter untersucht den Link hier, was zu dieser Keystone-Liste führte:

  • Transparenz
  • Gerechtigkeit & Fairness
  • Nicht-Maleficence
  • Verantwortung
  • Datenschutz
  • Wohltätigkeit
  • Freiheit & Autonomie
  • Vertrauen
  • Nachhaltigkeit
  • Würde
  • Solidarität

Wie Sie vielleicht direkt erraten, kann es äußerst schwierig sein, die diesen Prinzipien zugrunde liegenden Besonderheiten festzunageln. Darüber hinaus ist der Versuch, diese allgemeinen Prinzipien in etwas völlig Greifbares und Detailliertes umzuwandeln, das für die Herstellung von KI-Systemen verwendet werden kann, eine harte Nuss, die es zu knacken gilt. Es ist einfach, mit der Hand zu winken, was KI-Ethikregeln sind und wie sie allgemein eingehalten werden sollten, während es eine viel kompliziertere Situation ist, wenn die KI-Codierung der wahre Gummi sein muss, der auf die Straße trifft.

Die KI-Ethik-Prinzipien müssen von KI-Entwicklern zusammen mit denjenigen angewendet werden, die die KI-Entwicklungsbemühungen verwalten, und sogar von denjenigen, die letztendlich KI-Systeme einsetzen und warten. Alle Beteiligten während des gesamten KI-Lebenszyklus der Entwicklung und Nutzung werden im Rahmen der Einhaltung der etablierten Normen der ethischen KI berücksichtigt. Dies ist ein wichtiges Highlight, da die übliche Annahme ist, dass „nur Programmierer“ oder diejenigen, die die KI programmieren, den Grundsätzen der KI-Ethik unterliegen. Wie bereits erwähnt, braucht es ein Dorf, um KI zu entwickeln und einzusetzen, und dafür muss das gesamte Dorf mit den KI-Ethikvorschriften vertraut sein und sich an diese halten.

Lassen Sie uns auch sicherstellen, dass wir uns bezüglich der Natur der heutigen KI auf derselben Seite befinden.

Es gibt heute keine KI, die empfindungsfähig ist. Wir haben das nicht. Wir wissen nicht, ob empfindungsfähige KI möglich sein wird. Niemand kann treffend vorhersagen, ob wir eine empfindungsfähige KI erreichen werden oder ob die empfindungsfähige KI irgendwie auf wundersame Weise spontan in einer Form einer rechnergestützten kognitiven Supernova entstehen wird (normalerweise als Singularität bezeichnet, siehe meine Berichterstattung unter den Link hier).

Die Art von KI, auf die ich mich konzentriere, besteht aus der nicht-empfindungsfähigen KI, die wir heute haben. Wollten wir wild darüber spekulieren empfindungsfähig AI, diese Diskussion könnte in eine radikal andere Richtung gehen. Eine empfindungsfähige KI wäre angeblich von menschlicher Qualität. Sie müssten bedenken, dass die empfindungsfähige KI das kognitive Äquivalent eines Menschen ist. Mehr noch, da einige spekulieren, dass wir eine superintelligente KI haben könnten, ist es denkbar, dass eine solche KI am Ende klüger als Menschen sein könnte (zu meiner Erforschung einer superintelligenten KI als Möglichkeit siehe die Berichterstattung hier).

Lassen Sie uns die Dinge bodenständiger halten und die heutige rechnerische, nicht-empfindungsfähige KI betrachten.

Machen Sie sich bewusst, dass die heutige KI nicht in der Lage ist, in irgendeiner Weise auf Augenhöhe mit dem menschlichen Denken zu „denken“. Wenn Sie mit Alexa oder Siri interagieren, scheinen die Konversationsfähigkeiten den menschlichen Fähigkeiten ähnlich zu sein, aber die Realität ist, dass sie rechnerisch ist und menschliche Kognition fehlt. Die jüngste Ära der KI hat in großem Umfang maschinelles Lernen (ML) und Deep Learning (DL) genutzt, die den rechnergestützten Musterabgleich nutzen. Dies hat zu KI-Systemen geführt, die den Anschein menschenähnlicher Neigungen erwecken. In der Zwischenzeit gibt es heute keine KI, die einen Anschein von gesundem Menschenverstand hat und auch nicht über die kognitive Verwunderung robusten menschlichen Denkens verfügt.

ML/DL ist eine Form des computergestützten Musterabgleichs. Der übliche Ansatz besteht darin, dass Sie Daten zu einer Entscheidungsaufgabe zusammenstellen. Sie speisen die Daten in die ML/DL-Computermodelle ein. Diese Modelle versuchen, mathematische Muster zu finden. Nachdem solche Muster gefunden wurden, verwendet das KI-System diese Muster, wenn es auf neue Daten stößt. Bei der Präsentation neuer Daten werden die auf den „alten“ oder historischen Daten basierenden Muster angewendet, um eine aktuelle Entscheidung zu treffen.

Ich denke, Sie können sich vorstellen, wohin das führt. Wenn Menschen, die die nach dem Muster getroffenen Entscheidungen getroffen haben, ungünstige Vorurteile eingebaut haben, stehen die Chancen gut, dass die Daten dies auf subtile, aber signifikante Weise widerspiegeln. Machine Learning oder Deep Learning Computational Pattern Matching versucht einfach, die Daten entsprechend mathematisch nachzuahmen. Es gibt keinen Anschein von gesundem Menschenverstand oder anderen empfindungsfähigen Aspekten der von KI erstellten Modellierung per se.

Darüber hinaus erkennen die KI-Entwickler möglicherweise auch nicht, was vor sich geht. Die obskure Mathematik in der ML/DL könnte es schwierig machen, die jetzt verborgenen Vorurteile aufzuspüren. Sie würden zu Recht hoffen und erwarten, dass die KI-Entwickler auf die potenziell vergrabenen Vorurteile testen würden, obwohl dies schwieriger ist, als es scheinen mag. Es besteht eine solide Chance, dass selbst bei relativ umfangreichen Tests immer noch Verzerrungen in den Mustererkennungsmodellen der ML/DL eingebettet sind.

Sie könnten das berühmte oder berüchtigte Sprichwort von Garbage-in-Garbage-out verwenden. Die Sache ist die, dass dies eher Vorurteilen ähnelt, die heimtückisch als Vorurteile in die KI einfließen. Die algorithmische Entscheidungsfindung (ADM) der KI wird zwangsläufig mit Ungerechtigkeiten beladen.

Nicht gut.

Kehren wir zu unserem Fokus auf KI-Asymmetrie zurück.

Eine kurze Zusammenfassung meiner oben genannten drei identifizierten Empfehlungen lautet wie folgt:

1) Machen Sie sich bewusst, dass KI-Asymmetrie existiert und wächst

2) Versuchen Sie sicherzustellen, dass die KI-Asymmetrie durch die KI-Ethik begrenzt ist

3) Versuchen Sie, mit KI-Asymmetrie fertig zu werden, indem Sie sich mit KI bewaffnen

Auf den letztgenannten Punkt, Feuer mit Feuer zu bekämpfen, gehen wir näher ein.

Stellen Sie sich vor, Sie hätten bei der Suche nach einem Kredit eine KI, die auf Ihrer Seite der Bemühungen arbeitet. Dies könnte eine KI-basierte App auf Ihrem Smartphone sein, die für die Aufnahme von Krediten entwickelt wurde. Es ist keine App einer der Banken, sondern wurde unabhängig entwickelt, um in Ihrem Namen zu handeln. Ich habe diese Art von Apps in meinem Buch über KI-basierte Schutzengel-Bots ausführlich beschrieben, siehe den Link hier.

Wenn Sie einen Kredit beantragen, können Sie sich auf diese App beziehen, während Sie von der anderen KI durch den Antragsprozess geführt werden. Diese beiden KI-Systeme sind unterschiedlich und vollständig voneinander getrennt. Die KI auf Ihrem Smartphone wurde „trainiert“, um alle Tricks zu kennen, die von der anderen KI verwendet werden. Daher basieren die Antworten, die Sie in die KI der Bank eingeben, auf den Ratschlägen Ihrer KI.

Eine andere Variante besteht darin, dass Ihre KI die Fragen der anderen KI beantwortet. Soweit die andere KI feststellen kann, geben Sie die Antworten ein. Vielleicht sehen Sie stattdessen nur zu, wie die Interaktionen zwischen den beiden kämpfenden KI-Systemen stattfinden. Auf diese Weise können Sie sehen, was Ihre KI anbietet. Darüber hinaus können Sie Ihre KI möglicherweise anpassen, je nachdem, ob Sie mit dem zufrieden sind, was Ihre KI für Sie tut.

Ich habe vorausgesagt, dass wir uns alle allmählich mit KI bewaffnen werden, die in diesen KI-Asymmetrie-Situationen auf unserer Seite sein wird.

Lassen Sie uns überlegen, wie dies funktionieren wird.

Dies sind die wichtigsten Auswirkungen auf die KI-Asymmetrie-Bedingung, die ich dargelegt hatte:

  • Abflachen der KI-Asymmetrie zu Ihren Gunsten (Sie nach oben bringen, in der Hoffnung, gleiche Ebenen zu erreichen)
  • Eine KI-Asymmetrie zu Ihren Gunsten anspornen (Sie zu einem Vorteil zu machen, wenn Sie bereits gleich sind)
  • Boosten einer KI-Asymmetrie zu Ihrem außerordentlichen Vorteil (einen größeren Vorteil erlangen, wenn Sie bereits im Vorteil sind)
  • Versehentliche Unterbietung der KI-Asymmetrie zu Ihrem Nachteil (wenn Sie einen bereits bestehenden Vorteil hatten und die KI Sie versehentlich heruntergezogen hat)

Es ist an der Zeit, tief in diese faszinierenden Möglichkeiten einzutauchen.

Abflachung der KI-Asymmetrie zu Ihren Gunsten

Das Abflachen der KI-Asymmetrie ist die offensichtlichste und am häufigsten diskutierte Überlegung, nämlich dass Sie sich mit KI bewaffnen würden, um zu versuchen, sich mit der von der anderen Seite verwendeten KI in der vorliegenden Angelegenheit von Kopf bis Fuß zu messen. Die KI-Asymmetrie-Einstellung begann mit einem entschiedenen Nachteil für Sie. Du hattest keine KI in deiner Ecke. Du warst auf der niedrigen Seite der Dinge. Die andere Seite hatte KI und sie befanden sich auf einer höheren Ebene.

Sie haben sich also klugerweise mit einer KI bewaffnet, die darauf abzielt, Sie und die andere KI gleichzustellen.

Eine wichtige und vielleicht überraschende Nuance, die es zu beachten gilt, ist, dass es nicht immer so sein wird, dass sich die eingesetzten KI-Systeme gleichmäßig ausgleichen. Sie könnten sich mit KI bewaffnen, die, sagen wir mal, weniger stark ist als die KI, die die andere Seite verwendet. In diesem Fall haben Sie Ihre Abwärtsposition zum Glück erhöht, obwohl Sie jetzt der anderen Seite und ihrer KI nicht ganz ebenbürtig sind.

Deshalb bezeichne ich dies als Abflachen der KI-Asymmetrie. Möglicherweise können Sie die Lücke verkleinern, aber nicht vollständig schließen. Das ultimative Ziel wäre es, KI auf Ihrer Seite zu verwenden, die Sie zu einer völlig gleichberechtigten Haltung bringt. Die Sache ist, dies könnte oder könnte nicht machbar sein. Die andere Seite könnte möglicherweise eine wirklich teure KI haben, und Sie versuchen, mit der sparsamen Mart-Version von KI zu konkurrieren.

Nicht jede KI ist gleich.

Anspornen einer KI-Asymmetrie zu Ihren Gunsten

Dieser Umstand wird heute nicht viel diskutiert, auch weil er derzeit selten ist. Irgendwann wird das alltäglich sein. Angenommen, Sie sind ohne KI und dennoch auf Augenhöhe mit der Seite, die KI hat.

Schön für dich.

Menschen haben ihren Verstand über sie.

Aber vielleicht möchten Sie sich einen Vorteil gegenüber der anderen Seite verschaffen. Wenn Sie sich mit KI bewaffnen, gelangen Sie auf die höhere Ebene. Sie haben jetzt Ihren Verstand und Ihre treue KI in der Hand. Sie haben sich einen Vorteil verschafft, der sich vermutlich gegenüber der KI der anderen Seite durchsetzen wird.

Steigerung einer KI-Asymmetrie zu Ihrem außerordentlichen Gefallen

Unter Verwendung einer ähnlichen Logik wie dem Aspekt, eine KI-Asymmetrie in Ihrem Namen anzuspornen, nehmen Sie an, dass Sie bereits über den Fähigkeiten der anderen Seite stehen, die KI verwendet. Ergo beginnst du nicht mit einer gleichen Haltung. Glücklicherweise sind Sie bereits auf der Oberseite.

Vielleicht möchten Sie sich trotzdem einen noch größeren Vorteil sichern. Deshalb bewaffnen Sie sich mit KI. Dies bringt deinen Kopf und deine Schultern über die andere Seite.

Versehentliche Unterbietung der KI-Asymmetrie zu Ihrem Nachteil

Ich bezweifle, dass Sie von dieser Möglichkeit hören wollen. Bitte beachten Sie, dass es beim Umgang mit KI nicht nur um Rosen und Eistorten geht.

Es könnte sein, dass Sie sich selbst unterbieten, wenn Sie sich mit KI bewaffnen. Wart ihr schon kleiner als die KI der anderen Seite, steckt ihr jetzt in einem tieferen Loch. Wenn Sie auf Augenhöhe waren, sind Sie jetzt im Nachteil. Wenn Sie über der anderen Seite waren, sind Sie jetzt gleich oder darunter.

Wie konnte das passieren?

Sie könnten schockiert sein, wenn Sie darüber nachdenken, dass die KI, die Sie übernehmen, Sie in die Irre führen wird. Dies könnte leicht passieren. Nur weil Sie KI in Ihrer Ecke haben, bedeutet das nicht, dass es nützlich ist. Möglicherweise verwenden Sie die KI und sie gibt Ratschläge, die Sie nicht unbedingt für angemessen halten, aber Sie entscheiden sich trotzdem dafür. Ihre damalige Logik war, dass Sie sich genauso gut darauf verlassen könnten, da Sie sich die Mühe gemacht haben, die KI zu erhalten.

Die von Ihnen verwendete KI ist möglicherweise defekt. Oder es könnte schlecht durchdacht sein. Es gibt eine Reihe von Gründen, warum die KI Ihnen möglicherweise wackelige Ratschläge gibt. Diejenigen, die blind akzeptieren, was die KI sagt, werden sich zwangsläufig in einer Welt voller Verletzungen wiederfinden. Ich habe solche Zwangslagen in meiner Kolumne behandelt, wie z den Link hier.

Das Fazit ist, dass es absolut keine Garantie dafür gibt, dass Sie beim KI-Asymmetrie-Spiel gewinnen werden, nur weil Sie sich mit KI ausrüsten.

Sie könnten zu einem Level Playing Field gelangen. Sie könnten sich einen Vorteil verschaffen. Und leider müssen Sie vorsichtig sein, da Sie mit KI bewaffnet auf ein tieferes Niveau sinken könnten.

Bis zu einem gewissen Grad ist das der Grund, warum KI-Ethik und Ethische KI ein so wichtiges Thema sind. Die Grundsätze der KI-Ethik veranlassen uns, wachsam zu bleiben. KI-Technologen können sich manchmal mit Technologie beschäftigen, insbesondere mit der Optimierung von Hightech. Sie berücksichtigen nicht unbedingt die größeren gesellschaftlichen Auswirkungen. Eine KI-Ethik-Denkweise zu haben und diese integral in die KI-Entwicklung und den Einsatz zu integrieren, ist für die Herstellung geeigneter KI von entscheidender Bedeutung.

Neben der Anwendung von KI-Ethik stellt sich die entsprechende Frage, ob wir Gesetze haben sollten, die verschiedene Verwendungen von KI regeln. Auf Bundes-, Landes- und lokaler Ebene werden neue Gesetze verbreitet, die den Umfang und die Art der Gestaltung von KI betreffen. Der Versuch, solche Gesetze zu entwerfen und zu erlassen, erfolgt schrittweise. Die KI-Ethik dient zumindest als wohlüberlegte Notlösung und wird mit ziemlicher Sicherheit bis zu einem gewissen Grad direkt in diese neuen Gesetze aufgenommen.

Beachten Sie, dass einige vehement argumentieren, dass wir keine neuen Gesetze brauchen, die KI abdecken, und dass unsere bestehenden Gesetze ausreichen. Tatsächlich warnen sie davor, dass wir, wenn wir einige dieser KI-Gesetze erlassen, die goldene Gans töten werden, indem wir gegen Fortschritte in der KI vorgehen, die immense gesellschaftliche Vorteile bieten. Siehe zum Beispiel meine Berichterstattung unter den Link hier und den Link hier.

An diesem Punkt dieser gewichtigen Diskussion würde ich wetten, dass Sie einige anschauliche Beispiele wünschen, die dieses Thema veranschaulichen könnten. Es gibt eine besondere und sicherlich beliebte Reihe von Beispielen, die mir am Herzen liegen. Sie sehen, in meiner Eigenschaft als Experte für KI, einschließlich der ethischen und rechtlichen Auswirkungen, werde ich häufig gebeten, realistische Beispiele zu nennen, die Dilemmata der KI-Ethik aufzeigen, damit die etwas theoretische Natur des Themas leichter erfasst werden kann. Einer der eindrucksvollsten Bereiche, der dieses ethische KI-Problem anschaulich darstellt, ist das Aufkommen von KI-basierten, wirklich selbstfahrenden Autos. Dies dient als praktischer Anwendungsfall oder als Beispiel für eine ausführliche Diskussion zu diesem Thema.

Hier ist dann eine bemerkenswerte Frage, die es wert ist, darüber nachzudenken: Erhellt das Aufkommen von KI-basierten echten selbstfahrenden Autos irgendetwas über KI-Asymmetrie, und wenn ja, was zeigt dies?

Erlauben Sie mir einen Moment, um die Frage auszupacken.

Beachten Sie zunächst, dass an einem echten selbstfahrenden Auto kein menschlicher Fahrer beteiligt ist. Denken Sie daran, dass echte selbstfahrende Autos über ein KI-Fahrsystem gefahren werden. Es ist weder ein menschlicher Fahrer am Steuer erforderlich, noch ist vorgesehen, dass ein Mensch das Fahrzeug fährt. Für meine umfangreiche und laufende Berichterstattung über autonome Fahrzeuge (AVs) und insbesondere selbstfahrende Autos, siehe den Link hier.

Ich möchte weiter klären, was gemeint ist, wenn ich von echten selbstfahrenden Autos spreche.

Die Ebenen selbstfahrender Autos verstehen

Zur Verdeutlichung: Echte selbstfahrende Autos sind solche, bei denen die KI das Auto ganz alleine fährt und es während der Fahraufgabe keine menschliche Hilfe gibt.

Diese fahrerlosen Fahrzeuge gelten als Level 4 und Level 5 (siehe meine Erklärung unter Link hier), während ein Auto, bei dem ein menschlicher Fahrer den Fahraufwand mitteilen muss, normalerweise als Level 2 oder Level 3 betrachtet wird. Die Autos, die die Fahraufgabe mitteilen, werden als halbautonom beschrieben und enthalten typischerweise eine Vielzahl von automatisierte Add-Ons, die als ADAS (Advanced Driver-Assistance Systems) bezeichnet werden.

Es gibt noch kein wirklich selbstfahrendes Auto auf Level 5, und wir wissen noch nicht einmal, ob dies möglich sein wird und wie lange es dauern wird, bis es erreicht wird.

In der Zwischenzeit versuchen die Bemühungen der Stufe 4 allmählich, durch sehr enge und selektive Versuche auf öffentlichen Straßen eine gewisse Traktion zu erreichen. Es gibt jedoch Kontroversen darüber, ob diese Tests per se zulässig sein sollten (wir sind alle Meerschweinchen auf Leben und Tod in einem Experiment) Einige behaupten, dass sie auf unseren Autobahnen und Nebenstraßen stattfinden Link hier).

Da halbautonome Autos einen menschlichen Fahrer erfordern, unterscheidet sich die Einführung dieser Autotypen nicht wesentlich vom Fahren herkömmlicher Fahrzeuge. Daher gibt es an sich nicht viel Neues zu diesem Thema (wie Sie sehen werden) in einem Moment sind die nächsten Punkte allgemein anwendbar).

Für halbautonome Autos ist es wichtig, dass die Öffentlichkeit vor einem störenden Aspekt gewarnt wird, der in letzter Zeit aufgetreten ist, und zwar trotz der menschlichen Fahrer, die immer wieder Videos von sich selbst veröffentlichen, die am Steuer eines Level 2- oder Level 3-Autos einschlafen Wir alle müssen vermeiden, in die Irre geführt zu werden, dass der Fahrer seine Aufmerksamkeit von der Fahraufgabe ablenken kann, während er ein halbautonomes Auto fährt.

Sie sind die verantwortliche Partei für die Fahraktionen des Fahrzeugs, unabhängig davon, wie viel Automatisierung in ein Level 2 oder Level 3 geworfen werden könnte.

Selbstfahrende Autos und KI-Asymmetrie

Bei echten selbstfahrenden Fahrzeugen der Stufen 4 und 5 ist kein menschlicher Fahrer an der Fahraufgabe beteiligt.

Alle Insassen werden Passagiere sein.

Die KI fährt.

Ein Aspekt, der sofort diskutiert werden muss, ist die Tatsache, dass die KI, die an den heutigen KI-Antriebssystemen beteiligt ist, nicht empfindungsfähig ist. Mit anderen Worten, die KI ist insgesamt ein Kollektiv computergestützter Programmierung und Algorithmen und mit Sicherheit nicht in der Lage, auf die gleiche Weise zu argumentieren, wie es Menschen können.

Warum wird dadurch zusätzlich betont, dass die KI nicht empfindungsfähig ist?

Weil ich unterstreichen möchte, dass ich bei der Erörterung der Rolle des KI-Antriebssystems der KI keine menschlichen Qualitäten zuschreibe. Bitte beachten Sie, dass es heutzutage eine anhaltende und gefährliche Tendenz gibt, die KI zu anthropomorphisieren. Im Wesentlichen weisen die Menschen der heutigen KI eine menschenähnliche Empfindung zu, trotz der unbestreitbaren und unbestreitbaren Tatsache, dass es eine solche KI noch nicht gibt.

Mit dieser Klarstellung können Sie sich vorstellen, dass das KI-Fahrsystem die Facetten des Fahrens nicht von Haus aus „kennt“. Das Fahren und alles, was dazu gehört, muss als Teil der Hardware und Software des selbstfahrenden Autos programmiert werden.

Lassen Sie uns in die Vielzahl von Aspekten eintauchen, die zu diesem Thema eine Rolle spielen.

Zunächst ist es wichtig zu erkennen, dass nicht alle KI-selbstfahrenden Autos gleich sind. Jeder Autohersteller und jedes selbstfahrende Technologieunternehmen verfolgt seinen eigenen Ansatz, um selbstfahrende Autos zu entwickeln. Daher ist es schwierig, pauschale Aussagen darüber zu treffen, was KI-Fahrsysteme tun oder nicht tun werden.

Darüber hinaus kann die Aussage, dass ein KI-Fahrsystem eine bestimmte Sache nicht macht, später von Entwicklern überholt werden, die den Computer tatsächlich so programmieren, dass sie genau das tun. Schritt für Schritt werden KI-Fahrsysteme sukzessive verbessert und erweitert. Eine heute bestehende Einschränkung ist in einer zukünftigen Iteration oder Version des Systems möglicherweise nicht mehr vorhanden.

Ich hoffe, dass dies eine ausreichende Litanei von Vorbehalten bietet, um das zu untermauern, was ich gleich erzählen werde.

Lassen Sie uns ein Szenario skizzieren, das KI-Asymmetrie demonstriert.

Denken Sie über die scheinbar belanglose Frage nach, wo selbstfahrende Autos unterwegs sein werden, um Fahrgäste aufzunehmen. Dies scheint ein reichlich harmloses Thema zu sein.

Gehen Sie zunächst davon aus, dass selbstfahrende KI-Autos durch ganze Städte streifen werden. Jeder, der eine Fahrt in einem selbstfahrenden Auto anfordern möchte, hat im Wesentlichen die gleiche Chance, eines zu winken. Allmählich beginnt die KI, die selbstfahrenden Autos hauptsächlich in nur einem Stadtteil herumfahren zu lassen. Dieser Abschnitt ist ein größerer Geldverdiener und die KI wurde so programmiert, dass sie es versucht maximieren Einnahmen als Teil der Nutzung in der gesamten Community (dies unterstreicht die der Optimierung zugrunde liegende Denkweise, sich auf nur eine bestimmte Metrik zu konzentrieren und dabei andere entscheidende Faktoren zu vernachlässigen).

Es stellt sich heraus, dass Gemeindemitglieder in den verarmten Teilen der Stadt weniger wahrscheinlich in der Lage sind, von einem selbstfahrenden Auto mitgenommen zu werden. Dies liegt daran, dass die selbstfahrenden Autos weiter entfernt waren und im umsatzstärksten Teil der Stadt unterwegs waren. Wenn eine Anfrage aus einem entfernten Teil der Stadt eingeht, würde jede andere Anfrage von einem näher gelegenen Ort eine höhere Priorität erhalten. Schließlich ist es fast unmöglich, ein selbstfahrendes Auto an einem anderen Ort als dem reicheren Teil der Stadt zu bekommen, was für diejenigen, die in diesen jetzt ressourcenarmen Gebieten lebten, ärgerlich ist.

Der gepriesene Mobilitäts-für-alle-Traum, den selbstfahrende Autos zum Leben erwecken sollen, ist vorbei.

Man könnte behaupten, dass die KI insgesamt auf einer Form von statistischer und rechnerischer Verzerrung gelandet ist, ähnlich einer Form von Stellvertreterdiskriminierung (oft auch als indirekte Diskriminierung bezeichnet). Erkenne, dass die KI nicht darauf programmiert war, diese ärmeren Viertel zu meiden. Lassen Sie uns das in diesem Fall klarstellen. Nein, es wurde stattdessen entwickelt, um lediglich den Umsatz zu optimieren, ein scheinbar akzeptables Ziel, aber dies geschah, ohne dass die KI-Entwickler andere mögliche Auswirkungen in Betracht zogen. Diese Optimierung wiederum führte unwissentlich und unvermeidlich zu einem unerwünschten Ergebnis.

Hätten sie KI-Ethik-Überlegungen in ihre Optimierungsmentalität aufgenommen, hätten sie vielleicht schon vorher erkannt, dass sie solche düsteren Ergebnisse möglicherweise abgewendet hätten, wenn sie die KI nicht so gestaltet hätten, dass sie mit dieser Art der Überdimensionierung allein einer Metrik fertig wird. Weitere Informationen zu diesen Problemen, die die weit verbreitete Einführung von autonomen Fahrzeugen und selbstfahrenden Autos wahrscheinlich mit sich bringen wird, finden Sie in meiner Berichterstattung unter Link hier, die eine von Harvard geleitete Studie beschreibt, die ich zu diesen Themen mitverfasst habe.

Gehen Sie in jedem Fall davon aus, dass das Pferd bereits aus dem Stall ist und die Situation nicht sofort übergreifenden Lösungen zugänglich ist.

Was könnten diejenigen tun, die diese selbstfahrenden Autos nutzen möchten?

Der naheliegendste Ansatz wäre, mit Führungspersönlichkeiten der Community zusammenzuarbeiten, um den Autohersteller oder das selbstfahrende Technologieunternehmen dazu zu bringen, zu überdenken, wie sie die KI eingerichtet haben. Vielleicht Druck auf die Lizenzen oder Genehmigungen ausüben, die für den Einsatz dieser selbstfahrenden Autos in dieser Stadt oder Gemeinde erteilt wurden. Dies sind wahrscheinlich praktikable Mittel, um positive Veränderungen herbeizuführen, obwohl es eine Weile dauern könnte, bis diese Bemühungen Früchte tragen.

Ein anderer Ansatz wäre, sich mit KI zu bewaffnen.

Stellen Sie sich vor, jemand hat eine clevere KI-basierte App entwickelt, die auf Ihrem Smartphone funktioniert und sich mit der KI des Autoherstellers oder Flottenbetreibers befasst, der Fahrtanfragen entgegennimmt. Es könnte sein, dass die von Ihnen verwendete KI Schlüsselelemente der anderen KI ausnutzt, sodass eine Anfrage nach einem selbstfahrenden Auto von Ihnen erhöhte Priorität erhält. Beachten Sie, dass ich nicht behaupte, dass irgendetwas Illegales stattfindet, sondern dass die KI auf Ihrer Seite basierend auf entdeckten „Features“ oder sogar Schlupflöchern in der anderen KI entwickelt wurde.

Fazit

Die Geschichte über den dreisten Kampf gegen die KI des Flottenbetreibers selbstfahrender Autos, indem man sich mit KI bewaffnet, bringt zusätzliche Kontroversen und Überlegungen zur KI-Ethik auf.

Beispielsweise:

  • Wenn eine Person KI nutzen kann, um ihr einen Vorteil gegenüber einer KI eines anderen Systems zu verschaffen, wie weit kann dies in Bezug auf die mögliche Überschreitung der Grenzen der KI-Ethik gehen (ich überzeuge die selbstfahrenden Autos, zu mir und meinen Freunden zu kommen, unter Ausschluss aller anderen)?
  • Gibt es auch einen Anschein von KI-Ethiküberlegungen, dass, wenn jemand über KI Bescheid weiß oder mit KI bewaffnet ist, um gegen andere KI zu kämpfen, die verbleibenden Menschen, die diese ausgleichende KI nicht haben, irgendwie auf die KI aufmerksam gemacht werden und in der Lage sein sollten, sich zu bewaffnen? dementsprechend auch?

Am Ende führt uns all dies in eine unheimlich erscheinende Zukunft, die aus einem KI-Wettrüsten besteht. Wer wird die KI haben, die er braucht, um sich fortzubewegen und zu überleben, und wer nicht? Wird es immer eine weitere KI geben, die daherkommt und die Notwendigkeit einer ausgleichenden KI hervorruft?

Carl Sagan, der verehrte Wissenschaftler, lieferte diese weise Weisheit über besonders katastrophale Wettrüsten: „Das nukleare Wettrüsten ist wie zwei eingeschworene Feinde, die hüfttief in Benzin stehen, einer mit drei Streichhölzern, der andere mit fünf.“

Wir müssen entschlossen darauf abzielen, unsere Füße trocken und unseren Kopf frei zu halten, wenn es um ein ständig drohendes KI-Wettrüsten geht.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/08/19/ai-ethics-wary-about-worsening-of-ai-asymmetry-amid-humans-getting-the-short-end- vom Stick/