KI-Ethik Vorsichtig abzuwägen, ob das Anbieten von KI-Vorurteilen bei der Jagd auf Kopfgelder zum Fangen und Ergreifen ethisch böser, vollständig autonomer Systeme klug oder zwecklos ist

Gesucht: KI-Bias-Jäger.

Das könnte eine moderne Anzeige sein, die Sie auf Social-Media-Kanälen und in verschiedenen Online-Stellenausschreibungen sehen werden. Dies ist ein relativ neues Konzept oder eine Rolle. Es bringt Kontroversen mit sich. Einige glühende Gläubige argumentieren inbrünstig, dass es überaus sinnvoll ist und die ganze Zeit hätte passieren sollen, während andere eher nervös ernsthaft am Kopf kratzen und nicht so sicher sind, ob dies eine gute Idee ist.

Der Kern der Rolle besteht darin, versteckte Vorurteile oder eingebettete diskriminierende Praktiken in der KI aufzuspüren. Zur Rettung kommen die eifrigen und einstmals von der KI voreingenommenen Jäger. Sie wären vermutlich computererfahrene Kopfgeldjäger. Mehr noch, hoffentlich, durchdrungen von den Tiefen der KI-Fähigkeiten.

Haben Sie eine Waffe, werden Sie reisen und können es durch KI-fähige scharfe Treffsicherheit schaffen, diese unappetitlichen und unangenehmen KI-Vorurteile aufzudecken.

Dies wirft eine Reihe heikler Fragen über die Sensibilität auf, eine solche Taktik zu verfolgen, wenn es darum geht, KI-Vorurteile zu entdecken. Wie ich gleich erörtern werde, wissen Sie bitte, dass das Aufkommen der KI auch die Entstehung von KI-Vorurteilen mit sich gebracht hat. Ein Strom von KI-Vorurteilen. Für meine fortlaufende und umfassende Berichterstattung über KI-Ethik und Ethische KI siehe den Link hier und den Link hier, nur um ein paar zu nennen.

Wie können wir entdecken, dass ein bestimmtes KI-System Vorurteile hat?

Sie können dies den KI-Entwicklern anvertrauen, die die KI entwickelt haben. Die Sache ist die, dass sie möglicherweise so in Vorurteilen verstrickt sind, dass sie selbst die Vorurteile in ihrer zusammengebrauten KI nicht erkennen können. Für sie sieht alles gut aus. Oder sie sind so begeistert von der KI und haben ein Gefühl von Selbststolz darauf, dass es schwierig und ein echter Wermutstropfen wäre, sie dann kritisch auf Vorurteile untersuchen zu müssen. Viele andere solche Gründe scheinen zu untergraben, wenn die KI-Entwickler diese Aufgabe übernehmen, einschließlich fehlender Fähigkeiten, um die eingebetteten Vorurteile herauszufinden, fehlende Zeit in einem Projekt, um dies zu tun, usw.

Okay, also machen Sie weiter und beauftragen Sie externe Berater, die sozusagen die Drecksarbeit für Sie erledigen. Es stellt sich heraus, dass Berater Ihre KI gerne auf Vorurteile untersuchen und Ihnen dafür einen hübschen Pfennig in Rechnung stellen (viele, viele Pfennige). Machen Sie sich bewusst, dass Sie dafür bezahlen müssen, um mit Ihrem KI-System auf den neuesten Stand zu kommen. Sie müssen sie dann herumstöbern lassen, was unzählige kostspielige und mühsame Stunden in Anspruch nehmen kann. Der Einsatz von Beratern ist eine Option, wenn Sie das Budget dafür haben.

In die potenzielle „Lücke“, wie man diese heimtückischen KI-Vorurteile finden kann, kommen die heroischen und schneidigen KI-Vorurteile der Kopfgeldjäger.

Sie zahlen sie normalerweise nicht im Voraus. Sie versuchen, die KI-Vorurteile in ihrer Freizeit zu finden, und müssen dabei ihre eigenen Rechnungen bezahlen. Nur wenn sie Vorurteile erfolgreich finden, werden sie bezahlt. Ich nehme an, Sie könnten das in einer angemessenen Denkweise leicht behaupten, dass dies die herkömmliche Definition eines Kopfgeldjägers ist. Bei Erfolg bezahlt werden. Verdienen Sie nichts, wenn Sie nicht erfolgreich sind. Punkt, Ende der Geschichte.

Bounty-Programme gibt es mindestens seit der Zeit der Römer, und daher können wir vermuten, dass sie funktionieren, da sie all diese Jahre erfolgreich als Praxis überdauert haben.

Hier ist ein faszinierendes Stück historischer Kleinigkeiten für Sie. Berichten zufolge wurde während des Römischen Reiches in der Stadt Pompeji in einer Post bekannt gegeben, dass Kopfgeldjäger gebraucht würden, um einen Kupfertopf zu finden, der aus einem kleinen Laden verschwunden war. Die Belohnung für die Bergung des Kupfertopfes war ein beeindruckender Preis von XNUMX Bronzemünzen. Es tut uns leid zu sagen, dass wir nicht wissen, ob ein Kopfgeldjäger den Kupfertopf gefunden und die Bronzemünzen beansprucht hat, aber wir wissen, dass die Kopfgeldjagd sicherlich seit diesen alten Zeiten fortgesetzt wurde.

In neuerer Zeit ist Ihnen vielleicht bewusst, dass in den 1980er Jahren einige bemerkenswerte Prämien angeboten wurden, um Computerfehler oder Fehler in handelsüblichen Softwarepaketen zu finden, und in den 1990er Jahren bot Netscape eine deutliche Prämie für das Auffinden von Fehlern in ihrem Webbrowser an (und wurde damit zu einer der bekanntesten Firmen dieser Zeit). Google und Facebook hatten sich jeweils für die Kopfgeldjagd nach Fehlern ab 2010 bzw. 2013 entschieden. Ein paar Jahre später, im Jahr 2016, mischte sich sogar das US-Verteidigungsministerium (DoD) ein, indem es eine „Hack the Pentagon“-Kopfgeldaktion veranstaltete (beachten Sie, dass das öffentlich ausgerichtete Kopfgeld für Fehler war, die auf verschiedenen DoD-bezogenen Websites gefunden wurden und nicht in einsatzkritische Verteidigungssysteme).

Lassen Sie uns tiefer in das Thema Bug Bounty eintauchen. Mir ist klar, dass ich in dieser Diskussion hauptsächlich über KI-Vorurteile bei der Kopfgeldjagd sprechen möchte, aber es gibt einige durchaus relevante Parallelen zur Bug-Bounty-Arena.

Einige sind nachweislich verwirrt darüber, dass jede Firma eine Prämie anbieten möchte, um Fehler (oder in diesem Fall KI-Voreingenommenheit) in ihren Systemen zu finden.

Oberflächlich betrachtet scheint dies eine Art „Sie fragen danach“-Strategie zu sein. Wenn Sie die Welt wissen lassen, dass Sie diejenigen willkommen heißen, die versuchen könnten, Löcher in Ihrer Software zu finden, scheint dies gleichbedeutend damit zu sein, Einbrechern zu sagen, dass sie versuchen sollen, in Ihr Haus einzudringen. Auch wenn Sie bereits glauben, dass Sie ein ziemlich gutes Einbruchmeldesystem haben und dass niemand in Ihr gesichertes Zuhause eindringen können sollte, stellen Sie sich vor, Sie würden Einbrecher bitten und tatsächlich anflehen, alle zu Ihrem Wohnort zu kommen und zu sehen, ob sie es können hinein knacken. Oh, die Probleme, die wir für uns selbst weben.

Dasselbe könnte man sagen, wenn man nach Kopfgeldjägern fragt, um Vorurteile in Ihrer KI zu finden.

Erstens impliziert es vielleicht, dass Sie bereits glauben oder sogar genau wissen, dass Ihre KI Vorurteile hat. Das ist ein erschreckend offenes implizites Eingeständnis, zu dem nur wenige bereit zu sein scheinen und das möglicherweise nach hinten losgehen könnte.

Zweitens wissen Sie nicht genau, was diese Kopfgeldjäger tun könnten. Sie könnten sich dafür entscheiden, der ganzen Welt mitzuteilen, dass sie Vorurteile in Ihrer KI gefunden haben. Man nimmt an, dass dies den Erhalt des Kopfgeldes verwirken könnte, obwohl einige die Aufmerksamkeit genießen oder darauf abzielen könnten, ihren Status zu stärken, um Beratungsaufträge und andere Einnahmequellen zu erhalten. Es könnte vielleicht ganz altruistisch sein. Es könnte eine Form von KI-Aktivismus sein. Ich kann weitermachen.

Drittens könnte die ganze Angelegenheit eine hinterhältige Wendung haben. Ein Kopfgeldjäger, der behauptet, nach KI-Vorurteilen zu suchen, könnte teuflisch herumstochern, um Wege zu finden, Ihr KI-System anzugreifen. Das Ganze ist eine Scharade, um letztendlich einen schweren Cyberangriff durchzuführen. Sie haben vielleicht angenommen, dass sie versuchen zu helfen, obwohl sie Fehlverhalten in ihrem Herzen haben. Traurig, aber möglich.

Viertens können wir uns in dieser Angelegenheit noch schlauer verrenken. Ein Kopfgeldjäger findet einige peinliche und potenziell gerichtsverursachende KI-Vorurteile. Das Kopfgeld ist ein Betrag in Dollar, den wir X nennen. Anstatt das Kopfgeld einzufordern, führt der Kopfgeldjäger eine Art seltsame Ransomware-Provokation durch. Wenn Sie dem Kopfgeldjäger einen Betrag von zehn mal X oder vielleicht den Himmel das Limit zahlen, werden sie Sie über die KI-Vorurteile informieren. Sie haben bis Sonntagabend um Mitternacht Zeit, um zu antworten. Nach diesem Zeitpunkt werden die KI-Vorurteile für alle sichtbar aufgedeckt. Huch, eine heimtückische Zwangslage.

Fünftens sind die neuesten die sogenannten „Hack to Return“-Cybergauner, die, nachdem sie einen Haufen Online-Teig gestohlen haben, beschließen, Buße zu tun und einen Teil der unrechtmäßig erbeuteten Beute zurückzugeben. Das Unternehmen, das seine Gelder teilweise zurückerhält, ist dann bereit, den verbleibenden gestohlenen Betrag als nachträgliche Belohnung für die Diebe zu betrachten. Es scheint, als würden alle „gewinnen“, da der Großteil der Gelder zurückerstattet werden und die Cyberkriminellen in der Zwischenzeit nicht rechtlich verfolgt werden, außerdem bekommen sie das Kopfgeld der Piraten. Ist das umsichtig oder führt es heimtückisch zu unrechtmäßigen Handlungen?

Mir ist klar, dass einige von Ihnen vielleicht sagen, dass niemand KI veröffentlichen sollte, die irgendwelche Vorurteile enthält. Das scheint das ganze Dilemma zu lösen, ob Kopfgeldjäger mit KI-Vorurteilen eingesetzt werden sollen oder nicht. Bringen Sie sich nur nicht in eine Kopfgeldsituation. Stellen Sie sicher, dass Ihre KI-Entwickler das Richtige tun und keine KI-Vorurteile in ihren KI-Systemen zulassen. Verwenden Sie vielleicht Berater, um eine doppelte Überprüfung durchzuführen. Tun Sie im Wesentlichen alles, was Sie tun müssen, um zu vermeiden, jemals darüber nachzudenken oder diese KI-voreingenommenen Kopfgeldjäger zu bitten, an den Tisch zu kommen.

Ja, das erscheint durchaus sinnvoll. Das Problem ist, dass es auch ein bisschen verträumt ist. Die Komplexität vieler KI-Systeme ist so groß, dass es mühsam sein wird, sicherzustellen, dass kein Gramm KI-Voreingenommenheit auftaucht. Darüber hinaus sind einige KI-Systeme absichtlich so konzipiert, dass sie sich im Laufe der Zeit anpassen und „lernen“. Das bedeutet, dass die von Ihnen entwickelte KI, die zunächst rein sauber und ohne Vorurteile wäre, irgendwann in der Zukunft dazu tendieren könnte, Vorurteile zu verkörpern (ich meine das nicht auf anthropomorphe Weise, wie ich weiter erklären werde, wie wir weiter zu diesem Thema).

Diejenigen, die die Kopfgeldjagd auf Softwarefehler bevorzugen, neigen dazu zu argumentieren, dass es sinnvoll ist, solche Kopfgelder anzubieten. Wir können ihre Gründe berücksichtigen und sehen, ob sie auch für den Bereich der KI-Vorurteile gelten.

Befürworter von Bug Bounties betonen, dass, anstatt vorzugeben, dass es keine Löcher in Ihrem System gibt, warum Sie nicht dazu ermutigen sollten, Löcher zu finden, und zwar auf „kontrollierte“ Weise? Im Gegensatz dazu könnten Sie ohne eine solche Kopfgeldbemühung einfach hoffen und beten, dass zufällig niemand ein Loch findet, aber wenn Sie stattdessen ein Kopfgeld anbieten und denen sagen, die ein Loch finden, dass sie belohnt werden, bietet es a Chance, das Loch dann selbst zu stützen und andere daran zu hindern, es zu einem späteren Zeitpunkt heimlich zu finden.

Dasselbe könnte im Anwendungsfall von KI-Vorurteilen gesagt werden. Wenn Sie ein ausreichendes Kopfgeld anbieten, werden die Kopfgeldjäger Sie hoffentlich auf die Entdeckung von KI-Vorurteilen aufmerksam machen. Sie können dann relativ ruhig und maßvoll mit den KI-Vorurteilen umgehen. Dies könnte später einem viel größeren und entmutigenderen Problem vorbeugen, nämlich dass jemand anderes KI-Vorurteile in Ihrer KI findet und darüber in den Himmel schreit.

Im Allgemeinen wird ein Unternehmen, das die Jagd nach Fehlern ermöglichen möchte, eine Richtlinie zur Offenlegung von Schwachstellen (Vulnerability Disclosure Policy, VDP) einführen. Der VDP gibt an, wie die Fehler gefunden und der Firma gemeldet werden sollen, zusammen mit der Art und Weise, wie die Belohnung oder das Kopfgeld dem Jäger bereitgestellt wird. Normalerweise verlangt der VDP, dass der Jäger am Ende eine Geheimhaltungsvereinbarung (NDA) unterzeichnet, damit er anderen nicht verrät, was er gefunden hat.

Die Vorstellung, eine Geheimhaltungsvereinbarung mit Kopfgeldjägern zu verwenden, ist umstritten. Obwohl es für das Unternehmen, das die Prämie anbietet, vielleicht Sinn macht, die gefundenen Enthüllungen geheim halten zu wollen, soll dies auch das allgemeine Bewusstsein für solche Fehler ersticken. Wenn über Softwarefehler gesprochen werden darf, würde dies vermutlich die Sicherheit anderer Systeme bei anderen Firmen verbessern, die dann ihre Risiken absichern würden. Einige Kopfgeldjäger unterschreiben keine Geheimhaltungsvereinbarung, teilweise auf Wunsch der Öffentlichkeit und teilweise, weil sie versuchen, ihre eigene Identität zu verbergen. Denken Sie auch daran, dass der NDA-Aspekt normalerweise nicht entsteht, bis der Jäger behauptet, einen Fehler gefunden zu haben, anstatt ihn vorher zu verlangen.

Einige VDPs legen fest, dass das NDA nur für einen begrenzten Zeitraum gilt, sodass das Unternehmen zunächst eine Lösung für die offensichtliche Lücke finden und anschließend eine breitere Offenlegung darüber ermöglichen kann. Sobald das Loch gestopft wurde, erlaubt die Firma eine Lockerung der Geheimhaltungsvereinbarung, damit der Rest der Welt von dem Fehler erfahren kann. Die typische Zeit bis zur Behebung von kopfgeldgejagten Fehlern beträgt Berichten zufolge etwa 15 bis 20 Tage, wenn eine Firma sie sofort einstecken möchte, während sie sich in anderen Fällen auf 60 bis 80 Tage ausdehnen kann. In Bezug auf die Bezahlung des Kopfgeldjägers, die sogenannte Time-to-Pay, nachdem das Loch als tatsächlich vorhanden bestätigt wurde, liegen die Kopfgeldzahlungen Berichten zufolge bei kleineren Instanzen innerhalb von etwa 15 bis 20 Tagen und bei etwa 50 bis 60 Tagen Tage für die größeren Instanzen (dies sind sich ständig ändernde Industrieangaben und nur als Beispiel erwähnt).

Sollten KI-voreingenommene Kopfgeldjäger auch gebeten werden, an einem VDP teilzunehmen und sich mit einem NDA auseinanderzusetzen?

Sie können auf diese Frage ein Ja und ein Nein bekommen. Ja, einige Firmen sollten diesen Weg gehen. Nein, Sie entscheiden sich möglicherweise nicht unbedingt für diesen Weg. Zu den Faktoren gehören die Größe und Art der KI, das Potenzial etwaiger KI-Vorbelastungen und eine Reihe anderer ethischer, rechtlicher und geschäftlicher Überlegungen, die zum Tragen kommen.

Ich möchte hinzufügen, dass die Einrichtung einer Kopfgeldjagd für KI-Vorurteile Ihrer KI eine viel größere Aufgabe ist, als Sie auf den ersten Blick annehmen.

Wir beginnen mit der gewaltigen Möglichkeit, dass Sie von Kopfgeldjägern mit KI-Vorurteilen überwältigt werden.

Im Moment würden Sie sich schwer tun, viele zu finden, die eine solche Visitenkarte haben würden. Es sind nicht viele in der Nähe. Es ist in dieser Hinsicht die Zeit des Wilden Westens. Aber wenn sich die Vorstellung von KI-Vorurteilen bei der Kopfgeldjagd durchsetzt, insbesondere wenn die Kopfgelder reichlich und reich belohnend sind, können Sie darauf wetten, dass jeder in den Pool der Vorurteilsjagd eintauchen wird.

Wollen Sie alle Arten von Gesindel, das KI-Vorurteile in Ihrem KI-System verfolgt? Sie werden einige Abnehmer finden, die tatsächlich Experten in dieser Art von Dingen sind. Sie werden andere Abnehmer bekommen, die Amateure sind und möglicherweise ein Chaos anrichten oder Wolf weinen. Das nächste, was Sie wissen, ist, dass jeder, der „Künstliche Intelligenz“ buchstabieren kann, kommen wird, um in Ihrer Goldmine eines KI-Systems nach diesen wertvollen Goldnuggets mit KI-Voreingenommenheit zu graben. Der Goldrausch ist im Gange. Das ist vielleicht nicht gut für dich.

Sie müssen die Kopfgeldjäger-Einsendungen genau prüfen. Es wird viel „Rauschen“ in den gemeldeten Behauptungen geben, in dem Sinne, dass viele der behaupteten KI-Vorurteile nicht existieren, obwohl der Kopfgeldjäger darauf besteht, dass sie einige gefunden haben. Stellen Sie sich vor, wie viel Arbeit Ihre eigenen KI-Teams benötigen werden, um die Kopfgeldansprüche zu prüfen, die Gültigkeit jedes einzelnen zu untersuchen und dann möglicherweise mit dem Kopfgeldjäger hin und her zu gehen, ob Gold entdeckt wurde oder nicht.

Einige würden argumentieren, dass dies ein weiterer Grund ist, das Ganze selbst zu machen. Sie könnten unweigerlich feststellen, dass die Sache mit dem Kopfgeld mehr Ärger macht, als es wert war.

Hier ist eine weitere Frage zum Nachdenken. Wie werden die Kopfgeldjäger wissen, wie eine KI-Voreingenommenheit aussieht? Ohne den Anschein dessen, wonach gesucht werden muss, könnte im Wesentlichen behauptet werden, jeder glänzende Stein zeige eine KI-Voreingenommenheit in der wahrgenommenen KI-Goldmine, die ausgegraben wird.

Angenommen, Sie haben in den Tagen des Wilden Westens eine Belohnung für die Gefangennahme von Billy the Kid (einem berühmten Gesetzlosen) angeboten. Wenn Sie dies getan haben und kein Bild von Billy beigefügt haben, stellen Sie sich die Anzahl der Kopfgeldjäger vor, die jemanden in das Büro des Sheriffs schleppen könnten, von dem sie hofften oder dachten, dass es Billy the Kid war. Sie könnten mit falschen Billys überschwemmt werden. Das ist schlecht, da Sie sich vermutlich jeden einzelnen ansehen, prüfende Fragen stellen und versuchen müssten, festzustellen, ob die Person wirklich Billy war oder nicht.

Der Punkt ist, dass Sie, um die Kopfgeldbemühungen für KI-Vorurteile einzurichten, klugerweise versuchen sollten, zu klären, woraus Ihrer Meinung nach KI-Vorurteile bestehen. Dies erfordert eine Art Goldilocks-Kalibrierung. Sie wollen nicht so einschränkend sein, dass die Kopfgeldjäger KI-Vorurteile übersehen, nur weil sie nicht in Ihre festgelegte Definition passen, und Sie wollen auch nicht, dass sie „Heureka!“ schreien. bei jedem Bissen einer KI-Voreingenommenheit, die sie vielleicht finden.

Sie benötigen genau das richtige Goldilocks-Gleichgewicht, woraus KI-Vorurteile bestehen, und geben daher möglichst explizite Anweisungen dazu.

Viele dieser KI-Vorurteile bei der Kopfgeldjagd werden sich auf KI-basierte Machine Learning (ML)- und Deep Learning (DL)-Systeme konzentrieren. Dies ist sinnvoll, da die Verbreitung von ML/DL zunimmt, und es scheint einige der wahrscheinlichsten Herausforderungen zu geben, unzulässige KI-Vorurteile zu erfassen.

Diese Forscher stellen fest, wie hervorstechend eine KI-Voreingenommenheit bei der Kopfgeldjagd sein kann, insbesondere im ML/DL-Kontext: „Im Laufe der Zeit haben die Software- und Sicherheitsgemeinschaften ‚Bug Bounties‘ entwickelt, um eine ähnliche Dynamik zwischen Systementwicklern und ihren Kritikern zu erreichen (oder Hacker) hin zu interaktiveren und produktiveren Zwecken. Die Hoffnung ist, dass durch die bewusste Einladung externer Parteien, Software- oder Hardwarefehler in ihren Systemen zu finden, und die Bereitstellung finanzieller Anreize dafür ein gesünderes und schneller reagierendes Ökosystem entsteht. Für die ML-Community ist es selbstverständlich, einen ähnlichen „Bias Bounty“-Ansatz für die rechtzeitige Entdeckung und Reparatur von Modellen und Systemen mit Bias oder anderen unerwünschten Verhaltensweisen in Betracht zu ziehen. Anstatt Fehler in Software zu finden, werden externe Parteien eingeladen, Verzerrungen zu finden – zum Beispiel (demografische oder andere) Untergruppen von Eingaben, bei denen ein trainiertes Modell unterdurchschnittlich abschneidet – und werden dafür belohnt“ (in dem Artikel „An Algorithmic Framework for Bias Kopfgelder“ von Ira Globus-Harris, Michael Kearns und Aaron Roth).

In der Forschungsarbeit skizzieren die Autoren einen vorgeschlagenen Ansatz dafür, welche Arten von KI-Vorurteilen von Kopfgeldjägern gesucht werden können. Es gibt auch einen Hinweis darauf, wie die Ansprüche der Kopfgeldjäger im Zusammenhang mit den so entdeckten angeblichen KI-Vorurteilen zu bewerten sind. Gemäß meinen früheren Bemerkungen hier stehen die Chancen gut, dass Sie fadenscheinige Behauptungen erhalten und die KI-Vorurteile Weizen von der Spreu trennen müssen.

Bevor wir uns weiter mit den wilden und wolligen Überlegungen befassen, die der KI-Voreingenommenheitsjagd zugrunde liegen, wollen wir einige zusätzliche Grundlagen zu zutiefst integralen Themen schaffen. Wir müssen kurz in die KI-Ethik und insbesondere in das Aufkommen von Machine Learning (ML) und Deep Learning (DL) eintauchen.

Sie sind sich vielleicht vage bewusst, dass eine der lautesten Stimmen heutzutage im KI-Bereich und sogar außerhalb des KI-Bereichs darin besteht, nach einem größeren Anschein von ethischer KI zu schreien. Werfen wir einen Blick darauf, was es bedeutet, sich auf KI-Ethik und ethische KI zu beziehen. Darüber hinaus werden wir untersuchen, was ich meine, wenn ich von Machine Learning und Deep Learning spreche.

Ein bestimmtes Segment oder Teil der KI-Ethik, das in den Medien viel Aufmerksamkeit erregt hat, besteht aus KI, die ungünstige Vorurteile und Ungerechtigkeiten aufweist. Sie wissen vielleicht, dass es zu Beginn der jüngsten Ära der KI einen riesigen Ausbruch von Enthusiasmus für das gab, was manche heute nennen KI für immer. Unglücklicherweise begannen wir nach dieser sprudelnden Aufregung, Zeuge zu werden KI für schlecht. Beispielsweise wurde festgestellt, dass verschiedene KI-basierte Gesichtserkennungssysteme rassistische Vorurteile und geschlechtsspezifische Vorurteile enthalten, die ich unter besprochen habe den Link hier.

Bemühungen, sich dagegen zu wehren KI für schlecht sind aktiv unterwegs. Außer lautstark legal Neben dem Streben, das Fehlverhalten einzudämmen, gibt es auch einen substanziellen Drang, die KI-Ethik anzunehmen, um die KI-Abscheulichkeit zu korrigieren. Die Vorstellung ist, dass wir wichtige ethische KI-Prinzipien für die Entwicklung und den Einsatz von KI annehmen und unterstützen sollten, um dies zu unterbieten KI für schlecht und gleichzeitig das Vorzuziehende ankündigen und fördern KI für immer.

In einem ähnlichen Zusammenhang bin ich ein Befürworter des Versuchs, KI als Teil der Lösung von KI-Problemen einzusetzen und Feuer mit Feuer in dieser Denkweise zu bekämpfen. Wir könnten zum Beispiel ethische KI-Komponenten in ein KI-System einbetten, das überwacht, wie der Rest der KI Dinge tut, und so potenziell diskriminierende Bemühungen in Echtzeit erkennen, siehe meine Diskussion unter den Link hier. Wir könnten auch ein separates KI-System haben, das als eine Art KI-Ethikmonitor fungiert. Das KI-System dient als Aufseher, um zu verfolgen und zu erkennen, wann eine andere KI in den unethischen Abgrund geht (siehe meine Analyse solcher Fähigkeiten unter den Link hier).

Ich werde Ihnen gleich einige übergreifende Prinzipien vorstellen, die der KI-Ethik zugrunde liegen. Hier und da schwirren viele solcher Listen herum. Man könnte sagen, dass es noch keine einzige Liste universeller Anziehungskraft und Übereinstimmung gibt. Das ist die traurige Nachricht. Die gute Nachricht ist, dass es zumindest leicht verfügbare KI-Ethik-Listen gibt, und sie neigen dazu, ziemlich ähnlich zu sein. Alles in allem deutet dies darauf hin, dass wir durch eine Art vernünftiger Konvergenz unseren Weg zu einer allgemeinen Gemeinsamkeit dessen finden, woraus KI-Ethik besteht.

Lassen Sie uns zunächst kurz einige der allgemeinen ethischen KI-Vorschriften behandeln, um zu veranschaulichen, was für jeden, der KI herstellt, einsetzt oder verwendet, eine wichtige Überlegung sein sollte.

Zum Beispiel, wie vom Vatikan in der angegeben Rom fordert KI-Ethik und wie ich ausführlich unter behandelt habe den Link hier, dies sind ihre identifizierten sechs primären KI-Ethikprinzipien:

  • Transparenz: Grundsätzlich müssen KI-Systeme erklärbar sein
  • Inklusion: Die Bedürfnisse aller Menschen müssen berücksichtigt werden, damit alle davon profitieren und allen Menschen die bestmöglichen Bedingungen geboten werden, sich zu entfalten und zu entwickeln
  • Verantwortung: Wer den Einsatz von KI gestaltet und einsetzt, muss verantwortungsbewusst und transparent vorgehen
  • Unparteilichkeit: Schaffen oder handeln Sie nicht nach Vorurteilen, um Fairness und Menschenwürde zu wahren
  • Zuverlässigkeit: KI-Systeme müssen zuverlässig arbeiten können
  • Sicherheit und Privatsphäre: KI-Systeme müssen sicher funktionieren und die Privatsphäre der Nutzer respektieren.

Wie vom US-Verteidigungsministerium (DoD) in ihrem angegeben Ethische Grundsätze für den Einsatz künstlicher Intelligenz und wie ich ausführlich unter behandelt habe den Link hier, dies sind ihre sechs primären KI-Ethikprinzipien:

  • Verantwortlich: Das DoD-Personal wird ein angemessenes Maß an Urteilsvermögen und Sorgfalt walten lassen und gleichzeitig für die Entwicklung, den Einsatz und die Nutzung von KI-Fähigkeiten verantwortlich bleiben.
  • Gerecht: Das Ministerium wird gezielte Schritte unternehmen, um unbeabsichtigte Verzerrungen bei den KI-Fähigkeiten zu minimieren.
  • Rückverfolgbar: Die KI-Fähigkeiten der Abteilung werden so entwickelt und eingesetzt, dass das relevante Personal über ein angemessenes Verständnis der Technologie, der Entwicklungsprozesse und der auf KI-Fähigkeiten anwendbaren Betriebsmethoden verfügt, einschließlich transparenter und überprüfbarer Methoden, Datenquellen sowie Entwurfsverfahren und -dokumentation.
  • Zuverlässig: Die KI-Fähigkeiten des Ministeriums werden explizite, genau definierte Verwendungszwecke haben, und die Sicherheit und Wirksamkeit solcher Fähigkeiten werden innerhalb dieser definierten Verwendungszwecke über ihren gesamten Lebenszyklus hinweg getestet und sichergestellt.
  • Regierbar: Die Abteilung wird KI-Fähigkeiten entwerfen und entwickeln, um ihre beabsichtigten Funktionen zu erfüllen und gleichzeitig unbeabsichtigte Folgen zu erkennen und zu vermeiden sowie eingesetzte Systeme, die ein unbeabsichtigtes Verhalten zeigen, zu deaktivieren oder zu deaktivieren.

Ich habe auch verschiedene kollektive Analysen der KI-Ethikprinzipien diskutiert, einschließlich der Behandlung einer Reihe von Forschern, die die Essenz zahlreicher nationaler und internationaler KI-Ethiklehrsätze in einem Papier mit dem Titel „The Global Landscape Of AI Ethics Guidelines“ (veröffentlicht in Natur), und die meine Berichterstattung unter untersucht den Link hier, was zu dieser Keystone-Liste führte:

  • Transparenz
  • Gerechtigkeit & Fairness
  • Nicht-Maleficence
  • Verantwortung
  • Datenschutz
  • Wohltätigkeit
  • Freiheit & Autonomie
  • Vertrauen
  • Nachhaltigkeit
  • Würde
  • Solidarität

Wie Sie vielleicht direkt erraten, kann es äußerst schwierig sein, die diesen Prinzipien zugrunde liegenden Besonderheiten festzunageln. Darüber hinaus ist der Versuch, diese allgemeinen Prinzipien in etwas völlig Greifbares und Detailliertes umzuwandeln, das für die Herstellung von KI-Systemen verwendet werden kann, eine harte Nuss, die es zu knacken gilt. Es ist einfach, mit der Hand zu winken, was KI-Ethikregeln sind und wie sie allgemein eingehalten werden sollten, während es eine viel kompliziertere Situation ist, wenn die KI-Codierung der wahre Gummi sein muss, der auf die Straße trifft.

Die KI-Ethik-Prinzipien müssen von KI-Entwicklern zusammen mit denjenigen angewendet werden, die die KI-Entwicklungsbemühungen verwalten, und sogar von denjenigen, die letztendlich KI-Systeme einsetzen und warten. Alle Beteiligten während des gesamten KI-Lebenszyklus der Entwicklung und Nutzung werden im Rahmen der Einhaltung der etablierten Normen der ethischen KI berücksichtigt. Dies ist ein wichtiges Highlight, da die übliche Annahme ist, dass „nur Programmierer“ oder diejenigen, die die KI programmieren, den Grundsätzen der KI-Ethik unterliegen. Wie bereits erwähnt, braucht es ein Dorf, um KI zu entwickeln und einzusetzen, und dafür muss das gesamte Dorf mit den KI-Ethikvorschriften vertraut sein und sich an diese halten.

Lassen Sie uns auch sicherstellen, dass wir uns bezüglich der Natur der heutigen KI auf derselben Seite befinden.

Es gibt heute keine KI, die empfindungsfähig ist. Wir haben das nicht. Wir wissen nicht, ob empfindungsfähige KI möglich sein wird. Niemand kann treffend vorhersagen, ob wir eine empfindungsfähige KI erreichen werden oder ob die empfindungsfähige KI irgendwie auf wundersame Weise spontan in einer Form einer rechnergestützten kognitiven Supernova entstehen wird (normalerweise als Singularität bezeichnet, siehe meine Berichterstattung unter den Link hier).

Die Art von KI, auf die ich mich konzentriere, besteht aus der nicht-empfindungsfähigen KI, die wir heute haben. Wollten wir wild darüber spekulieren empfindungsfähig AI, diese Diskussion könnte in eine radikal andere Richtung gehen. Eine empfindungsfähige KI wäre angeblich von menschlicher Qualität. Sie müssten bedenken, dass die empfindungsfähige KI das kognitive Äquivalent eines Menschen ist. Mehr noch, da einige spekulieren, dass wir eine superintelligente KI haben könnten, ist es denkbar, dass eine solche KI am Ende klüger als Menschen sein könnte (zu meiner Erforschung einer superintelligenten KI als Möglichkeit siehe die Berichterstattung hier).

Lassen Sie uns die Dinge bodenständiger halten und die heutige rechnerische, nicht-empfindungsfähige KI betrachten.

Machen Sie sich bewusst, dass die heutige KI nicht in der Lage ist, in irgendeiner Weise auf Augenhöhe mit dem menschlichen Denken zu „denken“. Wenn Sie mit Alexa oder Siri interagieren, scheinen die Konversationsfähigkeiten den menschlichen Fähigkeiten ähnlich zu sein, aber die Realität ist, dass sie rechnerisch ist und menschliche Kognition fehlt. Die jüngste Ära der KI hat in großem Umfang maschinelles Lernen (ML) und Deep Learning (DL) genutzt, die den rechnergestützten Musterabgleich nutzen. Dies hat zu KI-Systemen geführt, die den Anschein menschenähnlicher Neigungen erwecken. In der Zwischenzeit gibt es heute keine KI, die einen Anschein von gesundem Menschenverstand hat und auch nicht über die kognitive Verwunderung robusten menschlichen Denkens verfügt.

ML/DL ist eine Form des computergestützten Musterabgleichs. Der übliche Ansatz besteht darin, dass Sie Daten zu einer Entscheidungsaufgabe zusammenstellen. Sie speisen die Daten in die ML/DL-Computermodelle ein. Diese Modelle versuchen, mathematische Muster zu finden. Nachdem solche Muster gefunden wurden, verwendet das KI-System diese Muster, wenn es auf neue Daten stößt. Bei der Präsentation neuer Daten werden die auf den „alten“ oder historischen Daten basierenden Muster angewendet, um eine aktuelle Entscheidung zu treffen.

Ich denke, Sie können sich vorstellen, wohin das führt. Wenn Menschen, die die nach dem Muster getroffenen Entscheidungen getroffen haben, ungünstige Vorurteile eingebaut haben, stehen die Chancen gut, dass die Daten dies auf subtile, aber signifikante Weise widerspiegeln. Machine Learning oder Deep Learning Computational Pattern Matching versucht einfach, die Daten entsprechend mathematisch nachzuahmen. Es gibt keinen Anschein von gesundem Menschenverstand oder anderen empfindungsfähigen Aspekten der von KI erstellten Modellierung per se.

Darüber hinaus erkennen die KI-Entwickler möglicherweise auch nicht, was vor sich geht. Die obskure Mathematik in der ML/DL könnte es schwierig machen, die jetzt verborgenen Vorurteile aufzuspüren. Sie würden zu Recht hoffen und erwarten, dass die KI-Entwickler auf die potenziell vergrabenen Vorurteile testen würden, obwohl dies schwieriger ist, als es scheinen mag. Es besteht eine solide Chance, dass selbst bei relativ umfangreichen Tests immer noch Verzerrungen in den Mustererkennungsmodellen der ML/DL eingebettet sind.

Sie könnten das berühmte oder berüchtigte Sprichwort von Garbage-in-Garbage-out verwenden. Die Sache ist die, dass dies eher Vorurteilen ähnelt, die heimtückisch als Vorurteile in die KI einfließen. Die algorithmische Entscheidungsfindung (ADM) der KI wird zwangsläufig mit Ungerechtigkeiten beladen.

Nicht gut.

Kehren wir nun zum Thema AI Bias Hunting zurück.

Für diejenigen unter Ihnen, die eine Kopfgeldjagd mit KI-Voreingenommenheit in Betracht ziehen, hier sind meine empfohlenen sieben wichtigsten Schritte, wie Sie am besten vorgehen können:

1) Beurteilen. Beurteilen Sie die Eignung einer Kopfgeldjagd mit KI-Voreingenommenheit für Ihre Umstände und gemäß Ihren KI-Systemen

2) Design. Entwerfen Sie einen geeigneten KI-Voreingenommenheits-Bounty-Hunting-Ansatz

3) Implementieren Sie. Implementieren und veröffentlichen Sie Ihre Kopfgeldjagd-Bemühungen mit KI-Voreingenommenheit

4) Feld. Feld die KI voreingenommene Kopfgeldforderungen ein und verarbeite sie entsprechend

5) Fixieren. Korrigieren oder passen Sie Ihre KI entsprechend diesen entdeckten KI-Bias-Expositionen an

6) Prozesse. Passen Sie die KI-Voreinstellungen für die Kopfgeldjagd nach Bedarf an

7) Stellen Sie ein. Unterbrechen Sie die KI-Bias-Kopfgeldjagd, wenn sie nicht mehr benötigt wird

Beachten Sie in meiner Reihe der obigen Schritte, dass ich erwähne, dass Sie Ihre KI vermutlich reparieren oder anpassen möchten, basierend auf der Feststellung, dass eine behauptete KI-Voreingenommenheit tatsächlich in Ihrem KI-System existiert. Das macht durchaus Sinn. Sie möchten mit ziemlicher Sicherheit alle gefundenen KI-Vorurteile stützen. Denken Sie an die rechtlichen (und ethischen) Konsequenzen, wenn Sie dies nicht tun. Es ist eine Sache zu behaupten, dass Sie nicht gewusst haben, dass eine KI-Voreingenommenheit existiert, und sie daher zugelassen haben, während es viel wackeliger ist, zu Protokoll zu geben, dass Sie auf eine KI-Voreingenommenheit aufmerksam gemacht wurden und nichts dagegen unternommen haben.

Die Art und das Ausmaß der KI-Korrektur oder -Anpassung wären natürlich davon abhängig, wie signifikant die KI-Vorurteile waren und wie tief die Probleme eingebettet sind. Wenn Sie Glück haben, wird vielleicht eine bescheidene Menge an Änderungen an der KI Abhilfe schaffen. Das andere Potenzial besteht darin, dass Sie die KI möglicherweise komplett neu schreiben müssen. Für den ML/DL-Typ von KI könnte dies erfordern, zum Reißbrett zurückzukehren und mit einem völlig neuen Datensatz und einem bereinigten ML/DL-Modell neu anzufangen. Ich habe das Aufkommen von KI-Degorgierung oder KI-Zerstörung als mögliches Rechtsmittel gegen unappetitliche KI diskutiert, siehe den Link hier.

Eine Frage, über die Sie nachdenken sollten, ist, ob Sie möchten, dass die Kopfgeldjäger möglicherweise mehr tun, als nur die Existenz von KI-Vorurteilen zu identifizieren. Beispielsweise könnten Sie die Prämie versüßen, indem Sie darauf hinweisen, dass vorgeschlagene Korrekturen ebenfalls willkommen sind. Eine KI-Voreingenommenheit gefunden von einem Kopfgeldjäger könnte eine angegebene Belohnung oder ein Preis ausgezahlt werden. Wenn der Kopfgeldjäger auch einen lebensfähigen anbieten kann fixieren Aufgrund der KI-Voreingenommenheit erhalten sie möglicherweise eine zusätzliche Belohnung.

Einige argumentieren, dass dies eine Brücke zu weit ist. Sie sagen, dass Sie die KI-Bias-Kopfgeldjäger ausschließlich darauf konzentrieren sollten, KI-Bias zu finden. Sie werden eine Reihe unerwünschter negativer Folgen schaffen, indem Sie sie einladen, auch Korrekturen vorzuschlagen. Halten Sie die Dinge einfach. Das Ziel ist es, möglichst viele zusätzliche Augen auf die Entdeckung von KI-Vorurteilen zu lenken, damit Sie entscheiden können, was als nächstes zu tun ist. Das Wasser nicht trüben.

Ein heikler Aspekt, der geklärt werden muss, ist die Höhe der Belohnung oder des Preises für die Kopfgeldjäger, die wirklich KI-Vorurteile entdecken. Sie möchten, dass die Auszahlung demonstrativ ist. Ohne eine ausreichend hohe Belohnung werden Sie nicht viele Kopfgeldjäger bekommen oder sie werden nicht besonders eifrig sein, die KI-Vorurteile in Ihren KI-Systemen zu finden. Sie könnten sich stattdessen auf andere KI-Voreingenommenheits-Bounty-Bemühungen konzentrieren.

Darüber hinaus möchten Sie, wie bereits erwähnt, versuchen, den Drang der Kopfgeldjäger zu unterdrücken, ihre KI-Voreingenommenheitsentdeckungen in andere Formen von Gold umzuwandeln. Wenn die Belohnung mickrig erscheint, könnte dies Kopfgeldjäger dazu verleiten, nach anderen höheren Auszahlungen zu suchen. Sie könnten einen Ransomware-Ansatz gegen Sie verfolgen. Sie könnten erklären, dass sie eine saftige KI-Voreingenommenheit haben, von der ein Konkurrent gerne etwas wissen würde und die er gegen Ihr Unternehmen verwenden könnte, indem er ankündigt, dass die KI-Voreingenommenheit in Ihrer KI existiert. Daher verkaufen sie den entdeckten KI-Bias an den Meistbietenden. Usw.

Man nimmt an, dass Sie, wenn Sie die Belohnung auf einen extrem hohen Bereich setzen, auch nach potenziellem Ärger fragen. Dies könnte alle Arten von verrückten Kopfgeldjägern anziehen. Sie wiederum könnten die sozialen Medien mit verschwommenen Behauptungen überschwemmen, dass sie eine Vielzahl von KI-Vorurteilen gefunden hätten, um dies für ihre eigene Eigenwerbung zu tun und ohne tatsächlich KI-Vorurteile aufgespießt zu haben. In gewisser Weise wirft Ihre erhöhte Belohnung versehentlich ein Licht auf Ihre KI und stößt eine Menge ungehobelter Motten an, um entsprechend schädlich von dem leuchtenden Lichtstrahl angezogen zu werden.

Eine weitere Überlegung betrifft die Zugänglichkeit Ihrer KI.

Um eine KI-Kopfgeldjagd zu ermöglichen, müssen sich die Kopfgeldjäger ausreichend Zugang zu Ihrer KI verschaffen. Sie werden nicht viel Glück haben, KI-Vorurteile zu finden, wenn sie vollständig ausgesperrt sind. Aber Sie möchten Ihren Cybersicherheitsschutz nicht aufgeben, da dies Ihr KI-System vollständig gefährden könnte.

Sie könnten versuchen, die Kopfgeldjäger verschiedene rechtsverbindliche Erklärungen unterzeichnen zu lassen und ihnen dann den erforderlichen Zugang zu verschaffen. Einige Kopfgeldjäger werden diese Art von Herangehensweise nicht mögen. Ihr Standpunkt ist, dass sie nur tun werden, was jeder öffentlich zugängliche und offene Weg zulässt. Sie sind gewissermaßen freie Einzelgänger und lassen sich sozusagen nicht satteln. Sie dazu zu bringen, ihre Unterschrift auf einschüchternden Rechtsdokumenten zu setzen, wird viele von ihnen dazu bringen, die Suche nach KI-Vorurteilen in Ihrer KI zu vermeiden. Oder sie sind verärgert über Ihren rechtlichen Handschuh und entscheiden, dass sie sehen, was sie mit öffentlichen Mitteln finden können, und tun dies mit dem vielleicht schrillen Drang, Ihnen zu zeigen, wie verwundbar Sie wirklich sind.

Ich habe noch einen anderen Blickwinkel, der Ihnen den Kopf verdrehen könnte.

Ein KI-versierter Kopfgeldjäger könnte sich entscheiden, ein KI-System zu entwickeln, das Ihre KI unter die Lupe nehmen und möglicherweise KI-Vorurteile in Ihrer KI entdecken kann. Dies ist der Werkzeugmacher, der sich dafür entscheidet, ein Werkzeug herzustellen, das die Arbeit erledigt, anstatt selbst Handarbeit zu leisten. Anstatt Ihre KI mühsam zu untersuchen, verbringt der KI-versierte Kopfgeldjäger seine Zeit damit, ein KI-Tool zusammenzustellen, das dasselbe tut. Sie verwenden dann das KI-Tool auf Ihrer KI. Das Schöne ist auch, dass sie das KI-Tool vermutlich für jeden anderen wiederverwenden können, der auch eine Kopfgeldjagd auf ihrer jeweiligen KI anbietet.

Ich weiß, was du wahrscheinlich denkst. Wenn ein KI-Tool entwickelt werden kann, um KI auf Vorurteile zu untersuchen, sollte der Hersteller der KI, die auf KI-Vorurteile untersucht wird, entweder ein solches KI-Tool herstellen oder eines für den eigenen Gebrauch kaufen. Theoretisch müssen sie sich dann erst einmal nicht mit dem ganzen Kopfgeldjägerkarneval herumschlagen. Verwenden Sie einfach KI, um ihre KI-Vorurteile zu finden.

Ja, das ist etwas, von dem Sie erwarten können, dass es allmählich aufkommen wird. In der Zwischenzeit wird die Hauptstütze dieser Bemühungen wahrscheinlich darin bestehen, dass KI-Entwickler Kopfgeldjagden betreiben. Sie könnten verschiedene Tools verwenden, um ihre Bemühungen zu unterstützen, aber in naher Zukunft werden sie das KI-Tool wahrscheinlich nicht einfach gedankenlos auf „Automatisch“ stellen und ein Nickerchen machen, sodass das Tool die gesamte KI-Voreingenommenheitssuche für sie übernimmt.

Wir sind noch nicht da.

An diesem Punkt dieser gewichtigen Diskussion würde ich wetten, dass Sie einige anschauliche Beispiele wünschen, die dieses Thema veranschaulichen könnten. Es gibt eine besondere und sicherlich beliebte Reihe von Beispielen, die mir am Herzen liegen. Sie sehen, in meiner Eigenschaft als Experte für KI, einschließlich der ethischen und rechtlichen Auswirkungen, werde ich häufig gebeten, realistische Beispiele zu nennen, die Dilemmata der KI-Ethik aufzeigen, damit die etwas theoretische Natur des Themas leichter erfasst werden kann. Einer der eindrucksvollsten Bereiche, der dieses ethische KI-Problem anschaulich darstellt, ist das Aufkommen von KI-basierten, wirklich selbstfahrenden Autos. Dies dient als praktischer Anwendungsfall oder als Beispiel für eine ausführliche Diskussion zu diesem Thema.

Hier ist dann eine bemerkenswerte Frage, die es wert ist, darüber nachzudenken: Erhellt das Aufkommen von KI-basierten echten selbstfahrenden Autos irgendetwas über die Verwendung von KI-Bias-Kopfgeldjagden, und wenn ja, was zeigt dies?

Erlauben Sie mir einen Moment, um die Frage auszupacken.

Beachten Sie zunächst, dass an einem echten selbstfahrenden Auto kein menschlicher Fahrer beteiligt ist. Denken Sie daran, dass echte selbstfahrende Autos über ein KI-Fahrsystem gefahren werden. Es ist weder ein menschlicher Fahrer am Steuer erforderlich, noch ist vorgesehen, dass ein Mensch das Fahrzeug fährt. Für meine umfangreiche und laufende Berichterstattung über autonome Fahrzeuge (AVs) und insbesondere selbstfahrende Autos, siehe den Link hier.

Ich möchte weiter klären, was gemeint ist, wenn ich von echten selbstfahrenden Autos spreche.

Die Ebenen selbstfahrender Autos verstehen

Zur Verdeutlichung: Echte selbstfahrende Autos sind solche, bei denen die KI das Auto ganz alleine fährt und es während der Fahraufgabe keine menschliche Hilfe gibt.

Diese fahrerlosen Fahrzeuge gelten als Level 4 und Level 5 (siehe meine Erklärung unter Link hier), während ein Auto, bei dem ein menschlicher Fahrer den Fahraufwand mitteilen muss, normalerweise als Level 2 oder Level 3 betrachtet wird. Die Autos, die die Fahraufgabe mitteilen, werden als halbautonom beschrieben und enthalten typischerweise eine Vielzahl von automatisierte Add-Ons, die als ADA bezeichnet werdenADA
S (Fortgeschrittene Fahrerassistenzsysteme).

Es gibt noch kein wirklich selbstfahrendes Auto auf Level 5, und wir wissen noch nicht einmal, ob dies möglich sein wird und wie lange es dauern wird, bis es erreicht wird.

In der Zwischenzeit versuchen die Bemühungen der Stufe 4 allmählich, durch sehr enge und selektive Versuche auf öffentlichen Straßen eine gewisse Traktion zu erreichen. Es gibt jedoch Kontroversen darüber, ob diese Tests per se zulässig sein sollten (wir sind alle Meerschweinchen auf Leben und Tod in einem Experiment) Einige behaupten, dass sie auf unseren Autobahnen und Nebenstraßen stattfinden Link hier).

Da halbautonome Autos einen menschlichen Fahrer erfordern, unterscheidet sich die Einführung dieser Autotypen nicht wesentlich vom Fahren herkömmlicher Fahrzeuge. Daher gibt es an sich nicht viel Neues zu diesem Thema (wie Sie sehen werden) in einem Moment sind die nächsten Punkte allgemein anwendbar).

Für halbautonome Autos ist es wichtig, dass die Öffentlichkeit vor einem störenden Aspekt gewarnt wird, der in letzter Zeit aufgetreten ist, und zwar trotz der menschlichen Fahrer, die immer wieder Videos von sich selbst veröffentlichen, die am Steuer eines Level 2- oder Level 3-Autos einschlafen Wir alle müssen vermeiden, in die Irre geführt zu werden, dass der Fahrer seine Aufmerksamkeit von der Fahraufgabe ablenken kann, während er ein halbautonomes Auto fährt.

Sie sind die verantwortliche Partei für die Fahraktionen des Fahrzeugs, unabhängig davon, wie viel Automatisierung in ein Level 2 oder Level 3 geworfen werden könnte.

Selbstfahrende Autos und KI-Bias-Kopfgeldjagd

Bei echten selbstfahrenden Fahrzeugen der Stufen 4 und 5 ist kein menschlicher Fahrer an der Fahraufgabe beteiligt.

Alle Insassen werden Passagiere sein.

Die KI fährt.

Ein Aspekt, der sofort diskutiert werden muss, ist die Tatsache, dass die KI, die an den heutigen KI-Antriebssystemen beteiligt ist, nicht empfindungsfähig ist. Mit anderen Worten, die KI ist insgesamt ein Kollektiv computergestützter Programmierung und Algorithmen und mit Sicherheit nicht in der Lage, auf die gleiche Weise zu argumentieren, wie es Menschen können.

Warum wird dadurch zusätzlich betont, dass die KI nicht empfindungsfähig ist?

Weil ich unterstreichen möchte, dass ich bei der Erörterung der Rolle des KI-Antriebssystems der KI keine menschlichen Qualitäten zuschreibe. Bitte beachten Sie, dass es heutzutage eine anhaltende und gefährliche Tendenz gibt, die KI zu anthropomorphisieren. Im Wesentlichen weisen die Menschen der heutigen KI eine menschenähnliche Empfindung zu, trotz der unbestreitbaren und unbestreitbaren Tatsache, dass es eine solche KI noch nicht gibt.

Mit dieser Klarstellung können Sie sich vorstellen, dass das KI-Fahrsystem die Facetten des Fahrens nicht von Haus aus „kennt“. Das Fahren und alles, was dazu gehört, muss als Teil der Hardware und Software des selbstfahrenden Autos programmiert werden.

Lassen Sie uns in die Vielzahl von Aspekten eintauchen, die zu diesem Thema eine Rolle spielen.

Zunächst ist es wichtig zu erkennen, dass nicht alle KI-selbstfahrenden Autos gleich sind. Jeder Autohersteller und jedes selbstfahrende Technologieunternehmen verfolgt seinen eigenen Ansatz, um selbstfahrende Autos zu entwickeln. Daher ist es schwierig, pauschale Aussagen darüber zu treffen, was KI-Fahrsysteme tun oder nicht tun werden.

Darüber hinaus kann die Aussage, dass ein KI-Fahrsystem eine bestimmte Sache nicht macht, später von Entwicklern überholt werden, die den Computer tatsächlich so programmieren, dass sie genau das tun. Schritt für Schritt werden KI-Fahrsysteme sukzessive verbessert und erweitert. Eine heute bestehende Einschränkung ist in einer zukünftigen Iteration oder Version des Systems möglicherweise nicht mehr vorhanden.

Ich hoffe, dass dies eine ausreichende Litanei von Vorbehalten bietet, um das zu untermauern, was ich gleich erzählen werde.

In meinen Kolumnen habe ich bereits ausführlich den Einsatz von Bugs-orientierten Kopfgeldjägern im Bereich autonomer Fahrzeuge und selbstfahrender Autos diskutiert. Dieser Ansatz hat tatsächlich in dieser Nische stattgefunden. Es gibt die üblichen Debatten darüber, ob es eine gute Idee ist oder nicht. Die Bemühungen waren in der Regel begrenzter Natur und wurden oft relativ ruhig gehalten.

Ein ähnlicher Diskurs kann entstehen, wenn sich der Fokus auf die Jagd nach KI-Vorurteilen verlagert, anstatt auf die Suche nach Systemfehlern per se. Einige schlagen vor, dass es ein verdammtes Rätsel ist, wenn Sie es tun, verdammt, wenn Sie es nicht tun.

Hier ist der Grund.

Erstens, um es klarzustellen, es gibt zahlreiche Möglichkeiten, wie autonome Fahrzeuge und selbstfahrende Autos KI-Voreingenommenheiten enthalten können, siehe meine Berichterstattung unter den Link hier und den Link hier, nur um ein paar zu nennen. Autohersteller und Firmen für selbstfahrende Autos scheinen klug zu versuchen, zu verhindern, dass diese KI-Vorurteile in ihren KI-Systemen auftreten. Der rechtliche und ethische Feuersturm gegen solche Firmen wird zweifellos heftig sein.

Ist der Einsatz einer KI-verzerrten Kopfgeldjagd in diesem spezifischen Kontext ein geeigneter Ansatz?

Eine Antwort lautet: Ja, dies wird praktisch sein und eine Fülle von „kostenlosen“ Sätzen neuer Augen bieten, um zu versuchen, alle eingebetteten KI-Vorurteile eines selbstfahrenden KI-Autos oder dergleichen zu erkennen. Die meisten KI-Entwickler, die selbstfahrende Autos bauen, sind damit beschäftigt, KI zu entwickeln, die ein Auto sicher von Punkt A nach Punkt B fahren kann. Sie sind mit dieser Kernfähigkeit beschäftigt und haben weder Zeit noch Aufmerksamkeit für irgendwelche KI-Vorurteile, die irgendwo darin liegen könnten ihre KI.

Die andere Antwort lautet: Nein, Kopfgeldjagden auf autonome Fahrzeuge und selbstfahrende Autos auf jeglicher Grundlage, sei es wegen Fehlern oder KI-Vorurteilen, sollten einfach strikt vermieden werden. Das Argument ist, dass diese Fahrzeuge und ihre KI von einem Kaliber auf Leben und Tod sind. In irgendeiner Weise mit der KI herumzuspielen, könnte für die KI irgendwie ruinös sein und sich auf die Funktionsweise des KI-Antriebssystems auswirken.

Ein Gegenargument zu diesem letzten Punkt ist, dass die Kopfgeldjäger nicht in der Lage sein sollen, die KI, die sie untersuchen, zu verändern. Somit besteht keine Gefahr, dass sie sich mit der KI anlegen und die KI in diesem Zusammenhang plötzlich zu einem durchgeknallten KI-Fahrsystem werden lässt. Die Kopfgeldjäger haben nur Lesezugriff. Ihnen zu erlauben, weiter zu gehen, wäre reichlich dumm und ein großer Fehler.

Das Gegenargument zu diesem Gegenargument ist, dass die ganze Angelegenheit heikel wird, wenn Kopfgeldjägern erlaubt und ermutigt wird, Ihre KI zu untersuchen. Diese Kopfgeldjäger könnten Wege finden, gefundene Fehler oder Vorurteile auszunutzen. Diese Exploits wiederum könnten hinterhältigen Zwecken dienen. Sie sollten besser keine „Einbrecher“ sozusagen in Ihr Zuhause einladen. Sobald sie den Joint ausgekleidet haben, wirst du letztendlich in einer Menge Ärger stecken.

Für diejenigen, die über KI-Systeme mit einer Größenordnung von weniger als Leben oder Tod verfügen, ist die Überzeugung, dass die Auswirkungen einer Kopfgeldjagd, die schief geht, viel weniger riskant sind. Vielleicht so. Wenn andererseits eine Firma ihr Geld in ein KI-System gesteckt hat, das Kopfgeldjäger an sich reißen, können Sie davon ausgehen, dass die Reputationsschäden und andere potenzielle Schäden immer noch wehtun werden.

Es gibt kein kostenloses Mittagessen, wenn es um Kopfgeldjagd mit KI-Voreingenommenheit geht.

Eine kurze Schlussbemerkung für jetzt.

Als der berüchtigte Outlaw Jesse James im Wilden Westen gesucht wurde, wurde ein „Wanted“-Poster gedruckt, auf dem ein Kopfgeld von 5,000 Dollar für seine Festnahme ausgesetzt war (mit der Aufschrift „tot oder lebendig“). Es war damals eine ziemlich große Summe Geld. Eines seiner eigenen Gangmitglieder entschied sich dafür, Jesse zu erschießen und die Belohnung zu kassieren. Ich nehme an, das zeigt, wie effektiv ein Kopfgeld sein kann.

Wird der Einsatz von Kopfgeldjägern mit KI-Voreingenommenheit eine gute Sache sein, oder wird es eine schlechte Sache sein?

Wenn Sie sich für ein Kopfgeldjäger-Unterfangen mit KI-Voreingenommenheit entscheiden, würde ich vorschlagen, dass Sie Ihre Augen weit offen halten und jederzeit über Ihre Schulter schauen. Dies ist für Sie und Ihre KI sinnvoll. Man weiß nie, was passieren könnte, einschließlich, dass ein hinterhältiger Kopfgeldjäger irgendwie heimlich eine KI-Voreingenommenheit in Ihre KI einfügt und der Welt zuschreit, dass er eine skrupellose KI-Voreingenommenheit in Ihrer KI gefunden hat. Vielleicht tun sie dies in einem dreisten und überdimensionalen Versuch, die Kopfgeldbelohnung zu suchen, und sich selbst als Helden zu proklamieren, die im Wesentlichen den gepriesenen Jesse James erwischt haben.

Wenn ich darüber nachdenke, wird eine empfindungsfähige KI diese Idee einer beunruhigenden Dead-or-Alive-Bestimmung wahrscheinlich nicht mögen, könnte man träge spekulieren.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- ethisch-böse-vollautonome-systeme-ist-umsichtig-oder-sinnlos/