KI-Ethik gestört durch neueste in China entwickelte KI-Parteitreue-Gedankenlese-Gesichtserkennungsbescheinigung, die unterdrückerische autonome Systeme ankündigen könnte

Bist du treu?

Theoretisch wäre es möglich, Ihre offensichtlichen Taten zu untersuchen und festzustellen, ob Ihre Handlungen Loyalität zeigen.

Angenommen, es wurde stattdessen versucht, Ihre Gedanken zu lesen und währenddessen Ihr Gesicht zu scannen, um Ihren Loyalitätsquotienten zu bestimmen. Das ist unheimlich aufdringlich; Sie könnten leicht verurteilen. Klingt wie einer dieser verrückten Science-Fiction-Filme, die sich eine zukünftige dystopische Gesellschaft ausmalen.

Zum Glück, flüsterst du dir verstohlen zu, so etwas haben wir heute nicht.

Whoa, halt deine Pferde.

Die Schlagzeilen machen kürzlich Schlagzeilen, dass ein Forschungsbericht, der am 1. Juli 2022 in China online gestellt wurde, eine Studie darstellte, die angeblich eine Bewertung der Gehirnwellen und ihrer Gesichtsausdrücke von Menschen beinhaltete, um zu berechnen, ob sie der Kommunistischen Partei Chinas (KPCh) gegenüber loyal waren. . Also, los geht's, die Zukunft rückt immer näher, zumindest in Bezug auf das Erreichen der dystopischen Gesellschaft, von der wir befürchtet haben, dass sie eines Tages entstehen könnte.

Das Forschungspapier verschwand schnell von seinem online geposteten Link.

Vermutlich reichte die schnelle Verachtung, die schnell über das Internet fegte, aus, um die Zeitung vom Netz zu nehmen. Oder vielleicht wollen die Forscher nur ein paar Formulierungsänderungen und andere harmlose Korrekturen vornehmen, mit dem Ziel, eine Neuveröffentlichung vorzunehmen, sobald sie eine gründlichere Gelegenheit hatten, sicherzustellen, dass die i's gepunktet und die t's alle durchgestrichen sind. Wir müssen die Augen offen halten, um zu sehen, ob das Papier ein zweites Leben bekommt.

Ich werde fortfahren und tief in das eintauchen, was wir über die Forschungsstudie wissen, und versuchen, die Punkte darüber zu verbinden, wie diese Art von KI-bezogener Arbeit für uns alle von Bedeutung ist, und dabei weit über den Rahmen hinausgehen, dies zu sehen als auf ein bestimmtes Land beschränkt. Meine Berichterstattung wird etwas umfangreicher sein als die anderen jüngsten Berichte zu diesem berichtenswerten Artikel, also haben Sie bitte etwas Geduld mit mir.

Meine zusätzliche Betonung wird auch sein, dass es eine Menge wichtiger Lektionen zur KI-Ethik gibt, die wir aus dem angeblichen Papier entnehmen können. Für meine fortlaufende und umfassende Berichterstattung über KI-Ethik und Ethische KI siehe den Link hier und den Link hier, nur um ein paar zu nennen.

Hier ist, was bisher über die Forschungsstudie erwähnt wurde.

Anscheinend wurden einige „Freiwillige“ rekrutiert, um an einem Experiment zur Wahrnehmung der KPCh teilzunehmen. Ob sie freiwillige Freiwillige oder eher angestachelte oder vielleicht geführte Freiwillige waren, ist unbekannt. Wir gehen aus Diskussionsgründen davon aus, dass sie damit einverstanden waren, ein Thema in der Studie zu sein.

Ich erwähne das, um nicht einfach smarmy zu sein. Immer wenn ein Experiment mit menschlichen Probanden durchgeführt wird, gibt es eine Fülle allgemein anerkannter Praktiken in Bezug auf die Rekrutierung und das Eintauchen solcher Probanden in Forschungsanstrengungen. Dies geht teilweise auf frühere Studien zurück, in denen Menschen oft ausgetrickst oder gezwungen wurden, sich an einem Experiment zu beteiligen, was manchmal zu nachteiligen psychologischen Auswirkungen oder sogar zu körperlichen Schäden für diese Teilnehmer führte. Die wissenschaftliche Gemeinschaft hat mächtig versucht, diese Art von heimtückischen Studien einzuschränken, und verlangt, dass alle Arten von Offenlegungen und Warnungen für diejenigen bereitgestellt werden, die in Studien mit Bezug zum Menschen aufgenommen werden sollen.

Zur Klarstellung: Nicht jeder hält sich an solch umsichtige und gewissenhafte Richtlinien.

Im weiteren Verlauf gab es Berichten zufolge 43 Personen, und es wurde gesagt, dass sie Mitglieder der Kommunistischen Partei Chinas waren. Denken Sie daran, dass die Auswahl der Probanden für ein Experiment ziemlich entscheidend für das Experiment ist und auch in Bezug auf alle Schlussfolgerungen berücksichtigt werden muss, die Sie später über die Ergebnisse des Experiments zu ziehen versuchen.

Angenommen, ich möchte ein Experiment darüber durchführen, wie Menschen die gefeierte Star Wars-Serie wahrnehmen. Wenn ich Personen vorab auswähle, die alle Star Wars abgrundtief hassen (wie können solche Leute existieren?), und ich ihnen Star Wars-Videoclips zeige, stehen die Chancen gut, dass sie wahrscheinlich sagen werden, dass sie Star Wars immer noch nicht mögen. Basierend auf diesem pseudowissenschaftlichen Experiment behaupte ich vielleicht heimlich, dass die Leute – im Allgemeinen – Star Wars wirklich hassen, was in meinem „sorgfältig“ vorbereiteten Forschungsumfeld „bewiesen“ (wink-wink) wurde.

Sie wissen vielleicht nicht, dass ich das Rouletterad sozusagen manipuliert hatte, indem ich die Themen vorab ausgewählt hatte, von denen ich erwartete, dass sie meine heimlich gewünschten Ergebnisse erzielen würden. Hätte ich stattdessen absichtlich Leute angeworben, die Star Wars liebten und eifrige Fans waren, würden sie wahrscheinlich berichten, dass sie begeistert davon sind, diese Star Wars-Clips gesehen zu haben. Auch hier würden alle Schlussfolgerungen darüber, wie Menschen im Allgemeinen auf Star Wars reagieren, durch die vorab ausgewählten Themen gemildert, die für die Bemühungen ausgewählt wurden.

Die auf die KPCh ausgerichtete Studie ließ die Probanden anscheinend vor einem kioskähnlichen Videodisplay sitzen und verschiedene Artikel über die Politik und Errungenschaften der KPCh lesen. Dies ist wahrscheinlich die als „experimentelle Behandlung“ angesehene, der die Probanden ausgesetzt sind. Wenn Sie ein Experiment planen, fällt Ihnen normalerweise ein experimenteller Faktor oder Aspekt ein, von dem Sie sehen möchten, ob er sich auf die Teilnehmer auswirkt.

Die offensichtlich untersuchte Forschungsfrage war, ob die Sichtung dieser Materialien irgendwelche Auswirkungen auf die Probanden in Bezug auf eine Erhöhung, Verringerung oder Neutralität ihrer späteren Eindrücke von der KPCh haben würde.

In einer klassischen Nullhypothese könnte man eine solche Studie so anordnen, dass die verbrauchten Materialien keinen Einfluss auf die späteren Eindrücke der Probanden haben. Sobald Sie einen Vorher-Nachher-Vergleich ihrer Ansichten über die KPCh durchgeführt haben, würden Sie statistisch versuchen zu sehen, ob es eine statistisch signifikante Erkennung einer Änderung ihrer Eindrücke gab.

Es könnte sein, dass sich Vorher und Nachher statistisch nicht unterscheiden, daher könnten Sie vernünftigerweise vorläufig den Schluss ziehen, dass die angezeigten Materialien (experimentelle Behandlung) für diese spezielle Studie keinen Unterschied in ihren Eindrücken zu machen schienen. Auf der anderen Seite, wenn es einen statistisch gültigen Unterschied gibt, würden Sie schauen, ob das Nachher größer war als das Vorher, was Ihnen erlaubt, vorsichtig darauf hinzuweisen, dass die Materialien ihre Eindrücke verstärkten (und auf der anderen Seite der Medaille, wenn das Nachher war geringer als das Vorher, was darauf hindeuten könnte, dass die Materialien ihre Eindrücke verringerten oder verringerten).

Es gibt viele nagende lose Enden, die in einer solchen Studie behandelt werden müssten.

Zum Beispiel möchten wir normalerweise eine sogenannte Kontrollgruppe haben, die wir mit denen vergleichen können, die die experimentelle Behandlung erhalten. Hier ist der Grund. Nehmen wir an, dass das Sitzen vor einem Kiosk, um Materialien zu lesen, die wahre Grundlage dafür war, warum Eindrücke verändert wurden. Es könnte sein, dass die Art der verbrauchten Materialien für die Eindruckswirkung ungefähr unerheblich ist. Bloß dazusitzen und irgendetwas zu lesen, wie zum Beispiel die neuesten Geschichten über Katzen, die lustige Dinge tun, allein könnte ausreichen. Wir könnten daher arrangieren, dass einige Probanden in unserer Kontrollgruppe sind, die anderem Material zum Lesen ausgesetzt sind, außer den Richtlinien und Errungenschaften der KPCh.

Wir wissen nicht, ob dies in diesem Fall getan wurde (niemand scheint diese Facette bisher erwähnt zu haben).

Mir ist klar, dass Sie jetzt wegen des medienexplosiven Teils der Studie unruhig werden. Wir werden zügig in diesen Teil einsteigen.

Wie können wir feststellen, ob die Probanden in diesem Experiment auf ihre Eindrücke reagierten oder ihre Eindrücke veränderten, nachdem sie die ausgestellten Materialien gelesen hatten?

Ein übliches Mittel wäre, sie zu fragen.

Sie hätten vorher vielleicht einen Fragebogen verwaltet, der sie nach ihren Eindrücken von der KPCh fragt. Dann, nach der Exposition gegenüber der experimentellen Behandlung, wie beim Lesen der ausgestellten Materialien, könnten wir einen weiteren Fragebogen durchführen. Die Antworten der Versuchspersonen auf einer Vorher-Nachher-Basis könnten dann verglichen werden. Wenn wir auch eine Kontrollgruppe verwenden würden, würden wir annehmen, dass sich die Antworten der Kontrollgruppe vom Vorher zum Nachher nicht wesentlich ändern würden (in der Überzeugung, dass das Betrachten von Geschichten über herumtollende Katzen ihre CCP-Eindrücke nicht hätte beeinflussen sollen).

Dieser Vorgang, die Testpersonen nach ihren Eindrücken zu fragen, ist nicht unbedingt so einfach, wie es scheinen mag.

Angenommen, die Probanden im Experiment bekommen ein Gefühl oder eine allgemeine Tendenz, dass Sie möchten, dass sie auf die experimentelle Behandlung auf eine bestimmte Weise reagieren. In diesem Fall könnten sie ihre Reaktionen im Nachgang der experimentellen Verabreichung absichtlich übertreiben. Sie haben das sicher schon erlebt. Wenn ich einen Geschmackstest für eine neue Limonade mache, die auf den Markt kommt, tue ich vielleicht so, als hätte ich die Limonade wild genossen, in der Hoffnung, vielleicht in einer Werbung des Limonadenherstellers vorgestellt zu werden und meine wohlverdienten fünfzehn Minuten Ruhm zu bekommen .

Das Wesentliche ist, dass die bloße Befragung von Menschen nach ihrer Meinung kein sicheres Mittel ist, um Veränderungen einzuschätzen. Es ist ein Ansatz. Auch andere Ansätze könnten und werden oft verfolgt.

Wie hat sich diese spezielle Studie entschieden, um die Reaktionen der Probanden zu messen?

Anscheinend wurden mindestens zwei Methoden verwendet. Eine Methode bestand darin, einen Gesichtsscan durchzuführen und eine KI-basierte Gesichtserkennungssoftware zu verwenden, um die Reaktionen der Probanden zu bewerten. Die andere Methode war Berichten zufolge eine Art Gehirnwellenscanning. Es wurde noch nicht berichtet, welche Art von Geräten zum Scannen von Gehirnwellen verwendet wurden, noch welche Art von KI-basierter Software zur Analyse von Gehirnwellen verwendet wurde.

Verschiedene Berichte haben darauf hingewiesen, dass die Studie Folgendes über die Art des Experiments aussagte: „Einerseits kann es beurteilen, wie Parteimitglieder Gedanken und politische Bildung akzeptiert haben.“ Und auch das soll die Studie angeblich erwähnt haben: „Andererseits wird sie echte Daten für das Denken und die politische Bildung liefern, um sie zu verbessern und zu bereichern.“ Die Forschungsstudie wurde der Durchführung unter der Schirmherrschaft des Hefei Comprehensive National Science Center in China zugeschrieben.

Medienberichte deuten darauf hin, dass die Studie auf eine Behauptung anspielte, dass die Gesichtserkennungsscans und die Gehirnwellenscans dazu beitragen konnten, festzustellen, dass die nachträglichen Eindrücke über die KPCh verstärkt wurden.

Ich möchte für Sie darauf hinweisen, dass wir, ohne die verwendeten Systeme direkt überprüfen und das Forschungspapier genau untersuchen zu können, nicht wissen, wie genau diese KI-basierten Systeme verwendet wurden.

Es könnte sein, dass die Probanden eher auf die experimentelle Umgebung als auf die experimentelle Behandlung reagierten. Jeder, der an einer Studie teilnimmt, könnte zunächst ängstlich sein. Dies könnte alle Bemühungen, Gehirnwellenscans oder Gesichtsmusteranalysen durchzuführen, vereiteln. Es besteht auch die Möglichkeit, dass sie sich motiviert fühlten, den Forschern zu gefallen, und sich dafür entschieden haben, positive Gedanken zu haben, nachdem sie die Materialien gesehen haben, und dies könnte sich theoretisch in den Gehirnwellen-Scans und den Gesichtsscans widerspiegeln (vielleicht, aber bitte wissen Sie, dass es einen großartigen gibt viel leidenschaftliche Kontroverse über die Gültigkeit solcher Behauptungen, wie ich gleich erläutern werde), in der Hoffnung, die Ergebnisse zu verzerren und zu zeigen, dass sie positiv beeinflusst wurden.

Die Twitter-Reaktion beklagte im Wesentlichen, dass die bloße Vorstellung, KI-gestützte Gehirnwellen-Scans und Gesichtserkennung zu verwenden, an sich schon eine entsetzliche und unerhörte Tat ist. Nur menschliche Monster würden diese Art von Geräten verwenden, wie uns einige dieser Tweets sagen.

Ich muss Sie bitten, sich hinzusetzen und sich auf etwas vorzubereiten, das eine unhöfliche und schockierende Überraschung sein könnte.

Es gibt viele Forscher weltweit, die dieselben Technologien in ihren Forschungsstudien verwenden. Dies ist sicherlich nicht das allererste Mal, dass eine Gehirnwellen-Scan-Fähigkeit bei menschlichen Probanden in Forschungsanstrengungen eingesetzt wurde. Dies war sicherlich auch nicht das erste Mal, dass die Gesichtserkennung zu Versuchszwecken an menschlichen Probanden eingesetzt wurde. Selbst eine oberflächliche Online-Suche zeigt Ihnen viele, viele experimentelle Studien in allen möglichen Ländern und Labors, die diese Art von Geräten verwendet haben.

Nun, davon abgesehen, sie zu verwenden, um die Loyalität gegenüber der KPCh zu messen, ist nicht etwas, worauf Sie sich besonders konzentrieren würden. Wenn eine solche KI zur staatlichen Kontrolle eingesetzt wird, ist eine rote Linie überschritten, wie es so schön heißt.

Das ist der offensichtlich erschreckende Teil des ganzen Kits und Caboodles.

Die von vielen zum Ausdruck gebrachte Sorge ist, dass wir uns in einer dystopischen Welt der Verletzung wiederfinden werden, wenn sich Regierungen dafür entscheiden, Gehirnwellen-Scanning-Technologie und Gesichtserkennung einzusetzen, um die Loyalität gegenüber den jeweiligen Regimen festzustellen. Wenn Sie eine öffentliche Straße entlanggehen, kann es sein, dass ein an einem Laternenpfahl montiertes Gerät heimlich Ihren Loyalitätsquotienten bestimmt.

Man nimmt an, dass, wenn Ihr Gesicht nicht darauf hinzudeuten scheint, dass Sie loyal genug sind, oder wenn der Gehirnwellen-Scan dasselbe suggeriert, plötzlich Regierungsschläger herbeistürmen und Sie packen könnten. Entnervend. Miserabel. Darf nicht erlaubt sein.

Das ist der springende Punkt, warum es zu dieser Nachricht eine Schlagzeile mit Aufruhr und Empörung gegeben hat.

Stell dir das vor. Wir werden möglicherweise computerbasierte Systeme herstellen und dann in Betrieb nehmen, die die neueste KI verwenden, um zu entscheiden, ob wir loyal sind oder nicht. Wenn Sie versuchen würden, Leute einzustellen, die herumsitzen und dasselbe tun, bräuchten Sie viele Leute, und Sie hätten ein logistisches Problem, wenn Sie versuchen müssten, sie so zu positionieren, dass sie jeden im Auge behalten. Bei einem KI-basierten System müssen Sie lediglich die elektronischen Geräte an Laternenpfählen, Gebäudeseiten usw. aufstellen. Das Scannen nach Loyalität kann rund um die Uhr an allen so ausgestatteten Orten stattfinden. Dies kann dann in eine riesige Datenbank eingespeist werden.

Wir werden zu Menschen, die bloße Rädchen in einem kolossalen, alles sehenden, alles beobachtenden, gesellschaftlichen, unterdrückerischen Ökosystem sind. Das sehende Auge beobachtet nicht nur, was wir tun. Es interpretiert auch, was unsere Gesichter über unsere Loyalität gegenüber der Regierung aussagen. Unser Verstand muss ebenfalls auf eine ähnlich schreckliche Ursache hin untersucht werden.

Yikes!

Daraus ergibt sich auch ein sekundäres Problem, das im Vergleich zu den bereits skizzierten Implikationen von Big Brother vielleicht nicht ganz so heikel ist.

Denken Sie über diese beiden dringenden Fragen nach:

  • Können wir zuverlässig behaupten, dass ein Gehirnwellenscan Ihre Loyalität bezeugen kann?
  • Können wir zuverlässig behaupten, dass ein Gesichtserkennungsscan Ihre Loyalität bezeugen kann?

Warte mal, vielleicht schreist du aus vollem Halse.

Mir ist klar und ich erkenne an, dass Sie sich vielleicht nicht so sehr um die Zuverlässigkeitsaspekte an sich kümmern. Ob dies zuverlässig möglich ist, ist weniger entscheidend als die Tatsache, dass dies überhaupt geschieht. Niemand sollte einer solchen Prüfung unterzogen werden. Vergessen Sie, ob die Technologie für diese Aufgabe geeignet ist. Wir sollten die Aufgabe nicht von Anfang an übernehmen.

Auf jeden Fall ist die Antwort im Moment ein klares Nein, nämlich dass bestehende KI-Systeme, die einen Anschein von „Gehirnwellen-Scans“ und Gesichtserkennung machen, nicht ausreichend in der Lage sind, diesen Sprung zu machen.

Sie haben vielleicht in letzter Zeit gesehen, dass einige der Gesichtserkennungshersteller in Bezug auf die Verwendung ihrer Gesichtserkennungssysteme einige Rückschritte gemacht haben. In einer kommenden Kolumne werde ich die jüngsten Bemühungen beispielsweise von Microsoft diskutieren, um zu versuchen, die Flut derjenigen einzudämmen, die die von Microsoft bereitgestellten Gesichtserkennungstools für Zwecke verwenden, die weit über das hinausgehen, was die Technologie leisten kann oder wofür sie verwendet werden sollte . Vielleicht ist mein früherer Blick auf die Bedenken bezüglich der KI-Ethik, die bereits in Bezug auf die Gesichtserkennung bekannt geworden sind, von Interesse, siehe den Link hier. Ich habe auch die Arena der Gehirnwellen-Scans besprochen, siehe meine Diskussion unter den Link hier.

Kurz gesagt, es gibt noch keine zuverlässigen oder vernünftigen Mittel, um darauf hinzuweisen, dass ein Gehirnwellen-Scan oder ein Gesichtserkennungs-Scan vorgeben kann, die Loyalität einer Person darzustellen. Selbst vermeintlich grundlegende Facetten wie die Frage, ob man diese Scans zuverlässig mit der Freude oder Trauer einer Person korrelieren kann, werden immer noch heiß diskutiert. Der Versuch, den Einsatz zu etwas so Amorphem und Variablem wie Loyalität zu erhöhen, geht zu weit.

Ich möchte hinzufügen, dass einige fest daran glauben, dass wir irgendwann dort ankommen werden. Deshalb habe ich sorgfältig versucht, darauf hinzuweisen, dass wir noch nicht dort sind, anstatt zu sagen, dass wir es nie erreichen werden. Nie ist ein großes Wort. Sie müssen sich absolut sicher sein, dass dies der Fall sein wird, wenn Sie herumwerfen wollen hört niemals machbar sein (beachten Sie, dass „niemals“ Jahrzehnte von heute, Jahrhunderte von heute und Tausende oder Millionen von Jahren von heute umfasst).

Einige haben auf die Nachricht über diese chinesische Laborforschungsstudie als Indikator dafür reagiert, wie gefährlich die Welt zu unangemessenen und gefährlichen Anwendungen von KI tendiert. Ich werde Ihnen kurz einen Einblick geben, worum es bei der KI-Ethik geht. Dies wird Ihnen helfen, deutlicher zu erkennen, warum diese spezielle Studie viele, wenn nicht fast alle allgemein anerkannten Grundsätze der ethischen KI zu verletzen scheint.

Ob Sie es glauben oder nicht, einige haben angedeutet, dass wir in Bezug auf diese spezielle Studie vielleicht aus einem Maulwurfshügel einen Berg machen.

Sind wir?

Das Gegenargument ist, dass aus einem Maulwurfshügel schon bald ein Berg werden kann. In der sprichwörtlichen Vorstellung eines Schneeballs, der größer und größer wird, wenn er einen schneebedeckten Hügel hinunterrollt, müssen wir den Schneeball daran hindern, sich in Bewegung zu setzen. Wenn wir diese Art von Studien tolerieren, lassen wir diesen Schneeball seine Reise beginnen. Indem wir uns zu Wort melden und solche Studien ausrufen, können wir vielleicht dem Schneeball zuvorkommen.

Eines ist sicher, wir stehen kurz davor, die Büchse der Pandora zu öffnen, wenn es um KI-Aspekte geht, und es bleibt die Frage, ob wir das Öffnen der Büchse verhindern oder zumindest Mittel finden können, um mit dem, was herauskommt, besonnen umzugehen sobald die Kiste ihren teuflischen Inhalt entfesselt hat.

Nicht zuletzt werden diese Art von Medienstürmen hoffentlich eine weit verbreitete Diskussion darüber auslösen, wie wir KI-bezogenes Übelverhalten verhindern und zahlreiche von KI ausgelöste existenzielle Risiken abwenden können. Wir müssen unser gesellschaftliches Bewusstsein für KI-Ethik und ethische KI-Überlegungen verbessern.

Bevor wir uns weiter mit den wilden und wolligen Überlegungen befassen, die dieser Art von KI-Systemen zugrunde liegen, wollen wir einige zusätzliche Grundlagen zu äußerst wichtigen Themen schaffen. Wir müssen kurz in die KI-Ethik und insbesondere in das Aufkommen von Machine Learning (ML) und Deep Learning (DL) eintauchen.

Sie sind sich vielleicht vage bewusst, dass eine der lautesten Stimmen heutzutage im KI-Bereich und sogar außerhalb des KI-Bereichs darin besteht, nach einem größeren Anschein von ethischer KI zu schreien. Werfen wir einen Blick darauf, was es bedeutet, sich auf KI-Ethik und ethische KI zu beziehen. Darüber hinaus werden wir untersuchen, was ich meine, wenn ich von Machine Learning und Deep Learning spreche.

Ein bestimmtes Segment oder Teil der KI-Ethik, das in den Medien viel Aufmerksamkeit erregt hat, besteht aus KI, die ungünstige Vorurteile und Ungerechtigkeiten aufweist. Sie wissen vielleicht, dass es zu Beginn der jüngsten Ära der KI einen riesigen Ausbruch von Enthusiasmus für das gab, was manche heute nennen KI für immer. Unglücklicherweise begannen wir nach dieser sprudelnden Aufregung, Zeuge zu werden KI für schlecht. Beispielsweise wurde festgestellt, dass verschiedene KI-basierte Gesichtserkennungssysteme rassistische Vorurteile und geschlechtsspezifische Vorurteile enthalten, die ich unter besprochen habe den Link hier.

Bemühungen, sich dagegen zu wehren KI für schlecht sind aktiv unterwegs. Außer lautstark legal Neben dem Streben, das Fehlverhalten einzudämmen, gibt es auch einen substanziellen Drang, die KI-Ethik anzunehmen, um die KI-Abscheulichkeit zu korrigieren. Die Vorstellung ist, dass wir wichtige ethische KI-Prinzipien für die Entwicklung und den Einsatz von KI annehmen und unterstützen sollten, um dies zu unterbieten KI für schlecht und gleichzeitig das Vorzuziehende ankündigen und fördern KI für immer.

In einem ähnlichen Zusammenhang bin ich ein Befürworter des Versuchs, KI als Teil der Lösung von KI-Problemen einzusetzen und Feuer mit Feuer in dieser Denkweise zu bekämpfen. Wir könnten zum Beispiel ethische KI-Komponenten in ein KI-System einbetten, das überwacht, wie der Rest der KI Dinge tut, und so potenziell diskriminierende Bemühungen in Echtzeit erkennen, siehe meine Diskussion unter den Link hier. Wir könnten auch ein separates KI-System haben, das als eine Art KI-Ethikmonitor fungiert. Das KI-System dient als Aufseher, um zu verfolgen und zu erkennen, wann eine andere KI in den unethischen Abgrund geht (siehe meine Analyse solcher Fähigkeiten unter den Link hier).

Ich werde Ihnen gleich einige übergreifende Prinzipien vorstellen, die der KI-Ethik zugrunde liegen. Hier und da schwirren viele solcher Listen herum. Man könnte sagen, dass es noch keine einzige Liste universeller Anziehungskraft und Übereinstimmung gibt. Das ist die traurige Nachricht. Die gute Nachricht ist, dass es zumindest leicht verfügbare KI-Ethik-Listen gibt, und sie neigen dazu, ziemlich ähnlich zu sein. Alles in allem deutet dies darauf hin, dass wir durch eine Art vernünftiger Konvergenz unseren Weg zu einer allgemeinen Gemeinsamkeit dessen finden, woraus KI-Ethik besteht.

Lassen Sie uns zunächst kurz einige der allgemeinen ethischen KI-Vorschriften behandeln, um zu veranschaulichen, was für jeden, der KI herstellt, einsetzt oder verwendet, eine wichtige Überlegung sein sollte.

Zum Beispiel, wie vom Vatikan in der angegeben Rom fordert KI-Ethik und wie ich ausführlich unter behandelt habe den Link hier, dies sind ihre identifizierten sechs primären KI-Ethikprinzipien:

  • Transparenz: Grundsätzlich müssen KI-Systeme erklärbar sein
  • Inklusion: Die Bedürfnisse aller Menschen müssen berücksichtigt werden, damit alle davon profitieren und allen Menschen die bestmöglichen Bedingungen geboten werden, sich zu entfalten und zu entwickeln
  • Verantwortung: Wer den Einsatz von KI gestaltet und einsetzt, muss verantwortungsbewusst und transparent vorgehen
  • Unparteilichkeit: Schaffen oder handeln Sie nicht nach Vorurteilen, um Fairness und Menschenwürde zu wahren
  • Zuverlässigkeit: KI-Systeme müssen zuverlässig arbeiten können
  • Sicherheit und Privatsphäre: KI-Systeme müssen sicher funktionieren und die Privatsphäre der Nutzer respektieren.

Wie vom US-Verteidigungsministerium (DoD) in ihrem angegeben Ethische Grundsätze für den Einsatz künstlicher Intelligenz und wie ich ausführlich unter behandelt habe den Link hier, dies sind ihre sechs primären KI-Ethikprinzipien:

  • Verantwortlich: Das DoD-Personal wird ein angemessenes Maß an Urteilsvermögen und Sorgfalt walten lassen und gleichzeitig für die Entwicklung, den Einsatz und die Nutzung von KI-Fähigkeiten verantwortlich bleiben.
  • Gerecht: Das Ministerium wird gezielte Schritte unternehmen, um unbeabsichtigte Verzerrungen bei den KI-Fähigkeiten zu minimieren.
  • Rückverfolgbar: Die KI-Fähigkeiten der Abteilung werden so entwickelt und eingesetzt, dass das relevante Personal über ein angemessenes Verständnis der Technologie, der Entwicklungsprozesse und der auf KI-Fähigkeiten anwendbaren Betriebsmethoden verfügt, einschließlich transparenter und überprüfbarer Methoden, Datenquellen sowie Entwurfsverfahren und -dokumentation.
  • Zuverlässig: Die KI-Fähigkeiten des Ministeriums werden explizite, genau definierte Verwendungszwecke haben, und die Sicherheit und Wirksamkeit solcher Fähigkeiten werden innerhalb dieser definierten Verwendungszwecke über ihren gesamten Lebenszyklus hinweg getestet und sichergestellt.
  • Regierbar: Die Abteilung wird KI-Fähigkeiten entwerfen und entwickeln, um ihre beabsichtigten Funktionen zu erfüllen und gleichzeitig unbeabsichtigte Folgen zu erkennen und zu vermeiden sowie eingesetzte Systeme, die ein unbeabsichtigtes Verhalten zeigen, zu deaktivieren oder zu deaktivieren.

Ich habe auch verschiedene kollektive Analysen der KI-Ethikprinzipien diskutiert, einschließlich der Behandlung einer Reihe von Forschern, die die Essenz zahlreicher nationaler und internationaler KI-Ethiklehrsätze in einem Papier mit dem Titel „The Global Landscape Of AI Ethics Guidelines“ (veröffentlicht in Natur), und die meine Berichterstattung unter untersucht den Link hier, was zu dieser Keystone-Liste führte:

  • Transparenz
  • Gerechtigkeit & Fairness
  • Nicht-Maleficence
  • Verantwortung
  • Datenschutz
  • Wohltätigkeit
  • Freiheit & Autonomie
  • Vertrauen
  • Nachhaltigkeit
  • Würde
  • Solidarität

Wie Sie vielleicht direkt erraten, kann es äußerst schwierig sein, die diesen Prinzipien zugrunde liegenden Besonderheiten festzunageln. Darüber hinaus ist der Versuch, diese allgemeinen Prinzipien in etwas völlig Greifbares und Detailliertes umzuwandeln, das für die Herstellung von KI-Systemen verwendet werden kann, eine harte Nuss, die es zu knacken gilt. Es ist einfach, mit der Hand zu winken, was KI-Ethikregeln sind und wie sie allgemein eingehalten werden sollten, während es eine viel kompliziertere Situation ist, wenn die KI-Codierung der wahre Gummi sein muss, der auf die Straße trifft.

Die KI-Ethik-Prinzipien müssen von KI-Entwicklern zusammen mit denjenigen angewendet werden, die die KI-Entwicklungsbemühungen verwalten, und sogar von denjenigen, die letztendlich KI-Systeme einsetzen und warten. Alle Beteiligten während des gesamten KI-Lebenszyklus der Entwicklung und Nutzung werden im Rahmen der Einhaltung der etablierten Normen der ethischen KI berücksichtigt. Dies ist ein wichtiges Highlight, da die übliche Annahme ist, dass „nur Programmierer“ oder diejenigen, die die KI programmieren, den Grundsätzen der KI-Ethik unterliegen. Wie bereits erwähnt, braucht es ein Dorf, um KI zu entwickeln und einzusetzen, und dafür muss das gesamte Dorf mit den KI-Ethikvorschriften vertraut sein und sich an diese halten.

Lassen Sie uns auch sicherstellen, dass wir uns bezüglich der Natur der heutigen KI auf derselben Seite befinden.

Es gibt heute keine KI, die empfindungsfähig ist. Wir haben das nicht. Wir wissen nicht, ob empfindungsfähige KI möglich sein wird. Niemand kann treffend vorhersagen, ob wir eine empfindungsfähige KI erreichen werden oder ob die empfindungsfähige KI irgendwie auf wundersame Weise spontan in einer Form einer rechnergestützten kognitiven Supernova entstehen wird (normalerweise als Singularität bezeichnet, siehe meine Berichterstattung unter den Link hier).

Die Art von KI, auf die ich mich konzentriere, besteht aus der nicht-empfindungsfähigen KI, die wir heute haben. Wollten wir wild darüber spekulieren empfindungsfähig AI, diese Diskussion könnte in eine radikal andere Richtung gehen. Eine empfindungsfähige KI wäre angeblich von menschlicher Qualität. Sie müssten bedenken, dass die empfindungsfähige KI das kognitive Äquivalent eines Menschen ist. Mehr noch, da einige spekulieren, dass wir eine superintelligente KI haben könnten, ist es denkbar, dass eine solche KI am Ende klüger als Menschen sein könnte (zu meiner Erforschung einer superintelligenten KI als Möglichkeit siehe die Berichterstattung hier).

Lassen Sie uns die Dinge bodenständiger halten und die heutige rechnerische, nicht-empfindungsfähige KI betrachten.

Machen Sie sich bewusst, dass die heutige KI nicht in der Lage ist, in irgendeiner Weise auf Augenhöhe mit dem menschlichen Denken zu „denken“. Wenn Sie mit Alexa oder Siri interagieren, scheinen die Konversationsfähigkeiten den menschlichen Fähigkeiten ähnlich zu sein, aber die Realität ist, dass sie rechnerisch ist und menschliche Kognition fehlt. Die jüngste Ära der KI hat in großem Umfang maschinelles Lernen (ML) und Deep Learning (DL) genutzt, die den rechnergestützten Musterabgleich nutzen. Dies hat zu KI-Systemen geführt, die den Anschein menschenähnlicher Neigungen erwecken. In der Zwischenzeit gibt es heute keine KI, die einen Anschein von gesundem Menschenverstand hat und auch nicht über die kognitive Verwunderung robusten menschlichen Denkens verfügt.

ML/DL ist eine Form des computergestützten Musterabgleichs. Der übliche Ansatz besteht darin, dass Sie Daten zu einer Entscheidungsaufgabe zusammenstellen. Sie speisen die Daten in die ML/DL-Computermodelle ein. Diese Modelle versuchen, mathematische Muster zu finden. Nachdem solche Muster gefunden wurden, verwendet das KI-System diese Muster, wenn es auf neue Daten stößt. Bei der Präsentation neuer Daten werden die auf den „alten“ oder historischen Daten basierenden Muster angewendet, um eine aktuelle Entscheidung zu treffen.

Ich denke, Sie können sich vorstellen, wohin das führt. Wenn Menschen, die die nach dem Muster getroffenen Entscheidungen getroffen haben, ungünstige Vorurteile eingebaut haben, stehen die Chancen gut, dass die Daten dies auf subtile, aber signifikante Weise widerspiegeln. Machine Learning oder Deep Learning Computational Pattern Matching versucht einfach, die Daten entsprechend mathematisch nachzuahmen. Es gibt keinen Anschein von gesundem Menschenverstand oder anderen empfindungsfähigen Aspekten der von KI erstellten Modellierung per se.

Darüber hinaus erkennen die KI-Entwickler möglicherweise auch nicht, was vor sich geht. Die obskure Mathematik in der ML/DL könnte es schwierig machen, die jetzt verborgenen Vorurteile aufzuspüren. Sie würden zu Recht hoffen und erwarten, dass die KI-Entwickler auf die potenziell vergrabenen Vorurteile testen würden, obwohl dies schwieriger ist, als es scheinen mag. Es besteht eine solide Chance, dass selbst bei relativ umfangreichen Tests immer noch Verzerrungen in den Mustererkennungsmodellen der ML/DL eingebettet sind.

Sie könnten das berühmte oder berüchtigte Sprichwort von Garbage-in-Garbage-out verwenden. Die Sache ist die, dass dies eher Vorurteilen ähnelt, die heimtückisch als Vorurteile in die KI einfließen. Die algorithmische Entscheidungsfindung (ADM) der KI wird zwangsläufig mit Ungerechtigkeiten beladen.

Nicht gut.

Kehren wir zu unserem Fokus auf KI-Systeme zurück, die für unangemessene oder möglicherweise völlige Fehlverhaltenszwecke verwendet werden, und wie sich dies auf die kürzlich veröffentlichte Studie zur CCP-Loyalität bezieht.

Zwei Hauptüberlegungen kommen mir in den Sinn:

1) Diese KI-Instanz ist Teil eines größeren, anhaltenden Musters beunruhigender KI-Nutzung und daher ominös und aufschlussreich für das, was vor sich geht

2) Die Katze könnte aus dem Sack gelassen werden, so dass, wenn eine solche KI in einem Land adoptiert wird, sie auch leicht auf andere Länder übertragen werden kann

Beginnen Sie mit dem ersten Punkt, dass diese KI-Instanz Teil eines fortlaufenden Musters ist.

Ein besonders wichtiger Grund dafür, dass diese eine bestimmte Studie besonders beunruhigt ist, ist, dass sie Teil eines größeren Musters ist, wie KI von einigen genutzt werden soll. Wenn dies die einzige derartige Studie war, die jemals durchgeführt wurde, könnten wir davon leicht gerührt sein. Nichtsdestotrotz würde es wahrscheinlich nicht mit einer solchen Inbrunst mitschwingen, wie wir sie jetzt sehen.

Dies ist vielleicht das Tropf-Tropf-Tröpfchen eines Schritt für Schritt auf etwas zu, das außer Kontrolle geraten wird.

Wie in den Nachrichten berichtet wurde, ist China dafür bekannt, dass es auf überschwängliche Loyalität gegenüber der KPCh bestanden hat. Darüber hinaus wurden oder werden verschiedene Mittel eingeführt, um sicherzustellen, dass die Menschen in die Regierungsdoktrin indoktriniert werden. Es wurden Fälle früherer Studien zitiert, die darauf abzielten, KI-Algorithmen zu entwickeln, die die Denkbedingungen von Parteimitgliedern messen könnten (siehe die von China unterstützte Studienzeiten im Jahr 2019, in dem diese Bemühungen erwähnt wurden).

Sie erinnern sich vielleicht, dass Vizepräsident Mike Pence im Jahr 2018 eine Rede am Hudson Institute hielt und betonte, dass „Chinas Herrscher darauf abzielen, ein Orwellsches System einzuführen, das darauf basiert, praktisch jede Facette des menschlichen Lebens zu kontrollieren“ (dies war ein Hinweis auf die Umsetzung der KPCh von ein Sozialkredit-Scoring-System, ein Thema prominenter Kontroversen). Man könnte ohne Weiteres behaupten, dass diese jüngste CCP-Studie ein weiterer Schritt in diese Richtung ist.

Wir wissen nicht, wann oder ob das Fass zum Überlaufen gebracht wird, sodass diese einmaligen Studien zu weit verbreiteten KI-basierten Überwachungssystemen werden.

Der zweite bemerkenswerte Punkt ist, dass wir nicht davon ausgehen können, dass diese Art von KI nur auf China beschränkt sein wird. Obwohl diese Art der KI-Nutzung in China, die weit verbreitet sein könnte, an sich schon beunruhigend ist, könnten andere Länder dies im Wesentlichen tun.

Sobald die KI dafür zur Hauptsendezeit bereit sein soll, wird es wahrscheinlich nicht lange dauern, bis andere Länder entscheiden, dass sie sie auch implementieren wollen. Die Katze wird aus dem Sack sein. Einige Länder werden diese KI vermutlich auf geradezu repressive Weise einsetzen und nicht versuchen, dies vorzutäuschen. Andere Länder könnten scheinbar versuchen, diese Art von KI für scheinbar vorteilhafte Zwecke einzusetzen, aus denen letztendlich eine fast unvermeidliche Kehrseite hervorgeht.

Tatsächlich ist die Annahme, dass diese Art von KI vielleicht erst übernommen wird, wenn sie als bereit für die Hauptsendezeit angesehen wird, ein wenig irreführend. Es macht vielleicht keinen Unterschied, ob die KI auf diese Weise zuverlässig arbeiten kann. Die KI kann als Titelgeschichte verwendet werden, siehe meine Erklärung unter den Link hier. Unabhängig davon, was die KI tatsächlich leisten kann, ist die Vorstellung, dass die KI ein praktischer Vorwand sein kann, um eine Bevölkerungsüberwachung und Systeme zur Messung und Gewährleistung der absoluten Loyalität gegenüber den Behörden hervorzubringen.

An diesem Punkt dieser gewichtigen Diskussion würde ich wetten, dass Sie einige anschauliche Beispiele wünschen, die dieses Thema veranschaulichen könnten. Es gibt eine besondere und sicherlich beliebte Reihe von Beispielen, die mir am Herzen liegen. Sie sehen, in meiner Eigenschaft als Experte für KI, einschließlich der ethischen und rechtlichen Auswirkungen, werde ich häufig gebeten, realistische Beispiele zu nennen, die Dilemmata der KI-Ethik aufzeigen, damit die etwas theoretische Natur des Themas leichter erfasst werden kann. Einer der eindrucksvollsten Bereiche, der dieses ethische KI-Problem anschaulich darstellt, ist das Aufkommen von KI-basierten, wirklich selbstfahrenden Autos. Dies dient als praktischer Anwendungsfall oder als Beispiel für eine ausführliche Diskussion zu diesem Thema.

Hier ist dann eine bemerkenswerte Frage, die es wert ist, darüber nachzudenken: Erhellt das Aufkommen von KI-basierten echten selbstfahrenden Autos irgendetwas über den Missbrauch von KI, und wenn ja, was zeigt dies?

Erlauben Sie mir einen Moment, um die Frage auszupacken.

Beachten Sie zunächst, dass an einem echten selbstfahrenden Auto kein menschlicher Fahrer beteiligt ist. Denken Sie daran, dass echte selbstfahrende Autos über ein KI-Fahrsystem gefahren werden. Es ist weder ein menschlicher Fahrer am Steuer erforderlich, noch ist vorgesehen, dass ein Mensch das Fahrzeug fährt. Für meine umfangreiche und laufende Berichterstattung über autonome Fahrzeuge (AVs) und insbesondere selbstfahrende Autos, siehe den Link hier.

Ich möchte weiter klären, was gemeint ist, wenn ich von echten selbstfahrenden Autos spreche.

Die Ebenen selbstfahrender Autos verstehen

Zur Verdeutlichung: Echte selbstfahrende Autos sind solche, bei denen die KI das Auto ganz alleine fährt und es während der Fahraufgabe keine menschliche Hilfe gibt.

Diese fahrerlosen Fahrzeuge gelten als Level 4 und Level 5 (siehe meine Erklärung unter Link hier), während ein Auto, bei dem ein menschlicher Fahrer den Fahraufwand mitteilen muss, normalerweise als Level 2 oder Level 3 betrachtet wird. Die Autos, die die Fahraufgabe mitteilen, werden als halbautonom beschrieben und enthalten typischerweise eine Vielzahl von automatisierte Add-Ons, die als ADAS (Advanced Driver-Assistance Systems) bezeichnet werden.

Es gibt noch kein wirklich selbstfahrendes Auto auf Level 5, und wir wissen noch nicht einmal, ob dies möglich sein wird und wie lange es dauern wird, bis es erreicht wird.

In der Zwischenzeit versuchen die Bemühungen der Stufe 4 allmählich, durch sehr enge und selektive Versuche auf öffentlichen Straßen eine gewisse Traktion zu erreichen. Es gibt jedoch Kontroversen darüber, ob diese Tests per se zulässig sein sollten (wir sind alle Meerschweinchen auf Leben und Tod in einem Experiment) Einige behaupten, dass sie auf unseren Autobahnen und Nebenstraßen stattfinden Link hier).

Da halbautonome Autos einen menschlichen Fahrer erfordern, unterscheidet sich die Einführung dieser Autotypen nicht wesentlich vom Fahren herkömmlicher Fahrzeuge. Daher gibt es an sich nicht viel Neues zu diesem Thema (wie Sie sehen werden) in einem Moment sind die nächsten Punkte allgemein anwendbar).

Für halbautonome Autos ist es wichtig, dass die Öffentlichkeit vor einem störenden Aspekt gewarnt wird, der in letzter Zeit aufgetreten ist, und zwar trotz der menschlichen Fahrer, die immer wieder Videos von sich selbst veröffentlichen, die am Steuer eines Level 2- oder Level 3-Autos einschlafen Wir alle müssen vermeiden, in die Irre geführt zu werden, dass der Fahrer seine Aufmerksamkeit von der Fahraufgabe ablenken kann, während er ein halbautonomes Auto fährt.

Sie sind die verantwortliche Partei für die Fahraktionen des Fahrzeugs, unabhängig davon, wie viel Automatisierung in ein Level 2 oder Level 3 geworfen werden könnte.

Selbstfahrende Autos und KI-Missbrauch

Bei echten selbstfahrenden Fahrzeugen der Stufen 4 und 5 ist kein menschlicher Fahrer an der Fahraufgabe beteiligt.

Alle Insassen werden Passagiere sein.

Die KI fährt.

Ein Aspekt, der sofort diskutiert werden muss, ist die Tatsache, dass die KI, die an den heutigen KI-Antriebssystemen beteiligt ist, nicht empfindungsfähig ist. Mit anderen Worten, die KI ist insgesamt ein Kollektiv computergestützter Programmierung und Algorithmen und mit Sicherheit nicht in der Lage, auf die gleiche Weise zu argumentieren, wie es Menschen können.

Warum wird dadurch zusätzlich betont, dass die KI nicht empfindungsfähig ist?

Weil ich unterstreichen möchte, dass ich bei der Erörterung der Rolle des KI-Antriebssystems der KI keine menschlichen Qualitäten zuschreibe. Bitte beachten Sie, dass es heutzutage eine anhaltende und gefährliche Tendenz gibt, die KI zu anthropomorphisieren. Im Wesentlichen weisen die Menschen der heutigen KI eine menschenähnliche Empfindung zu, trotz der unbestreitbaren und unbestreitbaren Tatsache, dass es eine solche KI noch nicht gibt.

Mit dieser Klarstellung können Sie sich vorstellen, dass das KI-Fahrsystem die Facetten des Fahrens nicht von Haus aus „kennt“. Das Fahren und alles, was dazu gehört, muss als Teil der Hardware und Software des selbstfahrenden Autos programmiert werden.

Lassen Sie uns in die Vielzahl von Aspekten eintauchen, die zu diesem Thema eine Rolle spielen.

Zunächst ist es wichtig zu erkennen, dass nicht alle KI-selbstfahrenden Autos gleich sind. Jeder Autohersteller und jedes selbstfahrende Technologieunternehmen verfolgt seinen eigenen Ansatz, um selbstfahrende Autos zu entwickeln. Daher ist es schwierig, pauschale Aussagen darüber zu treffen, was KI-Fahrsysteme tun oder nicht tun werden.

Darüber hinaus kann die Aussage, dass ein KI-Fahrsystem eine bestimmte Sache nicht macht, später von Entwicklern überholt werden, die den Computer tatsächlich so programmieren, dass sie genau das tun. Schritt für Schritt werden KI-Fahrsysteme sukzessive verbessert und erweitert. Eine heute bestehende Einschränkung ist in einer zukünftigen Iteration oder Version des Systems möglicherweise nicht mehr vorhanden.

Ich hoffe, dass dies eine ausreichende Litanei von Vorbehalten bietet, um das zu untermauern, was ich gleich erzählen werde.

Lassen Sie uns ein Szenario für selbstfahrende Autos skizzieren, das KI auf skizzenhafte oder fehlerhafte Weise nutzen könnte.

Ich werde Ihnen einige Auswirkungen von KI-basierten selbstfahrenden Autos mitteilen, die Sie schaudern und verstören lassen könnten. Das sind Facetten, über die derzeit kaum jemand spricht. Ich habe die Dinge wiederholt angesprochen, obwohl ich offen anerkenne, dass wir, bis wir eine weit verbreitete Akzeptanz von selbstfahrenden Autos haben, nicht viel Anklang finden werden, wenn die Gesellschaft besorgt oder verärgert ist über das, was heute wie nur abstrakte Vorstellungen erscheint .

Sind Sie bereit?

Wir beginnen mit der Grundsteinlegung.

KI-basierte selbstfahrende Autos werden sinnvollerweise mit Videokameras ausgestattet. Dadurch kann das selbstfahrende Auto Videobilder der Fahrszene empfangen. Das KI-Fahrsystem, das an Bord der Computer im selbstfahrenden Auto läuft, soll wiederum das gesammelte Video rechnerisch untersuchen und herausfinden, wo sich die Straße befindet, wo sich in der Nähe befindliche Autos befinden, wo sich Fußgänger befinden und so weiter. Mir ist klar, dass ich die Grundlagen von selbstfahrenden Autos aufzähle.

An der Außenseite des autonomen Fahrzeugs sind Videokameras angebracht, die nach außen zeigen. Darüber hinaus ist im Großen und Ganzen damit zu rechnen, dass Videokameras am oder im Fahrzeug nach innen in den Innenraum des selbstfahrenden Autos zielen. Warum so? Kinderleicht, denn für die Videoaufzeichnung des Geschehens im autonomen Fahrzeug wird es viele wichtige Einsatzmöglichkeiten geben.

Wenn Sie in einem selbstfahrenden Auto mitfahren, müssen Sie nicht mehr der Fahrer sein. Was werden Sie dann in einem selbstfahrenden Auto tun?

Eine Sache, die Sie tun könnten, wäre, mit anderen zu Hause oder im Büro zu interagieren. Da sind Sie schon auf dem Weg zur Arbeit, was eine Stunde Fahrzeit mit dem selbstfahrenden Auto bedeutet, und Sie können Ihren Arbeitstag bereits mit einer interaktiven Online-Sitzung ähnlich wie bei Zoom in Echtzeit beginnen. Sie können Sie sehen, da die Kameras nach innen in das selbstfahrende Auto zeigen. Sie können sie vielleicht auf einem LED-Bildschirm im Inneren des selbstfahrenden Autos sehen. Am Ende des Tages, während Sie nach Hause gehen, können Sie eine ähnliche interaktive Videodiskussion mit Ihren Kindern führen, während sie beginnen, ihre Hausaufgaben für den Abend zu erledigen.

Eine andere Verwendung wäre die Teilnahme am Unterricht. Jetzt, da Sie Ihre Zeit nicht mehr mit dem Fahren verschwenden müssen, können Sie diese Leerlaufzeit in einem selbstfahrenden Auto dazu nutzen, Ihre Fähigkeiten zu verbessern oder eine Zertifizierung oder einen Abschluss zu erhalten. Über die nach innen gerichteten Kameras kann Ihr Ausbilder Sie sehen und besprechen, wie Ihr Training vorankommt.

Eine weitere Verwendung wäre der Versuch, sicherzustellen, dass Fahrer in selbstfahrenden Autos nicht Amok laufen. In einem von Menschen angetriebenen Auto ist der Fahrer eine erwachsene Präsenz, die die Fahrer normalerweise davon abhält, verrückte Dinge zu tun, wie z. B. das Markieren des Innenraums mit Graffiti. Was wird mit KI-basierten selbstfahrenden Autos passieren? Einige befürchten, dass Fahrer sich dafür entscheiden werden, das Innere der Fahrzeuge zu zerreißen. Um dies zu verhindern, wird das Mitfahrunternehmen, das die selbstfahrenden Autos einsetzt, wahrscheinlich nach innen gerichtete Videokameras verwenden, um zu überwachen, was die Menschen im Inneren des autonomen Fahrzeugs tun.

Ich nehme an, Sie sind davon überzeugt, dass wir Videokameras haben werden, die in das Innere von selbstfahrenden Autos zeigen, zusätzlich zu den Kameras, die nach außen zeigen, um die Fahrszene zu erkennen.

Sie sind jetzt bereit für das, was ich als das umherschweifende Auge bezeichnet habe, siehe meine Analyse unter den Link hier.

Betrachten Sie zuerst die Videokameras, die nach außen zeigen.

Wohin auch immer das selbstfahrende Auto fährt, es wird potenziell in der Lage sein, alles aufzunehmen, was die Kameras sehen. Ein selbstfahrendes Auto, das jemanden von zu Hause abholt und zum Lebensmittelgeschäft bringt, durchquert eine Nachbarschaft, und das Video zeichnet nicht nur die Straße auf, sondern auch alles andere, was in Sichtweite passiert. Ein Vater und sein Sohn spielen in ihrem Vorgarten. Eine Familie sitzt auf ihrer Veranda. Immer weiter geht es.

Im Moment haben wir so wenige selbstfahrende Autos auf öffentlichen Straßen, dass diese Möglichkeit, Videos von täglichen Aktivitäten aufzunehmen, relativ selten und unwesentlich ist.

Stellen Sie sich vor, dass wir letztendlich sichere und weit verbreitete selbstfahrende Autos erreichen. Tausende von ihnen. Vielleicht Millionen. Wir haben heute in den USA etwa 250 Millionen von Menschen angetriebene Autos. Irgendwann werden diese weitgehend durch selbstfahrende Autos ersetzt oder einfach nicht mehr verwendet, und wir werden überwiegend selbstfahrende Autos auf unseren Straßen haben. Diese selbstfahrenden Autos werden von KI angetrieben und können daher im Wesentlichen rund um die Uhr unterwegs sein. Keine Ruhepausen, keine Toilettenpausen.

Die Videodaten könnten von diesen selbstfahrenden Autos über elektronische OTA-Netzwerkverbindungen (Over-The-Air) hochgeladen werden. Selbstfahrende Autos werden OTA verwenden, um die neuesten KI-Software-Updates in das Fahrzeug herunterzuladen. Darüber hinaus können über den OTA Daten aus dem selbstfahrenden Auto in eine Cloud-basierte Datenbank hochgeladen werden.

Alles in allem wäre es möglich, diese hochgeladenen Daten zusammenzufügen. Mit dem Nähen könnten Sie möglicherweise das tägliche Kommen und Gehen von jedem zusammenstellen, der an einem beliebigen Ort an einem beliebigen Ort, der ausgiebig selbstfahrende Autos nutzt, nach draußen ging.

Das ist das umherschweifende Auge, vor dem ich gewarnt habe.

Wir können jetzt die CCP-Studie zu dieser Art von Fähigkeit verzahnen. Angenommen, eine Regierung hat Zugriff auf all diese gesammelten Videodaten. Sie könnten dann einen KI-basierten Gesichtserkennungsalgorithmus verwenden, um festzustellen, wohin Sie zu welcher Tageszeit auf Ihren täglichen Reisen gegangen sind. Darüber hinaus könnten sie vermutlich ihren KI-basierten „Loyalitäts“-Analysator verwenden, um zu sehen, ob Sie einen loyalen Gesichtsausdruck zu haben scheinen oder nicht.

Stellen Sie sich vor, Sie gingen an einem Dienstagnachmittag zu Fuß in ein lokales Imbiss, um sich ein Sandwich zu holen. Auf der Fahrbahn fuhren selbstfahrende Autos vorbei. All die vielen Videos haben Sie dabei festgehalten, wie Sie Ihren fünfminütigen Spaziergang machten, um etwas zu essen. Die Daten wurden in eine zentrale Datenbank hochgeladen. Die Regierung führte ihr KI-Gesichtserkennungsprogramm mit den Daten durch.

Es stellt sich heraus, dass die KI „bestimmt“ hat, dass Sie einen illoyalen Ausdruck auf Ihrem Gesicht hatten.

Vielleicht geschah dieser illoyale Blick nur für einen Moment. Sie haben an einer Straßenecke darauf gewartet, dass die Ampel umschaltet, damit Sie die Straße zum Imbiss überqueren können. In diesem Moment hattest du einen leichten Ekel, dass du übermäßig lange auf das Gehen-Symbol warten musstest. War das vielleicht ein Hinweis auf Ihre Illoyalität gegenüber der Regierung?

Ja, die KI hat rechnerisch berechnet, dass Sie zu diesem Zeitpunkt reichlich illoyal waren. Als Sie an diesem Abend nach Hause kommen, hat die Regierung Ihre Verhaftung arrangiert.

Aber warte, da ist noch mehr.

Denken Sie daran, dass Videokameras auch nach innen zeigen.

Am selben Dienstag, als Sie in einem selbstfahrenden Auto zur Arbeit fuhren, hielten die Videokameras jeden Moment fest. Diese wurde in eine zentrale Datenbank hochgeladen. Die KI-Software, die Gesichtsmuster auf Untreue analysiert, hat während der Fahrt ins Büro eine rechnerische Musteruntersuchung Ihrer Gesichtsausdrücke durchgeführt.

An einem Punkt sahen Sie beiläufig aus dem autonomen Fahrzeug heraus und bemerkten einen Bauarbeiter, der die Fahrbahn teilweise blockierte und das KI-Fahrsystem dazu veranlasste, das selbstfahrende Auto zu verlangsamen. Für den Bruchteil einer Sekunde zeigte Ihr Gesicht einen höhnischen Ausdruck für diesen Bauarbeiter, der den Verkehr verlangsamt.

Die KI-Gesichtsmusteranalyse interpretierte dies als Zeichen der Illoyalität gegenüber der Regierung.

Zwei Streiks gegen Sie an einem Tag.

Sie leben auf dünnem Eis.

Ob die KI „richtig“ oder „falsch“ damit liegt, Ihre Loyalität feststellen zu können, ist in diesem Zusammenhang natürlich nahezu unerheblich. Das Wesentliche ist, dass KI für diesen Zweck eingesetzt wurde. Die Menschen, die die KI einsetzen, können sich dafür interessieren oder auch nicht, ob die KI für diese Art von Aufgabe geeignet ist. Die KI ermöglicht eine staatliche Kontrolle, unabhängig von der technologischen Gültigkeit selbst.

Das deckt den Gesichtsscan ab.

Wenn wir irgendwann tragbare, kostengünstige Geräte für (angebliche) Gehirnwellenscans haben, können diese sicherlich auch in selbstfahrenden Autos enthalten sein. Videokameras sind jetzt eine sichere Sache. Die Möglichkeit, Gehirnwellen-Scan-Geräte dieses Kalibers zu haben, ist derzeit nicht in Sicht, ist aber eindeutig etwas, das für die Zukunft ins Auge gefasst wird.

Für meine Untersuchung, wie eine Regierung versuchen könnte, eine Bevölkerung zu übernehmen, indem sie die Kontrolle über selbstfahrende Autos übernimmt, siehe den Link hier. Eine ähnliche Möglichkeit besteht, dass ein böswilliger Akteur dasselbe versuchen könnte, siehe den Link hier. Dies soll keine Panikmache in Bezug auf die Berichterstattung über diese verwandten Themen sein, sondern ein Hinweis auf die Bedeutung von Cybersicherheit und anderen Vorsichtsmaßnahmen, die wir als Gesellschaft angesichts des Aufkommens allgegenwärtiger selbstfahrender Autos treffen müssen andere autonome Fahrzeuge.

Fazit

Ich möchte schnell einen zusätzlichen Aspekt über die Verwendung von KI zur Feststellung der Loyalität behandeln, der meiner Meinung nach ein etwas anderes Thema ist, aber eines, das einige Tweets und soziale Medien bearbeitet haben.

Ich habe bereits erwähnt, dass wir keine empfindungsfähige KI haben und wir nicht wissen, ob oder wann wir dies tun werden. Lassen Sie uns die Idee in Erwägung ziehen, dass wir eine empfindungsfähige KI haben werden. Betrachten Sie in diesem Fall das folgende Szenario.

Wir entscheiden uns über nicht-empfindungsfähige KI für einen weit verbreiteten Einsatz von KI, die rechnerisch feststellt, ob Menschen ihrer Regierung gegenüber loyal sind, indem sie Gesichtsscans, Gehirnwellenscans usw. verwenden. Dies wird vollständig von Menschen in Autorität betrieben und verwendet. Das ist das beunruhigende Szenario, das ich gerade eben beschrieben habe.

Zeit, den Einsatz zu erhöhen.

KI wird empfindungsfähig. Wir haben dieser empfindungsfähigen KI nun möglicherweise eine weit verbreitete Fähigkeit gegeben, Loyalität und Illoyalität bei Menschen vermutlich zu erkennen. Eine bösartige KI, die erwägt, Menschen auszulöschen, könnte diese Fähigkeit nutzen, um zu entscheiden, dass Menschen tatsächlich illoyal sein werden und vollständig zerstört werden sollten. Oder vielleicht sind gerade jene Menschen, die über ihr Gesicht oder ihre Gedanken einen Hinweis auf Untreue zeigen, besonders zu verschrotten.

Ein weiterer Aspekt ist, dass die KI Menschen versklaven möchte, siehe meine Diskussion unter den Link hier.

Wir scheinen der KI ein perfektes Geschenk für die Durchführung dieser Aufgabe gemacht zu haben. Die vorhandene Infrastruktur, die wir eingerichtet haben, ermöglicht es der KI, uns Menschen genau zu beobachten. Diejenigen, die anscheinend ein illoyales Gesicht zum Ausdruck gebracht haben oder an die KI-Oberherren gedacht haben, werden den Zorn der KI spüren.

Mir ist klar, dass ich gesagt habe, dass dies eine Erhöhung des Einsatzes ist. Ich bin mir nicht sicher, ob das der Fall ist. Mir scheint, ob wir KI-Oberherren haben, die direkt über unser Schicksal entscheiden, oder menschliche Oberherren, die vielleicht ein KI-System verwenden, um die Loyalität zu bestimmen, nun, keine der beiden Vorschläge scheint besonders wünschenswert zu sein.

Ein letzter Kommentar vorerst.

Der römische Gelehrte und Philosoph Marcus Tullius Cicero erklärte, dass es nichts Edleres, nichts Ehrwürdigeres gibt als Loyalität. Wir lassen KI vielleicht überholen und werden zu einem Werkzeug, um uns mit schrecklichen Mitteln anzuwerben und „Loyalität“ zu gewährleisten.

Ein lohnender, achtsamer Grund, KI-Ethik ganz oben auf unsere To-Do-Liste zu setzen.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- bescheinigung-die-unterdrückerische-autonome-systeme-vorwegnehmen könnte/