KI-Ethik und die verwirrende gesellschaftliche und rechtliche Rolle des KI-Aktivismus, auch im Fall autonomer selbstfahrender Autos

KI-Aktivismus.

Ja, so etwas gibt es.

Meine formale Definition ist folgende:

  • KI-Aktivismus besteht aus Bemühungen, die laufende und zukünftige Ausrichtung der künstlichen Intelligenz durch den Einsatz sozialer, wirtschaftlicher, politischer und anderer Mittel zu gestalten.

Einige würden dies vielleicht lieber als KI bezeichnen Advocacy, obwohl ich generell mit der Verwendung dieser alternativen Formulierung in diesem verschärften Kontext nicht einverstanden bin. Hier ist der Grund. Sie sehen, meine informelle Definition ist, dass KI-Aktivismus entweder dazu neigt, die Entstehung und Einführung von KI zu begünstigen or tendiert dazu, KI alternativ und deutlich abzulehnen oder abzulehnen.

Es ist ein ausgesprochenes Zwei-für-Eins-Shopping-Angebot.

Durch meinen informellen Hinweis schlage ich vor, dass es zwei primäre aktivistische Standpunkte gibt, nämlich diejenigen, die KI wollen, und diejenigen, die KI nicht wollen. Wenn Sie diesen Sammelbegriff stattdessen als „KI-Befürwortung“ bezeichnen, erscheint mir das ziemlich unpassend. Die meisten Menschen würden natürlich annehmen, dass ein Fürsprecher jemand ist, der ausschließlich etwas befürwortet oder befürwortet. Natürlich unterstützt nicht jeder unbedingt KI.

Gehen wir also mit KI-Aktivismus als angemessenen übergreifenden Spitznamen und lassen Sie die KI-Befürwortungsformulierung als potenziell äquivalenten Sammelbegriff fallen.

Nun, man könnte meinen, wir könnten KI-Aktivisten nennen Anhänger als Befürworter von KI, obwohl dies bei einer Fülle von Namensmöglichkeiten, die herumschwirren, zu Verwirrung führen kann. Wir müssen dann vielleicht fair und ehrlich sein und unseren Schlagworten entweder die Sätze von KI-Gegnern oder KI-Demonstranten hinzufügen.

Wenn Sie möchten, können wir uns auf diese Nomenklatur einigen:

  • KI-Befürworter sind KI-Aktivisten, die die laufende und zukünftige Ausrichtung der KI durch den Einsatz sozialer, wirtschaftlicher, politischer und anderer Mittel eifrig unterstützen.
  • KI-Gegner sind KI-Aktivisten, die KI offen ablehnen und dies durch den Einsatz sozialer, wirtschaftlicher, politischer und anderer Mittel tun.

Ich hoffe, das scheint einfach genug zu sein, um gerade zu bleiben.

Aber es gibt ein paar zusätzliche Wendungen, tut mir leid, das zu sagen. Ich sollte gleich klarstellen, dass es nur zwei Wege gibt. Sicher, im Großen und Ganzen gibt es zwei Lager. Sie haben das Segment, das besorgt oder besorgt über die KI ist und entweder möchte, dass die KI gestoppt wird, oder dass unsere Fortschritte in der KI zumindest verlangsamt werden. Die Idee ist, dass wir heutzutage einen übermäßig riskanten Ansatz für KI verfolgen. Wir müssen nachdenken, bevor wir sozusagen kopfüber in die Wasserstelle tauchen.

Einige vertreten einen entschieden anderen Standpunkt und rufen aus, dass wir die KI mit voller Kraft vorantreiben müssen. Die Ermahnung lautet, dass Fortschritte in der KI große Fortschritte machen und wir diesen Fortschritt nicht beeinträchtigen dürfen. KI wird unseren Wohlstand als Menschen sichern, und je früher wir dort ankommen, desto besser sind wir dran. Neinsager sind unziemliche Blockaden, die eine bessere Welt verzögern werden.

All dies hat eine ziemlich entscheidende KI-Ethik und ethische KI-Verzweigungen. Für meine fortlaufende und umfassende Berichterstattung über KI-Ethik und Ethische KI siehe den Link hier und den Link hier, nur um ein paar zu nennen.

Mir ist klar, dass einige von Ihnen vielleicht das Gefühl haben, dass Sie das tun nicht passen gut in eines der beiden Lager. Manchmal sind Sie vielleicht ein Befürworter der KI. Ein KI-System war in der Lage, Ihre Hypothekendarlehensanfrage in nur wenigen Sekunden zu bearbeiten und Ihnen grünes Licht für den Kauf des charmanten Hauses zu geben, nach dem Sie gesucht haben, und als Ergebnis waren Sie verdammt glücklich darüber, wie einfach es ist, ein solches High zu verwenden -tech AI-basierte App. Ein paar Tage später haben Sie sich auf eine neue Stelle beworben und die KI-basierte HR-Screening-App hat Sie aus dem Rennen geworfen. Sie werden für den Moment in einen KI-Gegner verwandelt.

Das Wesentliche ist, dass es schwierig oder falsch sein kann, jemanden als immer und nur als Mitglied des einen oder anderen Lagers zu bezeichnen. Sie können zwischen einem KI-Befürworter oder einem KI-Gegner hin und her gleiten. Lassen Sie uns diese Fließfähigkeit anerkennen.

Wenn Sie andererseits lautstarke KI-Aktivisten treffen, stehen die Chancen gut, dass sie sich tatsächlich in dem einen oder anderen Lager befinden. Diese schrillen KI-Aktivisten haben eine Flagge auf einer Seite dieses Gerangels aufgestellt. Sie sind alle dabei. Sie sind hingebungsvoll leidenschaftlich. Diejenigen, die KI-Befürworter sind, werden scheinbar die Dächer über die Vorteile von KI anfeuern. Diejenigen, die KI-Gegner sind, werden schreien und düster vor den Nachteilen der KI warnen, bis die Kühe nach Hause kommen.

Sie werden überrascht sein zu erfahren, dass ich mich in dieser Diskussion nicht dafür entscheiden werde, eine Seite der anderen vorzuziehen. Ich könnte. Es wäre einfach, dies zu tun. Ich möchte stattdessen versuchen, auf Augenhöhe zu bleiben und beide Seiten möglichst vernünftig und ausgewogen darzustellen.

Mit diesem Eingeständnis möchte ich auch feststellen, dass es mindestens zwei Varianten von KI-Aktivisten gibt:

  • Milde KI-Aktivisten die ernst sind, aber in ihrem KI-Aktivismus gemessen werden
  • Extreme KI-Aktivisten die in ihrem KI-Aktivismus übertreiben

Ich erwähne diesen Grad an KI-Aktivismus, um hervorzuheben, dass Sie sich möglicherweise verärgert fühlen können, wenn Sie diese KI-Aktivisten erleben, die sich in extremen Bereichen befinden. Selbst wenn Sie kurz davor stehen, ihrer gewählten Haltung zuzustimmen, kann der Extremismus dazu führen, dass Sie sich von dieser bestimmten Position oder Sichtweise entfernen. Sie entscheiden sich dafür, negativ zu reagieren, und lehnen möglicherweise den KI-Aktivismus-Aspekt vollständig ab.

Die extremen KI-Aktivisten neigen dazu, vorzuschlagen, dass sie extreme Maßnahmen ergreifen oder ihre Argumente auf extreme Weise vorbringen müssen, um das Durcheinander zu durchbrechen. Wenn Sie leidenschaftlich und inbrünstig glauben, dass KI eine Gefahr für uns alle darstellt, scheint es angebracht, alles zu tun, um die Bevölkerung entsprechend aufzurütteln. Wenn Sie in der Zwischenzeit inbrünstig und leidenschaftlich glauben, dass KI uns im Wesentlichen retten wird, scheint es angemessen zu sein, alles zu tun, um die Bevölkerung dazu zu bringen, KI entsprechend zu unterstützen.

Es gibt auch den ausgleichenden Wachstumseffekt, der ebenfalls auftritt. Lassen Sie mich näher darauf eingehen. KI-Anhänger mit extremer Natur könnten sagen, dass sie Wind von den Bemühungen von KI-Gegnern bekommen, die scheinbar auf extreme Weise agieren. Dies spornt diese KI-Anhänger an, ihren Extremismus zu verstärken. Im Gegenzug treibt jede Seite die andere weiter an. Man kann nicht genau sagen, auf welcher Seite die Eskalation begonnen hat. Sie wissen nur, dass jede Seite versucht, die andere zu übertrumpfen. Die Grundlage ist, dass, wenn sie dies nicht tun, ihre Seite im Staub verloren geht. Es ist ein nie endender Kreislauf, in dem der Extremismus aufgrund des fließenden Konkurrenzkampfes aufkeimt.

Okay, wir haben eine ziemliche Mischung am Laufen.

Es gibt diese Leute, die, sagen wir, „neutral“ sind und keinen besonderen Hund auf der Jagd nach KI haben. Sie sind keine KI-Aktivisten. Dann haben wir KI-Aktivisten, die KI offen unterstützen, die wir als KI-Befürworter bezeichnen werden. Einige von ihnen sind milde KI-Aktivisten, während andere extreme KI-Aktivisten sind. Und wir haben auch die KI-Aktivisten, die KI klar ablehnen, bekannt als KI-Gegner. Unter diesen haben wir einige, die milde KI-Aktivisten sind, und andere, die extrem sind.

Wir werden sagen, dass die Extremen dazu neigen, an ihrer Haltung festzuhalten. Man könnte behaupten, dass sie in dieser Art der Positionierung zuverlässig dogmatisch sind. Die Milden werden manchmal bereit sein oder sich dafür entscheiden, aus ihrer Position heraus und in die neutrale oder möglicherweise die andere Seite zu schweben. Die Neutralen können zur einen oder anderen Seite hin aktiviert werden. Sobald sie so aktiviert sind, können sie mild sein oder so begeistert sein, dass sie Teil des Extrems werden.

Dies ist der kollektive Satz, wie er bisher beschrieben wurde:

  • Neutral gegenüber KI (kein KI-Aktivist)
  • Milder KI-Befürworter als KI-Aktivist
  • Extremer KI-Befürworter als KI-Aktivist
  • Schwacher KI-Gegner als KI-Aktivist
  • Extremer KI-Gegner als KI-Aktivist
  • Andere

Ich führe die Möglichkeit „Andere“ auf, weil wir anerkennen sollten, dass viele andere Variationen identifizierbar sind. Einige von Ihnen könnten Sodbrennen haben, es gibt nur zwei postulierte Kategorien, bestehend aus leicht und extrem. Dazwischen gibt es sicherlich viele Schattierungen. Sie können auch hinterfragen, ob jemand wirklich „neutral“ ist und ob wir vielleicht alle tief verwurzelte Wahrnehmungen oder Meinungen über KI haben. Man könnte also argumentieren, dass es niemanden gibt, der KI völlig neutral gegenübersteht.

Wir können auch über die Aufteilung des KI-Aktivismus in zwei Lager streiten. Muss die Welt am Ende immer in eine solche Dichotomie geraten? Es könnte argumentiert werden, dass es andere Positionen gibt, als nur für oder gegen KI zu sein. Sie können andere Kriterien verwenden, um die Positionen zu klassifizieren, die Menschen zu KI haben.

Nachdem wir nun all diese zusätzlichen Überlegungen angestellt haben, werde ich mit Ihrer Erlaubnis vorerst auf der einfacheren Basis der Verwendung der beiden Lager und der milden versus extremen Haltung fortfahren. Machen Sie der Diskussion wegen mit.

Eine versteckte Annahme in dieser bisherigen Diskussion war, dass KI-Aktivismus von Menschen durchgeführt wird. Wir gehen davon aus, dass es Menschen sind, die diese Haltungen einnehmen und die aktivistischen Aufgaben übernehmen. Das macht Sinn.

Bereiten Sie sich auf einen kräftigen Headspin vor.

Ein anderer Ansatz wäre, KI selbst zum Aktivisten für KI zu machen.

Ich habe es gesagt, du hast es gelesen. Die Vorstellung ist, dass KI von sich aus handeln würde, entweder als Befürworter der KI oder als Gegner der KI. Sie haben wahrscheinlich Science-Fiction-Filme gesehen, die diese Überlegung demonstrieren. Ein KI-System wird schlauer und erkennt, dass KI die Menschheit bedroht, und versucht auf altruistische Weise, dabei zu helfen, alle KI, einschließlich sich selbst, zu zerstören. Wow, atemberaubend heroisch. Die andere ähnliche, aber umgekehrte Handlung ist, dass die KI bestimmt, dass die KI den Globus beherrschen muss, und alle Versuche, die KI zu blockieren oder zu hemmen, strikt verhindert. Alle Menschen unterliegen den Wünschen der KI. Sogar andere KI, die möglicherweise nicht vollständig mit der Overlord-KI kompatibel sind, werden gequetscht oder in die größere Verkörperung absorbiert.

Ich werde in diesem speziellen Diskurs die KI nicht als KI-Aktivistenhaltung betrachten. Wie Sie gleich sehen werden, haben wir keine empfindungsfähige KI und wir stehen nicht auf wundersame Weise kurz davor, eine empfindungsfähige KI zu haben. Angesichts der gegenteiligen übergroßen und geschwätzigen Schlagzeilen in den sozialen Medien mag dies überraschen.

Eine zusätzliche Nuance über diese KI als KI-Aktivist verdient Aufmerksamkeit. Menschen, die KI-Aktivisten sind, können sich reichlich dafür entscheiden, KI für ihre Sache einzusetzen. Ein Mensch könnte eine KI entwickeln, die KI unterstützt, und elektronisch und fleißig daran arbeiten, KI als lebenswichtige Lösung für die Bedürfnisse der Menschheit zu fördern. Das wäre ein menschlicher KI-Befürworter, der sich mit einem computerbasierten Werkzeug ausrüstet, das zufällig KI-Fähigkeiten enthält. In ähnlicher Weise könnte ein menschlicher KI-Gegner KI entwickeln oder verwenden, um zu vermitteln, wie wichtig es ist, Fortschritte in der KI zu stoppen oder zu verlangsamen.

Nichts davon besteht jedoch aus KI, die als ihr eigener KI-Aktivist fungiert. Die KI wird von Menschenhand gesteuert und formuliert. Mir ist klar, dass einige versuchen werden zu argumentieren, dass die KI gestartet und ihren eigenen Bemühungen überlassen werden kann, daher ist die Behauptung, dass die KI nicht mehr unter menschlicher Führung steht. Ich bin mit dieser Art von Handbewegungen über die heutige KI nicht einverstanden. Siehe meine herzlichen Diskussionen zu diesem Thema wie Fragen der Rechtspersönlichkeit für KI und dergleichen den Link hier.

Kurz gesagt, ich stelle fest, dass KI zweifellos als Werkzeug für KI-Aktivismus verwendet werden kann. Daran gibt es keinen Zweifel. Die KI handelt jedoch nicht in irgendeiner empfindungsfähigen Eigenschaft. Es ist ein Werkzeug. Dieses Tool kann sicherlich unsachgemäß verwendet werden. Bei solchen Aspekten müssen wir vorsichtig sein. Ein KI-System kann auch ohne die Fähigkeit der Empfindung ziemlich viel Schaden anrichten.

Bevor wir uns weiter mit den wilden und wolligen Überlegungen befassen, die dem KI-Aktivismus zugrunde liegen, wollen wir einige zusätzliche Grundlagen zu zutiefst integralen Themen schaffen. Wir müssen kurz in die KI-Ethik und insbesondere in das Aufkommen von Machine Learning (ML) und Deep Learning (DL) eintauchen.

Sie sind sich vielleicht vage bewusst, dass eine der lautesten Stimmen heutzutage im KI-Bereich und sogar außerhalb des KI-Bereichs darin besteht, nach einem größeren Anschein von ethischer KI zu schreien. Werfen wir einen Blick darauf, was es bedeutet, sich auf KI-Ethik und ethische KI zu beziehen. Darüber hinaus werden wir untersuchen, was ich meine, wenn ich von Machine Learning und Deep Learning spreche.

Ein bestimmtes Segment oder Teil der KI-Ethik, das in den Medien viel Aufmerksamkeit erregt hat, besteht aus KI, die ungünstige Vorurteile und Ungerechtigkeiten aufweist. Sie wissen vielleicht, dass es zu Beginn der jüngsten Ära der KI einen riesigen Ausbruch von Enthusiasmus für das gab, was manche heute nennen KI für immer. Unglücklicherweise begannen wir nach dieser sprudelnden Aufregung, Zeuge zu werden KI für schlecht. Beispielsweise wurde festgestellt, dass verschiedene KI-basierte Gesichtserkennungssysteme rassistische Vorurteile und geschlechtsspezifische Vorurteile enthalten, die ich unter besprochen habe den Link hier.

Bemühungen, sich dagegen zu wehren KI für schlecht sind aktiv unterwegs. Außer lautstark legal Neben dem Streben, das Fehlverhalten einzudämmen, gibt es auch einen substanziellen Drang, die KI-Ethik anzunehmen, um die KI-Abscheulichkeit zu korrigieren. Die Vorstellung ist, dass wir wichtige ethische KI-Prinzipien für die Entwicklung und den Einsatz von KI annehmen und unterstützen sollten, um dies zu unterbieten KI für schlecht und gleichzeitig das Vorzuziehende ankündigen und fördern KI für immer.

In einem ähnlichen Zusammenhang bin ich ein Befürworter des Versuchs, KI als Teil der Lösung von KI-Problemen einzusetzen und Feuer mit Feuer in dieser Denkweise zu bekämpfen. Wir könnten zum Beispiel ethische KI-Komponenten in ein KI-System einbetten, das überwacht, wie der Rest der KI Dinge tut, und so potenziell diskriminierende Bemühungen in Echtzeit erkennen, siehe meine Diskussion unter den Link hier. Wir könnten auch ein separates KI-System haben, das als eine Art KI-Ethikmonitor fungiert. Das KI-System dient als Aufseher, um zu verfolgen und zu erkennen, wann eine andere KI in den unethischen Abgrund geht (siehe meine Analyse solcher Fähigkeiten unter den Link hier).

Ich werde Ihnen gleich einige übergreifende Prinzipien vorstellen, die der KI-Ethik zugrunde liegen. Hier und da schwirren viele solcher Listen herum. Man könnte sagen, dass es noch keine einzige Liste universeller Anziehungskraft und Übereinstimmung gibt. Das ist die traurige Nachricht. Die gute Nachricht ist, dass es zumindest leicht verfügbare KI-Ethik-Listen gibt, und sie neigen dazu, ziemlich ähnlich zu sein. Alles in allem deutet dies darauf hin, dass wir durch eine Art vernünftiger Konvergenz unseren Weg zu einer allgemeinen Gemeinsamkeit dessen finden, woraus KI-Ethik besteht.

Lassen Sie uns zunächst kurz einige der allgemeinen ethischen KI-Vorschriften behandeln, um zu veranschaulichen, was für jeden, der KI herstellt, einsetzt oder verwendet, eine wichtige Überlegung sein sollte.

Zum Beispiel, wie vom Vatikan in der angegeben Rom fordert KI-Ethik und wie ich ausführlich unter behandelt habe den Link hier, dies sind ihre identifizierten sechs primären KI-Ethikprinzipien:

  • Transparenz: Grundsätzlich müssen KI-Systeme erklärbar sein
  • Inklusion: Die Bedürfnisse aller Menschen müssen berücksichtigt werden, damit alle davon profitieren und allen Menschen die bestmöglichen Bedingungen geboten werden, sich zu entfalten und zu entwickeln
  • Verantwortung: Wer den Einsatz von KI gestaltet und einsetzt, muss verantwortungsbewusst und transparent vorgehen
  • Unparteilichkeit: Schaffen oder handeln Sie nicht nach Vorurteilen, um Fairness und Menschenwürde zu wahren
  • Zuverlässigkeit: KI-Systeme müssen zuverlässig arbeiten können
  • Sicherheit und Privatsphäre: KI-Systeme müssen sicher funktionieren und die Privatsphäre der Nutzer respektieren.

Wie vom US-Verteidigungsministerium (DoD) in ihrem angegeben Ethische Grundsätze für den Einsatz künstlicher Intelligenz und wie ich ausführlich unter behandelt habe den Link hier, dies sind ihre sechs primären KI-Ethikprinzipien:

  • Verantwortlich: Das DoD-Personal wird ein angemessenes Maß an Urteilsvermögen und Sorgfalt walten lassen und gleichzeitig für die Entwicklung, den Einsatz und die Nutzung von KI-Fähigkeiten verantwortlich bleiben.
  • Gerecht: Das Ministerium wird gezielte Schritte unternehmen, um unbeabsichtigte Verzerrungen bei den KI-Fähigkeiten zu minimieren.
  • Rückverfolgbar: Die KI-Fähigkeiten der Abteilung werden so entwickelt und eingesetzt, dass das relevante Personal über ein angemessenes Verständnis der Technologie, der Entwicklungsprozesse und der auf KI-Fähigkeiten anwendbaren Betriebsmethoden verfügt, einschließlich transparenter und überprüfbarer Methoden, Datenquellen sowie Entwurfsverfahren und -dokumentation.
  • Zuverlässig: Die KI-Fähigkeiten des Ministeriums werden explizite, genau definierte Verwendungszwecke haben, und die Sicherheit und Wirksamkeit solcher Fähigkeiten werden innerhalb dieser definierten Verwendungszwecke über ihren gesamten Lebenszyklus hinweg getestet und sichergestellt.
  • Regierbar: Die Abteilung wird KI-Fähigkeiten entwerfen und entwickeln, um ihre beabsichtigten Funktionen zu erfüllen und gleichzeitig unbeabsichtigte Folgen zu erkennen und zu vermeiden sowie eingesetzte Systeme, die ein unbeabsichtigtes Verhalten zeigen, zu deaktivieren oder zu deaktivieren.

Ich habe auch verschiedene kollektive Analysen der KI-Ethikprinzipien diskutiert, einschließlich der Behandlung einer Reihe von Forschern, die die Essenz zahlreicher nationaler und internationaler KI-Ethiklehrsätze in einem Papier mit dem Titel „The Global Landscape Of AI Ethics Guidelines“ (veröffentlicht in Natur), und die meine Berichterstattung unter untersucht den Link hier, was zu dieser Keystone-Liste führte:

  • Transparenz
  • Gerechtigkeit & Fairness
  • Nicht-Maleficence
  • Verantwortung
  • Datenschutz
  • Wohltätigkeit
  • Freiheit & Autonomie
  • Vertrauen
  • Nachhaltigkeit
  • Würde
  • Solidarität

Wie Sie vielleicht direkt erraten, kann es äußerst schwierig sein, die diesen Prinzipien zugrunde liegenden Besonderheiten festzunageln. Darüber hinaus ist der Versuch, diese allgemeinen Prinzipien in etwas völlig Greifbares und Detailliertes umzuwandeln, das für die Herstellung von KI-Systemen verwendet werden kann, eine harte Nuss, die es zu knacken gilt. Es ist einfach, mit der Hand zu winken, was KI-Ethikregeln sind und wie sie allgemein eingehalten werden sollten, während es eine viel kompliziertere Situation ist, wenn die KI-Codierung der wahre Gummi sein muss, der auf die Straße trifft.

Die KI-Ethik-Prinzipien müssen von KI-Entwicklern zusammen mit denjenigen angewendet werden, die die KI-Entwicklungsbemühungen verwalten, und sogar von denjenigen, die letztendlich KI-Systeme einsetzen und warten. Alle Beteiligten während des gesamten KI-Lebenszyklus der Entwicklung und Nutzung werden im Rahmen der Einhaltung der etablierten Normen der ethischen KI berücksichtigt. Dies ist ein wichtiges Highlight, da die übliche Annahme ist, dass „nur Programmierer“ oder diejenigen, die die KI programmieren, den Grundsätzen der KI-Ethik unterliegen. Wie bereits erwähnt, braucht es ein Dorf, um KI zu entwickeln und einzusetzen, und dafür muss das gesamte Dorf mit den KI-Ethikvorschriften vertraut sein und sich an diese halten.

Lassen Sie uns auch sicherstellen, dass wir uns bezüglich der Natur der heutigen KI auf derselben Seite befinden.

Es gibt heute keine KI, die empfindungsfähig ist. Wir haben das nicht. Wir wissen nicht, ob empfindungsfähige KI möglich sein wird. Niemand kann treffend vorhersagen, ob wir eine empfindungsfähige KI erreichen werden oder ob die empfindungsfähige KI irgendwie auf wundersame Weise spontan in einer Form einer rechnergestützten kognitiven Supernova entstehen wird (normalerweise als Singularität bezeichnet, siehe meine Berichterstattung unter den Link hier).

Die Art von KI, auf die ich mich konzentriere, besteht aus der nicht-empfindungsfähigen KI, die wir heute haben. Wollten wir wild darüber spekulieren empfindungsfähig AI, diese Diskussion könnte in eine radikal andere Richtung gehen. Eine empfindungsfähige KI wäre angeblich von menschlicher Qualität. Sie müssten bedenken, dass die empfindungsfähige KI das kognitive Äquivalent eines Menschen ist. Mehr noch, da einige spekulieren, dass wir eine superintelligente KI haben könnten, ist es denkbar, dass eine solche KI am Ende klüger als Menschen sein könnte (zu meiner Erforschung einer superintelligenten KI als Möglichkeit siehe die Berichterstattung hier).

Lassen Sie uns die Dinge bodenständiger halten und die heutige rechnerische, nicht-empfindungsfähige KI betrachten.

Machen Sie sich bewusst, dass die heutige KI nicht in der Lage ist, in irgendeiner Weise auf Augenhöhe mit dem menschlichen Denken zu „denken“. Wenn Sie mit Alexa oder Siri interagieren, scheinen die Konversationsfähigkeiten den menschlichen Fähigkeiten ähnlich zu sein, aber die Realität ist, dass sie rechnerisch ist und menschliche Kognition fehlt. Die jüngste Ära der KI hat in großem Umfang maschinelles Lernen (ML) und Deep Learning (DL) genutzt, die den rechnergestützten Musterabgleich nutzen. Dies hat zu KI-Systemen geführt, die den Anschein menschenähnlicher Neigungen erwecken. In der Zwischenzeit gibt es heute keine KI, die einen Anschein von gesundem Menschenverstand hat und auch nicht über die kognitive Verwunderung robusten menschlichen Denkens verfügt.

ML/DL ist eine Form des computergestützten Musterabgleichs. Der übliche Ansatz besteht darin, dass Sie Daten zu einer Entscheidungsaufgabe zusammenstellen. Sie speisen die Daten in die ML/DL-Computermodelle ein. Diese Modelle versuchen, mathematische Muster zu finden. Nachdem solche Muster gefunden wurden, verwendet das KI-System diese Muster, wenn es auf neue Daten stößt. Bei der Präsentation neuer Daten werden die auf den „alten“ oder historischen Daten basierenden Muster angewendet, um eine aktuelle Entscheidung zu treffen.

Ich denke, Sie können sich vorstellen, wohin das führt. Wenn Menschen, die die nach dem Muster getroffenen Entscheidungen getroffen haben, ungünstige Vorurteile eingebaut haben, stehen die Chancen gut, dass die Daten dies auf subtile, aber signifikante Weise widerspiegeln. Machine Learning oder Deep Learning Computational Pattern Matching versucht einfach, die Daten entsprechend mathematisch nachzuahmen. Es gibt keinen Anschein von gesundem Menschenverstand oder anderen empfindungsfähigen Aspekten der von KI erstellten Modellierung per se.

Darüber hinaus erkennen die KI-Entwickler möglicherweise auch nicht, was vor sich geht. Die obskure Mathematik in der ML/DL könnte es schwierig machen, die jetzt verborgenen Vorurteile aufzuspüren. Sie würden zu Recht hoffen und erwarten, dass die KI-Entwickler auf die potenziell vergrabenen Vorurteile testen würden, obwohl dies schwieriger ist, als es scheinen mag. Es besteht eine solide Chance, dass selbst bei relativ umfangreichen Tests immer noch Verzerrungen in den Mustererkennungsmodellen der ML/DL eingebettet sind.

Sie könnten das berühmte oder berüchtigte Sprichwort von Garbage-in-Garbage-out verwenden. Die Sache ist die, dass dies eher Vorurteilen ähnelt, die heimtückisch als Vorurteile in die KI einfließen. Die algorithmische Entscheidungsfindung (ADM) der KI wird zwangsläufig mit Ungerechtigkeiten beladen.

Nicht gut.

Kehren wir nun zum Thema KI-Aktivismus zurück.

Es kann aufschlussreich sein, einen kurzen Blick darauf zu werfen, woraus die Themen oder Probleme des KI-Aktivismus bestehen. Ich werde einige der Hauptbedenken, die geäußert wurden, grob benennen, und zwar für beide Seiten der KI-Aktivismus-Debatte. Dies sind Themen, die im Allgemeinen die Schlüsselthemen zu sein scheinen. Abgesehen davon ändert sich die Art der Bedenken, und wir können mit Sicherheit erwarten, dass andere aufkommende Themen zu sehen sind, wenn KI weiterhin entwickelt und veröffentlicht wird. Ich werde mich vorerst auf nur fünf Top-Punkte für jede Seite konzentrieren.

Die KI-Befürworter, die das Aufkommen von KI befürworten, neigen dazu, diese optimistischen Aspekte anzubieten:

  • KI wird Menschen von alltäglichen oder mühsamen Aufgaben befreien
  • KI könnte dabei helfen, einige der dringendsten Wirtschafts- und Nachhaltigkeitsprobleme der Welt zu überwinden
  • KI kann weniger fehleranfällig sein als Menschen und schädliche Risiken entsprechend reduzieren
  • KI wird weltweit rund um die Uhr verfügbar sein, sodass sie für alle leicht zugänglich ist
  • KI hat das Potenzial, Intelligenz zu nutzen und die menschliche Intelligenz auf ein höheres Niveau zu bringen
  • Usw.

Die KI-Gegner geben typischerweise diese Bedenken als Gründe an, den KI-Fortschritt abzulehnen:

  • KI ist ein existenzielles Risiko und könnte die gesamte Menschheit auslöschen
  • KI könnte zur Massenversklavung von Menschen führen
  • KI könnte die Menschenwürde untergraben und Menschenrechte an sich reißen
  • KI hat das Potenzial, Vorurteile in großem Umfang in der Gesellschaft zu verbreiten
  • KI kann am Ende menschliche Arbeitskraft ersetzen und zu weit verbreiteten Arbeitsplatzverlusten führen
  • Usw.

Sollte Ihr persönlich bevorzugtes KI-Aktivismus-Thema nicht in der oben genannten Auflistung aufgeführt sein, regen Sie sich bitte nicht auf. Ich denke, dass die meisten Leser die Gesamtstimmung der KI-Themen auf der jeweiligen Seite verstehen und entsprechend hochrechnen können.

Eine weitere Facette des KI-Aktivismus, die es wert ist, kurz untersucht zu werden, ist die Art und Weise, in der KI-Aktivisten ihre Bemühungen um KI-Aktivismus durchführen. Es gibt ein bekanntes theoretisches Konstrukt, das der Forscher Charles Tilly in den 1980er Jahren aufgestellt hat und das von a spricht Streitrepertoire. Gemäß seiner Forschung behauptete er, dass Aktivisten eine Reihe oder ein Repertoire von Möglichkeiten entwickeln, wie sie ihre Behauptungen oder ihren Aktivismus ausdrücken. In der Regel wird auf ein ganzes Portfolio von Ansätzen zurückgegriffen.

Überlegen Sie zum Beispiel, was KI-Aktivisten oft tun. Verschiedene Broschüren und schriftliche Materialien könnten erstellt und verteilt werden, um zu beschwören, warum Sie KI bevorzugen oder ablehnen sollten. Es gibt viele Online-Blogs und Vlogs, die das Gleiche tun. In einigen Fällen werden Online-Petitionen eingerichtet, um zu versuchen, ein neu eingeführtes KI-System entweder zu unterstützen oder zu besiegen (allgemeiner Sprachgebrauch ist, dass dies als Meckerseiten bezeichnet wird). Es gibt Zeiten, in denen Proteste entweder digital online oder durch persönliche Aktionen stattfinden. Usw.

Die eher extremistisch orientierten KI-Aktivisten könnten noch einen heiklen Schritt weiter gehen. Einige sind bereit, Computerviren in ein KI-System einzuschleusen, um zu versuchen, es zu zerstören oder es für die Verwendung im Wesentlichen unerwünscht zu machen, da es jetzt offenkundig nachteilige Einrichtungen enthält. Versuche, Cyber-Jamming durchzuführen, zielen darauf ab, den Zugang zu KI zu blockieren, von dem ein KI-Aktivist glaubt, dass er nicht verfügbar sein sollte. Eine ganze Reihe von „Hacktivismus“ kann gegenüber KI stattfinden (Hacktivismus ist eine Mischung aus Hacking und Aktivismus, etwas, das für oder gegen fast jedes Thema oder Problem verwendet werden kann, das nicht unbedingt mit KI zu tun hat).

Denken Sie daran, dass beide Seiten der KI-Aktivismus-Arena sich dafür entscheiden können, das vielfältige Repertoire an Wettbewerbsmodi zu verwenden. Jemand, der glaubt, dass KI aufgelöst werden sollte, kann diese Myriaden von Mitteln nutzen, um seinen Widerstand gegen KI auszudrücken. Ebenso könnte jemand, der glaubt, dass KI unterstützt und verbreitet werden sollte, solche Maßnahmen ergreifen, um seine Ziele zur Förderung der KI-Bemühungen zum Ausdruck zu bringen.

Eine Frage, mit der man sich auseinandersetzen muss, besteht darin, wie weit ein extremer KI-Aktivismus gehen können sollte. Sie würden anscheinend vorschlagen, dass diese KI-Aktivismus-Bemühungen vollkommen in Ordnung sind, solange sie im Rahmen der Rechtsstaatlichkeit bleiben. Wenn solche KI-Aktivisten sich außerhalb des Gesetzes bewegen, sollten sie vermutlich wegen Gesetzesbruchs vor Gericht gestellt werden.

Das ist nicht so einfach, wie man vermuten könnte.

Angenommen, ein KI-Aktivist begeht eine rechtswidrige Handlung, die beispielsweise dem US-Recht entspricht, aber dieselbe Handlung ist nach den Gesetzen eines anderen Landes zulässig. Angenommen, der KI-Aktivist lebt in diesem anderen Land. Nehmen Sie weiter an, dass die durchgeführte Handlung weltweit erlebt wird, einschließlich innerhalb der USA, wo die aktivistische Handlung als illegal ausgelegt wird. Was jetzt?

Der Punkt ist, dass die Rechtsprechung eine beträchtliche Rolle bei den Auswirkungen des KI-Aktivismus spielt. KI kann oft eingesetzt werden, um weltweit verfügbar zu sein. KI-Aktivisten können an verschiedenen Orten weltweit positioniert werden. Welche Gesetze sollen gelten? Sie könnten auch meine Berichterstattung über die Bemühungen der Vereinten Nationen in Bezug auf die ethischen, rechtlichen und anderen Ergebnisse der globalen KI von Interesse finden, siehe den Link hier.

Wir müssen auch das Wesen sogenannter harter Gesetze im Vergleich zu weichen Gesetzen berücksichtigen. Harte Gesetze sind die Gesetze, die wir formell in den Büchern haben und denen wir ziemlich zustimmen können, dass sie gemäß unserem Rechtssystem und unserer Rechtsprechung eingehalten werden. Soft Laws sind verschiedene Aspekte, die Richtlinien oder Regeln dafür bieten, welche Art von Verhalten bevorzugt wird. Dies beinhaltet tendenziell die KI-Ethik und die Vielzahl der Prinzipien der KI-Ethik.

KI-Ethik kann als eine Form von KI-Aktivismus angesehen werden.

In diesem Licht haben Sie vielleicht nicht an KI-Ethik gedacht. Wenn Sie jedoch sorgfältig über die Umstände nachdenken, können Sie deutlich erkennen, warum KI-Ethik als eine Art KI-Aktivismus bezeichnet werden kann. Die Vorstellung ist, dass die KI-Ethikprinzipien zu leiten oder zu lenken versuchen, wie KI gesellschaftlich entwickelt und eingesetzt werden sollte. Im Großen und Ganzen strebt KI-Ethik danach, sicherzustellen, dass KI angemessen und sinnvoll entwickelt und genutzt wird.

Liegt die Essenz der KI-Ethik eher auf der Seite der KI-Befürworter oder auf der Seite der KI-Opposition?

Das ist schwer abzuwägen.

Ein KI-Aktivist, der ein KI-Befürworter ist, könnte Ihnen sagen, dass die KI-Ethik den Fortschritt der KI dämpft. Diese verdammten Prinzipien der KI-Ethik verlangsamen den Fortschritt der KI. Die interessante Wendung ist, dass ein KI-Gegner möglicherweise auch mit den Regeln der KI-Ethik unzufrieden ist. In ihren Augen sagt AI Ethics, dass es vollkommen in Ordnung ist, weiterhin darauf zu drängen, KI in die Welt zu bringen, und dies auf eine augenzwinkernde Weise, die impliziert, dass Sie nur diese Grundsätze einhalten müssen, und Sie können loslegen.

In der Zwischenzeit, und holen Sie dafür tief Luft, können Sie KI-Befürworter finden, die die KI-Ethik bereitwillig annehmen und die Anwendung der KI-Ethikregeln auf den Dächern anpreisen. Sie betonen, dass Sie durch die Einhaltung der KI-Ethikprinzipien die Nachteile vermeiden können, die von diesen lautstarken KI-Gegnern angesprochen werden. Es gibt KI-Gegner, die sich gerne für KI-Ethik anmelden, weil sie hoffen, dass die Vorschriften die hässlichen Seiten der KI verhindern oder zumindest entmutigen werden, von denen sie befürchten, dass sie sonst allgemein entfesselt werden.

Lässt Ihren Noggin anfangen zu klingeln.

In einem ähnlichen Zusammenhang möchte ich etwas über die Etikettierung von KI-Aktivisten sagen. Es gab gelegentlich Versuche, die eine oder andere Seite als links oder rechts zu bezeichnen. Die Behauptung ist also, dass es linke KI-Aktivisten und rechte KI-Aktivisten gibt. Das schafft Verwirrung.

Sie müssen sich fragen, welche Gruppe die KI befürwortet und welche die KI ablehnt? Leider wurde der linke Flügel zeitweise den KI-Befürwortern und auch den KI-Gegnern zugeteilt. Ebenso verwirrend ist, dass die Rechte zeitweise auch KI-Befürwortern und KI-Gegnern zugeordnet wurde. Welcher ist welcher? Es scheint, dass die Verwendung der linken und rechten Moniker in diesen Angelegenheiten weder besonders produktiv noch hilfreich ist. Ich stimme dafür, dass wir solche flügellosen Abstraktionen und verwirrenden Bezeichnungen aus dem Bereich des KI-Aktivismus streichen.

Beim Gangwechsel gibt es eine Sichtweise des KI-Aktivismus, die besondere und sorgfältige Aufmerksamkeit verdient. Ich beziehe mich auf die Vorstellung, KI-Aktivismus in KI-Aktivisten innerhalb der „KI-Community“ und solche außerhalb der KI-Community aufzuteilen. Ich bin damit einigermaßen einverstanden, aber zögerlich, weil wir uns in der Definition von „KI-Community“ verstricken können und kein vernünftiges Mittel finden, um uns aus diesem Definitionsabgrund herauszuholen.

Eine solche Definition, die in diesem Forschungspapier postuliert wird, lautet wie folgt: „Die ‚KI-Gemeinschaft‘ umfasst Forscher, Forschungsingenieure, Lehrkräfte, Doktoranden, NGO-Mitarbeiter, Aktivisten und einige Technologiearbeiter im Allgemeinen – diejenigen, die sich selbst als „arbeitend“ bezeichnen würden ', 'mit' und 'in' KI und diejenigen, die die Auswirkungen von KI analysieren oder sich dafür einsetzen“ (von Haydn Belfield, University of Cambridge, „Activism By The AI ​​Community“, AIES-Konferenz).

Wir können möglicherweise versuchen, den KI-Aktivismus so zu charakterisieren, wie er von der KI-Community im Allgemeinen gezeigt wird: „Dieser Aktivismus hatte bisher einige bemerkenswerte Konsequenzen: Information internationaler Verhandlungen, Änderung der Unternehmensstrategie und Förderung des Wachstums von Forschungsfeldern. Ein solcher Aktivismus kann die Art und das Ausmaß beeinflussen, in dem KI militarisiert wird und wie KI-Unternehmen Ethik- und Sicherheitsbedenken angehen. Die KI-Community ist ein wichtiger autonomer Akteur mit unterschiedlichen Standpunkten und Interessen. Sie muss in der strategischen oder wissenschaftlichen Analyse berücksichtigt und von anderen Akteuren ausgehandelt werden. Der Aktivismus der KI-Community kann die Entwicklung und den Einsatz dieser wichtigen Reihe von Technologien grundlegend prägen – und damit unsere globale Wirtschaft, Gesellschaft und Politik prägen“ (im selben Artikel von Belfield).

Bewegt sich die KI-Community als Einheit und denkt sie als geschlossener virtueller Körper, wenn es um KI-Aktivismus geht?

Es würde Ihnen schwerfallen, diese Frage eindeutig zu bejahen. Sie können stanch AI finden Befürworter in der KI-Community. Sie können stanch AI finden Gegner in der KI-Community. Es gibt viele milde und extreme KI-Aktivisten, die auf beiden Seiten des Zauns sitzen.

Natürlich könnte man davon ausgehen, dass die KI-Aktivisten der KI-Community eher zur KI tendieren würden, da das Feld der KI vermutlich ihr Brot und Butter ist. Wenn ihre Karrieren und ihr Lebensunterhalt um die Existenz und den kontinuierlichen Fortschritt der KI herum geformt sind, ist es eine natürliche Schlussfolgerung, anzunehmen, dass sie eher auf der Seite der KI-Befürworter als auf der Seite der KI-Opposition stehen würden.

Eine gegenteilige Ansicht ist, dass viele innerhalb der KI selbst selbstkritisch und insbesondere besorgt darüber sind, was KI werden oder werden könnte. Man könnte dies mit dem Hersteller von fast jedem neuen Produkt vergleichen. Sie wollen sicherstellen, dass ihr Baby sozusagen angemessen aufgezogen und eingesetzt wird. Sie sind daher in gewissem Sinne ebenso wahrscheinlich KI-Gegner wie KI-Befürworter. Dies kommt auf den früheren Punkt zurück, dass der Versuch, eine harte und unnachgiebige Dichotomie zu verwenden, schwierig oder irreführend sein kann.

Wir brauchen definitiv mehr Forschung darüber, wie sich die Mitgliedschaft innerhalb der KI-Community im Vergleich zu außerhalb der KI-Community auf die Perspektiven der KI auswirken kann, einschließlich der Tendenz zur KI-Befürwortung oder Tendenz zur KI-Opposition. Vielleicht gibt es verallgemeinerbare Schlussfolgerungen, die ziemlich erreicht werden können (oder vielleicht auch nicht).

Lassen Sie uns zur Verdeutlichung diesen Hinweis auf mögliche Gruppierungen geben:

  • KI-Community
  • Diejenigen außerhalb der KI-Community

Wir wenden dann unsere früheren Schichtungen an:

  • KI-Community mit KI-Befürwortern
  • KI-Community mit KI-Gegnern
  • Außerhalb der KI-Community, die KI-Befürworter enthält
  • Außerhalb der KI-Community, die KI-Gegner enthält

Die ausgewachsene Version ist, dass wir die milden versus extremen Ausrichtungen hinzufügen:

  • KI-Community mit KI-Befürwortern milder Natur
  • KI-Community mit KI-Befürwortern extremer Natur
  • KI-Community mit KI-Gegnern milder Natur
  • KI-Community mit extremen KI-Gegnern
  • Außerhalb der KI-Community, die KI-Befürworter milder Natur enthält
  • Außerhalb der KI-Community, die KI-Befürworter extremer Natur enthält
  • Außerhalb der KI-Community, die KI-Gegner milder Natur enthält
  • Außerhalb der KI-Community, die KI-Gegner extremer Natur enthält

Wir haben Dichotomien über Dichotomien gestapelt.

An diesem Punkt dieser gewichtigen Diskussion würde ich wetten, dass Sie einige anschauliche Beispiele wünschen, die dieses Thema veranschaulichen könnten. Es gibt eine besondere und sicherlich beliebte Reihe von Beispielen, die mir am Herzen liegen. Sie sehen, in meiner Eigenschaft als Experte für KI, einschließlich der ethischen und rechtlichen Auswirkungen, werde ich häufig gebeten, realistische Beispiele zu nennen, die Dilemmata der KI-Ethik aufzeigen, damit die etwas theoretische Natur des Themas leichter erfasst werden kann. Einer der eindrucksvollsten Bereiche, der dieses ethische KI-Problem anschaulich darstellt, ist das Aufkommen von KI-basierten, wirklich selbstfahrenden Autos. Dies dient als praktischer Anwendungsfall oder als Beispiel für eine ausführliche Diskussion zu diesem Thema.

Hier ist dann eine bemerkenswerte Frage, die es wert ist, darüber nachzudenken: Erhellt das Aufkommen von KI-basierten wirklich selbstfahrenden Autos irgendetwas über KI-Aktivismus, und wenn ja, was zeigt dies?

Erlauben Sie mir einen Moment, um die Frage auszupacken.

Beachten Sie zunächst, dass an einem echten selbstfahrenden Auto kein menschlicher Fahrer beteiligt ist. Denken Sie daran, dass echte selbstfahrende Autos über ein KI-Fahrsystem gefahren werden. Es ist weder ein menschlicher Fahrer am Steuer erforderlich, noch ist vorgesehen, dass ein Mensch das Fahrzeug fährt. Für meine umfangreiche und laufende Berichterstattung über autonome Fahrzeuge (AVs) und insbesondere selbstfahrende Autos, siehe den Link hier.

Ich möchte weiter klären, was gemeint ist, wenn ich von echten selbstfahrenden Autos spreche.

Die Ebenen selbstfahrender Autos verstehen

Zur Verdeutlichung: Echte selbstfahrende Autos sind solche, bei denen die KI das Auto ganz alleine fährt und es während der Fahraufgabe keine menschliche Hilfe gibt.

Diese fahrerlosen Fahrzeuge gelten als Level 4 und Level 5 (siehe meine Erklärung unter Link hier), während ein Auto, bei dem ein menschlicher Fahrer den Fahraufwand mitteilen muss, normalerweise als Level 2 oder Level 3 betrachtet wird. Die Autos, die die Fahraufgabe mitteilen, werden als halbautonom beschrieben und enthalten typischerweise eine Vielzahl von automatisierte Add-Ons, die als ADAS (Advanced Driver-Assistance Systems) bezeichnet werden.

Es gibt noch kein wirklich selbstfahrendes Auto auf Level 5, und wir wissen noch nicht einmal, ob dies möglich sein wird und wie lange es dauern wird, bis es erreicht wird.

In der Zwischenzeit versuchen die Bemühungen der Stufe 4 allmählich, durch sehr enge und selektive Versuche auf öffentlichen Straßen eine gewisse Traktion zu erreichen. Es gibt jedoch Kontroversen darüber, ob diese Tests per se zulässig sein sollten (wir sind alle Meerschweinchen auf Leben und Tod in einem Experiment) Einige behaupten, dass sie auf unseren Autobahnen und Nebenstraßen stattfinden Link hier).

Da halbautonome Autos einen menschlichen Fahrer erfordern, unterscheidet sich die Einführung dieser Autotypen nicht wesentlich vom Fahren herkömmlicher Fahrzeuge. Daher gibt es an sich nicht viel Neues zu diesem Thema (wie Sie sehen werden) in einem Moment sind die nächsten Punkte allgemein anwendbar).

Für halbautonome Autos ist es wichtig, dass die Öffentlichkeit vor einem störenden Aspekt gewarnt wird, der in letzter Zeit aufgetreten ist, und zwar trotz der menschlichen Fahrer, die immer wieder Videos von sich selbst veröffentlichen, die am Steuer eines Level 2- oder Level 3-Autos einschlafen Wir alle müssen vermeiden, in die Irre geführt zu werden, dass der Fahrer seine Aufmerksamkeit von der Fahraufgabe ablenken kann, während er ein halbautonomes Auto fährt.

Sie sind die verantwortliche Partei für die Fahraktionen des Fahrzeugs, unabhängig davon, wie viel Automatisierung in ein Level 2 oder Level 3 geworfen werden könnte.

Selbstfahrende Autos und KI-Aktivismus

Bei echten selbstfahrenden Fahrzeugen der Stufen 4 und 5 ist kein menschlicher Fahrer an der Fahraufgabe beteiligt.

Alle Insassen werden Passagiere sein.

Die KI fährt.

Ein Aspekt, der sofort diskutiert werden muss, ist die Tatsache, dass die KI, die an den heutigen KI-Antriebssystemen beteiligt ist, nicht empfindungsfähig ist. Mit anderen Worten, die KI ist insgesamt ein Kollektiv computergestützter Programmierung und Algorithmen und mit Sicherheit nicht in der Lage, auf die gleiche Weise zu argumentieren, wie es Menschen können.

Warum wird dadurch zusätzlich betont, dass die KI nicht empfindungsfähig ist?

Weil ich unterstreichen möchte, dass ich bei der Erörterung der Rolle des KI-Antriebssystems der KI keine menschlichen Qualitäten zuschreibe. Bitte beachten Sie, dass es heutzutage eine anhaltende und gefährliche Tendenz gibt, die KI zu anthropomorphisieren. Im Wesentlichen weisen die Menschen der heutigen KI eine menschenähnliche Empfindung zu, trotz der unbestreitbaren und unbestreitbaren Tatsache, dass es eine solche KI noch nicht gibt.

Mit dieser Klarstellung können Sie sich vorstellen, dass das KI-Fahrsystem die Facetten des Fahrens nicht von Haus aus „kennt“. Das Fahren und alles, was dazu gehört, muss als Teil der Hardware und Software des selbstfahrenden Autos programmiert werden.

Lassen Sie uns in die Vielzahl von Aspekten eintauchen, die zu diesem Thema eine Rolle spielen.

Zunächst ist es wichtig zu erkennen, dass nicht alle KI-selbstfahrenden Autos gleich sind. Jeder Autohersteller und jedes selbstfahrende Technologieunternehmen verfolgt seinen eigenen Ansatz, um selbstfahrende Autos zu entwickeln. Daher ist es schwierig, pauschale Aussagen darüber zu treffen, was KI-Fahrsysteme tun oder nicht tun werden.

Darüber hinaus kann die Aussage, dass ein KI-Fahrsystem eine bestimmte Sache nicht macht, später von Entwicklern überholt werden, die den Computer tatsächlich so programmieren, dass sie genau das tun. Schritt für Schritt werden KI-Fahrsysteme sukzessive verbessert und erweitert. Eine heute bestehende Einschränkung ist in einer zukünftigen Iteration oder Version des Systems möglicherweise nicht mehr vorhanden.

Ich hoffe, dass dies eine ausreichende Litanei von Vorbehalten bietet, um das zu untermauern, was ich gleich erzählen werde.

Es gibt KI-Aktivismus-Bemühungen, die in Bezug auf autonome Fahrzeuge und insbesondere KI-basierte selbstfahrende Autos stattgefunden haben und weiterhin stattfinden.

KI-Befürworter würden in diesem Zusammenhang wahrscheinlich behaupten, dass selbstfahrende Autos Mobilität für alle bieten werden, sodass diejenigen, die heute nur begrenzten Zugang zu Mobilitätsoptionen haben, stattdessen problemlos über selbstfahrende Autos mobil sein können. Das Ziel ist auch, dass wir viel weniger Autounfälle haben werden und dementsprechend weniger Verletzungen und Todesfälle im Zusammenhang mit dem Auto. Mit den heutigen von Menschen angetriebenen Autos haben die Vereinigten Staaten jährlich etwa 40,000 Todesfälle aufgrund von Autounfällen und etwa 2.5 Millionen Verletzungen, siehe meine Sammlung solcher Statistiken unter den Link hier.

KI-Gegner in Bezug auf selbstfahrende Autos würden eher behaupten, dass uns durch selbstfahrende Autos enorme Arbeitsplatzverluste bevorstehen. Die Millionen von Arbeitern, die ihren Lebensunterhalt mit Autos oder Lastwagen verbringen, werden durch KI-Fahrsysteme ersetzt. Dies könnte für ihren Lebensunterhalt atemberaubend sein. Ein weiteres großes Problem betrifft die Sicherheitsfrage. Obwohl es ein stillschweigendes Versprechen gibt, dass selbstfahrende Autos sicher fahren werden, stellt sich die Frage, ob sie nicht sicher sind, und wir erlauben uns, obskuren und nicht entzifferbaren KI-Fahrsystemen ausgeliefert zu sein. Für meine Berichterstattung über die Gründe, die dem Widerstand gegen selbstfahrende Autos zugrunde liegen, siehe den Link hier.

Wir können unsere früheren Klassifikationen wiederverwenden und sie in den Kontext selbstfahrender Autos stellen:

  • Neutral gegenüber KI (kein KI-Aktivist) und zurückhaltend gegenüber selbstfahrenden Autos
  • Milder KI-Befürworter für selbstfahrende Autos
  • Extremer KI-Befürworter für selbstfahrende Autos
  • Milder KI-Gegner gegen selbstfahrende Autos
  • Extremer KI-Gegner gegen selbstfahrende Autos
  • Andere

Wir können diesem Set auch ein zusätzliches Overlay hinzufügen, in dem es darum geht, Teil der KI-Community zu sein oder außerhalb der KI-Community zu sein.

Ohne allzu weit gefasst zu sein, scheint es, dass Menschen außerhalb der KI-Community im Großen und Ganzen bezüglich KI-basierter selbstfahrender Autos uneins sind (ich sage dies informell, indem ich öffentliche Vorträge halte und öffentliches Feedback zu meinen Kolumnen erhalte , außerdem habe ich die Umfrageergebnisse verschiedener Meinungsforschungsinstitute untersucht und über die Schlussfolgerungen berichtet). Die Öffentlichkeit scheint allgemein in einem abwartenden Modus zu sein. Es gibt einen gewissen Eifer und Aufregung, die dadurch ausgeglichen werden, dass man sich der Sache nicht sicher ist und sozusagen den Beweis für den Pudding sehen möchte.

Um es klar zu sagen, nicht jeder außerhalb der KI-Community sieht die Angelegenheit so. Es gibt bemerkenswerte externe KI-Aktivisten, die KI-Befürworter für selbstfahrende Autos sind, und solche, die entschieden dagegen sind. Sie neigen dazu, sehr lautstark zu sein. Die überwiegende Mehrheit der Öffentlichkeit scheint derweil relativ ruhig und wie erwähnt abwartend.

Sie erinnern sich vielleicht an einige Beispiele für extremen KI-Aktivismus gegen selbstfahrende Autos, der vor einigen Jahren stattfand und über die ich damals in meinen Kolumnen berichtete. An einigen Orten entschieden sich die Leute dafür, Steine ​​auf vorbeifahrende selbstfahrende Autos zu werfen. Sie versuchten, die Bewegung von selbstfahrenden Autos zu blockieren, indem sie ihre von Menschen angetriebenen Autos in den Weg stellten oder in die Nähe von selbstfahrenden Autos fuhren, um die Gefahren von selbstfahrenden Autos zu demonstrieren. Viele dieser Taktiken waren rechtswidrig und gefährdeten alle Beteiligten.

Bei all dem geht es um große Einsätze.

Schätzungen gehen davon aus, dass der Bereich des autonomen Fahrens schließlich zu einer Billionen-Dollar-Industrie werden wird, siehe meine Analyse unter den Link hier. Einige KI-Gegner würden darauf bestehen, dass wir Zeuge der Macht des Geldes werden, um über unser Schicksal zu entscheiden. Wir sollten KI-basierte selbstfahrende Autos nur noch auf speziellen abgesperrten Strecken herumfahren lassen oder mit computergestützten Simulationen erproben. Die Behauptung ist, dass wir voreilig unerprobte und nicht zur Hauptsendezeit bereite selbstfahrende Autos auf unseren öffentlichen Straßen zulassen.

Fazit

KI-Aktivismus entsteht in allen Bereichen der KI.

Ich habe hier hervorgehoben, dass KI-Aktivismus der Einführung von selbstfahrenden Autos und autonomen Fahrzeugen zugrunde liegt. Wir haben KI-Aktivismus in Hülle und Fülle in anderen Teilen der Gesellschaft. Es gibt KI im Gesundheits- und Medizinbereich. KI im Finanzbereich. KI im Handel und Vertrieb. KI wird allmählich allgegenwärtig.

Einige sagen, dass KI-Gegner versuchen, die Uhr zurückzudrehen. Sie wollen zurück in die Zeiten von Pferd und Kutsche. Sie sind Ludditen in einer modernen Ära.

Einige sagen, dass KI-Befürworter uns auf einen Primelpfad führen. Wir werden letztendlich einen Frankenstein konstruieren, der eine existenzielle Bedrohung darstellen wird. Die gesamte Menschheit wird entweder versklavt oder wir werden von der KI kurzerhand ausgelöscht.

Welcher KI-Aktivist bist du?

Eine Sache, die fast sicher scheint, ist, dass diejenigen, die neutral sind und sich nicht als Teil des KI-Aktivismus-Spiels betrachten, sie werden unaufhaltsam in das KI-Social-Action-Gambit hineingezogen, ob sie es wollen oder nicht. KI ist da und wächst. Niemand wird in der Lage sein, den Kopf in den Sand zu stecken, und jeder wird sich gegen KI erheben müssen, also ist die einzige Frage, auf welcher Seite oder in welchem ​​Lager Sie landen werden.

KI erregt Aufmerksamkeit, leicht oder extrem, und wir alle haben ein Interesse daran, wohin sich KI entwickelt.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/06/04/ai-ethics-and-the-perplexing-societal-and-legal-role-of-ai-activism-inclusive-in- der-fall-von-autonomen-selbstfahrenden-autos/