Die neueste aufrüttelnde KI-ethische Sorge ist, dass KI politische Vorurteile untrennbar verkörpern kann, einschließlich sogar im harmlosen Fall von KI-basierten selbstfahrenden Autos

Reden wir über Politik.

Nun, mir ist klar, dass Sie angesichts der scheinbar ununterbrochenen Konzentration auf Politik in allen verfügbaren Medien heutzutage wahrscheinlich ausgebrannt sind. Rote Staaten versus blaue Staaten. Liberale versus Konservative. Demokraten versus Republikaner. Das Gerede über politische Machenschaften ist erbittert endlos.

Sie könnten vernünftigerweise davon ausgehen, dass es einige Themen gibt, bei denen die Politik keine besondere Rolle spielt. Im Wesentlichen gibt es vielleicht zwei unterschiedliche Klassen von Themen, nämlich Themen, die auf jeden Fall politisch geprägt sind, und andere, banalere Themen, die den politischen Bereich umgehen oder ihm entgehen würden.

Es erscheint sinnvoll, dass es diese auffälligen Krisenthemen geben wird, die auf ewig in der Politik und in politischen Furore stecken bleiben werden, wie zum Beispiel die langjährige Liste, die Aspekte der nationalen Gesundheitsversorgung, Wahlaspekte, Waffenkontrolle, Einwanderung usw. umfasst. und dergleichen. Alles, was Sie tun müssen, ist, eines dieser Themen zu erwähnen, und im nächsten Moment geraten Sie in einen politischen Feuersturm. Ziemlich hitzige Auseinandersetzungen sind so gut wie garantiert.

Auf der anderen Seite der Feuersbrunst-Medaille gibt es vielleicht einige Themen, die keine derart reflexartigen politischen Reaktionen hervorrufen. Ich möchte Ihnen ein solches Thema vorstellen und versuchen, Ihre erste Bauchreaktion zu erfahren.

Ready?

Autos.

Ja, ruft das Alltagsthema Autos, Automobile, Kraftfahrzeuge, oder wie auch immer Sie es ausdrücken möchten, einen politischen Aufschrei hervor oder schürt es eine politisch aufgeladene Hetzrede oder verbale Handgreiflichkeiten, über die man reden kann?

Oberflächlich betrachtet scheint es nicht so, als gäbe es einen größeren Anschein politischer Bedenken gegenüber Autos. Sie sind lediglich ein alltägliches Transportmittel. Sie steigen in Ihr Auto und fahren zur Arbeit. Sie nutzen Ihr Auto, um Besorgungen zu erledigen und Lebensmittel einzukaufen. Wenn Sie etwas Zeit für einen Urlaub haben, fahren Sie mit dem Auto in die offenen Wälder oder besuchen vielleicht einige wertvolle Nationaldenkmäler.

Autos scheinen unpolitisch zu sein.

Tut mir leid, aber das ist im Großen und Ganzen nicht der Fall.

Es lässt sich argumentieren, dass Autos wie jedes andere sogenannte Brennpunktthema eng von der Politik umgeben und in sie vertieft sind. Vielleicht berichten die allgemeinen Medien nicht so ausführlich über Autopolitik, wie dies bei anderen, verlockenderen Themen der Fall wäre, aber nichtsdestotrotz sind die politischen Unterströmungen immer noch vorhanden.

Eine offensichtliche politische Dimension besteht darin, woraus unsere Autos bestehen sollten.

Ich beziehe mich auf den Aufbau oder die Mechanisierung von Autos. Beispielsweise gibt es eine hitzige politische Debatte darüber, ob Autos ICE (Verbrennungsmotoren) verwenden oder auf EV (Elektrofahrzeuge) umsteigen sollten. Dies ist ein bedeutender Diskursbereich, der an zahlreiche andere politisch brisante Themen anknüpft, etwa Umweltfragen und Aspekte des Klimawandels.

Ein weniger bekanntes und dennoch verwandtes Thema befasst sich in verschiedener Hinsicht mit der Größe von Autos und ihrem gesamten Fußabdruck. Sollten wir große Autos haben oder nur kleinere Autos? Sollten wir Autos so konzipieren, dass sie die Autonutzung generell unterbinden und die Menschen dazu bewegen sollen, stattdessen den öffentlichen Nahverkehr und den öffentlichen Nahverkehr zu nutzen? Und so weiter.

Hier ist etwas, woran Sie wahrscheinlich nicht gedacht haben.

Einige Studien haben untersucht, ob die Art des Autos, das man besitzt, von den politischen Neigungen des Autobesitzers abhängt. Vermutlich könnten Sie eine statistische Korrelation zwischen der Art des gekauften Autos zwischen einer Person, die sich als Demokrat ausgibt, und ebenso eine statistische Korrelation zwischen der Zugehörigkeit zu einem Republikaner und der Art des Autos finden, die sie besitzt. Ich werde hier nicht näher auf diese Studien eingehen, möchte jedoch erwähnen, dass Sie solche Studien und ihre Ergebnisse mit Vorsicht und einer großen Portion Skepsis hinsichtlich der damit verbundenen statistischen Validität interpretieren sollten.

Was die Verwendung von Statistiken betrifft, so gibt es noch einen weiteren interessanten Blickwinkel auf politische Merkmale und Autos. Es gibt Forschungsbemühungen, die verschiedenes miteinander zu verbinden scheinen Fahrverhalten von Personen zur politischen Parteizugehörigkeit dieser Fahrer.

Zu den häufig gestellten Fragen gehören:

· Handelt es sich bei Fahrern, die in Autounfälle oder Zusammenstöße verwickelt werden, eher oder weniger wahrscheinlich um Demokraten oder Republikaner?

· Sind betrunkene Fahrer eher Liberale oder Konservative?

· Wenn es zu diesen verrückten Rasereien im Straßenverkehr kommt, bei denen Autofahrer durchdrehen und aufeinander losgehen, würden diese verrückten, wütenden Wahnsinnigen dann eher Liberale oder Konservative sein?

· Wer bekommt mehr Strafzettel und fährt vermutlich riskanter, Demokraten oder Republikaner?

· Usw.

Auch hier werde ich nicht näher auf diese Forschungsanstrengungen eingehen. Und noch einmal: Seien Sie bitte wachsam, wenn Sie solche Studien lesen oder flammende Schlagzeilen über deren Ergebnisse sehen. Ich möchte nur sagen, dass die alte Aussage über Statistiken auch heute noch voll und ganz zutrifft, so dass es Lügen, verdammte Lügen und Statistiken gibt (ich habe diesen Teil der salzigen Weisheit für ein vornehmeres Publikum aufgeräumt).

Es scheint also genügend Belege dafür zu geben, dass das Thema Auto bedauerlicherweise mit politischen Konnotationen durchsetzt ist.

Dann werde ich ein anderes Thema wählen, eines, das vielleicht wirklich völlig unpolitisch ist.

Diesmal bereit?

Künstliche Intelligenz (KI).

Sicherlich, so möchte man hoffen, muss KI unpolitisch sein, insbesondere wenn es um die internen Kapazitäten von KI-Systemen geht. Sie könnten natürlich vermuten, dass es Politik gibt Umgebung Ob KI eingesetzt werden sollte oder nicht, aber man würde scheinbar annehmen, dass die Internität eines KI-Systems per se jenseits jeder politischen Gärung liegt.

Bevor wir uns diese vorherrschende Annahme genauer ansehen, könnte es aufschlussreich sein, einige andere Aspekte der KI zu betrachten, die in letzter Zeit viele dazu veranlasst haben, den sinnlosen Drang, KI-Systeme im Handumdrehen zu produzieren und instinktiv zu akzeptieren, zu überdenken.

Sehen Sie, im Ansturm auf das KI für immer Angesichts der Aufregung der letzten Jahre wächst die Erkenntnis, dass nicht jede KI unbedingt gut sein muss. Wir sind zu der Erkenntnis gekommen, dass es auch dafür jede Menge Möglichkeiten gibt KI für schlecht entstehen. Dies kann durch die gezielte Absicht derjenigen geschehen, die KI entwickeln, und es kann auch dadurch geschehen, dass manche vehement argumentieren würden, es sei ein völlig unverantwortlicher Mangel an angemessener Aufsicht durch KI-Entwickler und diejenigen, die KI-Systeme verbreiten.

Ich habe viele dieser KI-Ethikthemen in meiner Kolumnenberichterstattung behandelt, wie zum Beispiel den Link hier und den Link hier.

Betrachten Sie es als Indikator für KI für schlecht die Frage der Gesichtserkennung.

Viele dachten, dass die Gesichtserkennung die tollste aller KI-Technologien sein würde (und in vielerlei Hinsicht ist sie tatsächlich eine Art von KI). KI für immer). Es wäre so einfach, Bankgeschäfte an Geldautomaten zu tätigen, indem einfach Ihr Gesicht zur Erkennung gescannt wird, anstatt einen geheimen PIN-Code und eine Bankkarte zu verwenden. Es wäre so bequem, in ein Lebensmittelgeschäft zu gehen und einzukaufen, indem man lediglich sein Gesicht als Mittel zur Kennzeichnung seines Online-Lebensmittelkontos verwendet, das für alle von Ihnen ausgewählten Artikel belastet werden könnte.

Sie kennen die Übung.

Das nächste, was Sie wissen, war, dass die Gesellschaft zu entdecken begann, dass es bei der Gesichtserkennung nicht nur um süß schmeckende Bonbons und duftende Rosen geht. Einige der KI-basierten Gesichtserkennungsalgorithmen waren schlecht darin, Menschen anhand ihrer Rasse zu unterscheiden. Zahlreiche andere beunruhigende und geradezu empörende Probleme tauchten auf, darunter inhärente Vorurteile im Zusammenhang mit dem Geschlecht und anderen Faktoren. Meine Berichterstattung zu den Themen der KI-Ethik, die der Gesichtserkennung zugrunde liegen, finden Sie hier.

Insgesamt geht es darum, dass die Wahrscheinlichkeit groß ist, dass es welche gibt KI für immer wird auch zugehöriges Gepäck befördern, bestehend aus KI für schlecht. Es gibt einige Gelegenheiten, bei denen KI für schlecht ist völlig schlecht, und es gibt nur wenige erlösende Eigenschaften, die darauf hindeuten, dass es ein Mindestmaß davon gibt KI für immer innerhalb. Alles in allem verfügt ein KI-System jedoch normalerweise über den Anschein von beidem KI für immer und KI für schlecht. Ersteres möchten wir fördern, Letzteres möchten wir verhindern, eindämmen, mildern und wenn alles andere fehlschlägt, so schnell wie möglich einfangen und entschärfen.

Sie denken vielleicht: Ja, das alles macht Sinn und wir sollten die KI sorgfältig auf rassistische Vorurteile, geschlechtsspezifische Vorurteile und alle Arten von Ungleichheiten prüfen. Dies wäre die richtige Maßnahme und würde der Gesellschaft dabei helfen, das Schlechte zu vermeiden und das Gute der KI fruchtbar zu machen.

Ob Sie es glauben oder nicht, es gibt noch einen weiteren Faktor, der zu der Liste der überraschenden Dinge in der KI hinzugefügt werden kann, von denen viele nicht wussten, dass sie in der bunten Mischung der KI enthalten sind.

Politische Neigungen.

Jüngste Studien zeigen, dass KI-Systeme (sozusagen, wenn auch nicht anthropomorphisch) eine Fülle politischer Tendenzen, Meinungen, Vorlieben und anderer politischer Attribute und Einflüsse verkörpern können. Dies kann sich wiederum darauf auswirken, wie die KI funktioniert, beispielsweise darüber, was die KI auf der Grundlage der Programmierung der KI „entscheidet“.

Wenn Sie online einen Kredit beantragen und ein KI-basiertes algorithmisches Entscheidungssystem zum Einsatz kommt, haben Sie oft keine Ahnung, woraus die KI-Programmierung besteht. Wenn Sie beispielsweise den Kredit ablehnen, können Sie nicht sicher sein, dass die KI es vermieden hat, Ihre Rasse, Ihr Geschlecht oder andere solche Faktoren bei der Ablehnungsentscheidung zu berücksichtigen.

Sie können auch nicht sicher sein, dass die KI Ihren Kreditantrag nicht aufgrund ihrer politischen Voreingenommenheit unterdrückt hat.

Wenn ich das in solch drastischen Worten sage, übertreiben Sie die Vorstellung nicht mit der Annahme, dass die KI empfindungsfähig ist. Wie ich gleich noch näher erläutern werde, verfügen wir heute über keine empfindungsfähige KI. Punkt, Punkt. Egal welche wilden Schlagzeilen Sie sehen, seien Sie sich darüber im Klaren, dass es heutzutage nichts annähernd an eine empfindungsfähige KI ankommt. Wir wissen nicht einmal, ob es möglich ist, mit KI ein Bewusstsein zu erreichen. Es gibt auch keine Hinweise darauf, wann es passieren wird oder ob es jemals passieren wird.

Zurück zum eigentlichen Thema.

Nachdem ich nun herausgefunden habe, dass KI politische Vorurteile eindämmen kann, können wir uns genauer ansehen, wie dies geschieht und auf welche Weise die politischen Neigungen heimtückisch zum Vorschein kommen können.

Abgesehen davon: Wenn Ihnen die Vorstellung, dass KI politische Vorlieben verankern kann, furchtbare Bestürzung oder Schock auslöst, dann sehen Sie darin ein weiteres Beispiel dafür, wie man den makellosen Schleier der KI durchdringt. Die Gesellschaft scheint bisher ein Markenbild von KI akzeptiert zu haben, das die große Unschuld und die makellose Aura von Neutralität und Ausgeglichenheit verkörpert.

Möglicherweise haben wir dies von anderen Maschinentypen übernommen. Toaster scheinen keine inhärenten Vorurteile aufgrund von Rasse, Geschlecht usw. zu haben. Wir würden auch nicht erwarten, dass ein Toaster sozusagen politisch gesinnt ist. Ein Toaster ist ein Toaster. Es ist lediglich als Maschine konzipiert.

Der Grund, warum die Toaster-Perspektive in Bezug auf KI nicht stichhaltig ist, liegt darin, dass das KI-System darauf programmiert ist, kognitive Fähigkeiten weiterzuführen. Dadurch wird die Maschine in die Zwickmühle kognitiver Probleme wie der Verkörperung von Vorurteilen und dergleichen gedrängt. Ich versichere Ihnen, wir werden schon bald feststellen, dass KI-basierte Toaster voller Vorurteile und problematischer Bedenken sind.

Eine praktische Möglichkeit, die Tür zum Verständnis zu öffnen, wie KI politisch durchdrungen werden kann, besteht darin, einen Blick auf den Einsatz von KI beim Aufkommen KI-basierter, wirklich selbstfahrender Autos zu werfen. Wir können zwei Fliegen mit einer Klappe schlagen und das generische und übergreifende Thema der KI untersuchen, die politische Verkörperung beinhaltet, und dies im beispielhaften Kontext tun, wie dies bei selbstfahrenden Autos entstehen könnte.

Ich möchte jedoch klarstellen, dass die politische Impfung gegen KI ein eigenständiges Thema ist, das eigene Aufmerksamkeit verdient. Verknüpfen Sie nicht fälschlicherweise die KI selbstfahrender Autos mit den politischen Dimensionen der KI. Jede KI wird politisch inhärente Möglichkeiten haben, und die Tiefe und der Grad werden davon abhängen, wie die KI konzipiert und eingesetzt wird.

Hier ist dann eine bemerkenswerte Frage, über die es sich lohnt nachzudenken: Wie wird es der KI gelingen, politische Tendenzen intern zu prägen, und kann dies sogar im scheinbar unpolitischen Bereich der KI geschehen, die für die aufkommenden KI-basierten selbstfahrenden Autos verwendet wird?

Gestatten Sie mir einen Moment, die Frage im Zusammenhang mit selbstfahrenden Autos zu klären.

Beachten Sie zunächst, dass an einem echten selbstfahrenden Auto kein menschlicher Fahrer beteiligt ist. Denken Sie daran, dass echte selbstfahrende Autos über ein KI-Fahrsystem gefahren werden. Es ist weder ein menschlicher Fahrer am Steuer erforderlich, noch ist vorgesehen, dass ein Mensch das Fahrzeug fährt. Für meine umfangreiche und fortlaufende Berichterstattung über autonome Fahrzeuge (AVs) und insbesondere selbstfahrende Autos, siehe den Link hier.

Ich möchte weiter klären, was gemeint ist, wenn ich von echten selbstfahrenden Autos spreche.

Die Ebenen selbstfahrender Autos verstehen

Zur Verdeutlichung sind echte selbstfahrende Autos solche, bei denen die KI das Auto ganz alleine fährt und es während der Fahraufgabe keine menschliche Hilfe gibt.

Diese fahrerlosen Fahrzeuge gelten als Stufe 4 und Stufe 5 (siehe meine Erklärung unter diesem Link hier), während ein Auto, bei dem ein menschlicher Fahrer die Fahranstrengungen gemeinsam teilen muss, normalerweise als Stufe 2 oder Stufe 3 eingestuft wird. Das Teilen der Fahraufgabe wird als halbautonom beschrieben und enthält normalerweise eine Vielzahl automatisierter Add-Ons, die als ADAS (Advanced Driver-Assistance Systems) bezeichnet werden.

Es gibt noch kein echtes selbstfahrendes Auto auf Stufe 5, von dem wir noch nicht einmal wissen, ob dies möglich sein wird und wie lange es dauern wird, bis es dort ankommt.

In der Zwischenzeit versuchen die Bemühungen der Stufe 4 allmählich, durch sehr enge und selektive Versuche auf öffentlichen Straßen eine gewisse Traktion zu erreichen. Es gibt jedoch Kontroversen darüber, ob diese Tests per se zulässig sein sollten (wir sind alle Meerschweinchen auf Leben und Tod in einem Experiment) Einige behaupten, dass sie auf unseren Autobahnen und Nebenstraßen stattfinden (siehe meine Berichterstattung unter diesem Link hier).

Da halbautonome Autos einen menschlichen Fahrer erfordern, unterscheidet sich die Einführung dieser Autotypen nicht wesentlich vom Fahren herkömmlicher Fahrzeuge. Daher gibt es an sich nicht viel Neues zu diesem Thema (wie Sie sehen werden) in einem Moment sind die nächsten Punkte allgemein anwendbar).

Für halbautonome Autos ist es wichtig, dass die Öffentlichkeit vor einem störenden Aspekt gewarnt wird, der in letzter Zeit aufgetreten ist, und zwar trotz der menschlichen Fahrer, die immer wieder Videos von sich selbst veröffentlichen, die am Steuer eines Level 2- oder Level 3-Autos einschlafen Wir alle müssen vermeiden, in die Irre geführt zu werden, dass der Fahrer seine Aufmerksamkeit von der Fahraufgabe ablenken kann, während er ein halbautonomes Auto fährt.

Sie sind die verantwortliche Partei für die Fahraktionen des Fahrzeugs, unabhängig davon, wie viel Automatisierung in ein Level 2 oder Level 3 geworfen werden könnte.

Selbstfahrende Autos und in KI eingebettete politische Tendenzen

Bei echten selbstfahrenden Fahrzeugen der Stufen 4 und 5 ist kein menschlicher Fahrer an der Fahraufgabe beteiligt.

Alle Insassen werden Passagiere sein.

Die KI fährt.

Ein Aspekt, der sofort diskutiert werden muss, ist die Tatsache, dass die KI, die an den heutigen KI-Antriebssystemen beteiligt ist, nicht empfindungsfähig ist. Mit anderen Worten, die KI ist insgesamt ein Kollektiv computergestützter Programmierung und Algorithmen und mit Sicherheit nicht in der Lage, auf die gleiche Weise zu argumentieren, wie es Menschen können.

Warum wird dadurch zusätzlich betont, dass die KI nicht empfindungsfähig ist?

Weil ich unterstreichen möchte, dass ich bei der Erörterung der Rolle des KI-Antriebssystems der KI keine menschlichen Qualitäten zuschreibe. Bitte beachten Sie, dass es heutzutage eine anhaltende und gefährliche Tendenz gibt, die KI zu anthropomorphisieren. Im Wesentlichen weisen die Menschen der heutigen KI eine menschenähnliche Empfindung zu, trotz der unbestreitbaren und unbestreitbaren Tatsache, dass es eine solche KI noch nicht gibt.

Mit dieser Klarstellung können Sie sich vorstellen, dass das KI-Fahrsystem die Facetten des Fahrens nicht von Haus aus „kennt“. Das Fahren und alles, was dazu gehört, muss als Teil der Hardware und Software des selbstfahrenden Autos programmiert werden.

Lassen Sie uns in die Vielzahl von Aspekten eintauchen, die zu diesem Thema eine Rolle spielen.

Zunächst ist es wichtig zu erkennen, dass nicht alle KI-selbstfahrenden Autos gleich sind. Jeder Autohersteller und jedes selbstfahrende Technologieunternehmen verfolgt seinen eigenen Ansatz, um selbstfahrende Autos zu entwickeln. Daher ist es schwierig, pauschale Aussagen darüber zu treffen, was KI-Fahrsysteme tun oder nicht tun werden.

Darüber hinaus kann die Aussage, dass ein KI-Fahrsystem eine bestimmte Sache nicht macht, später von Entwicklern überholt werden, die den Computer tatsächlich so programmieren, dass sie genau das tun. Schritt für Schritt werden KI-Fahrsysteme sukzessive verbessert und erweitert. Eine heute bestehende Einschränkung ist in einer zukünftigen Iteration oder Version des Systems möglicherweise nicht mehr vorhanden.

Ich vertraue darauf, dass dies eine ausreichende Litanei von Vorbehalten bietet, um das zu untermauern, was ich erzählen werde.

Wir sind jetzt bereit, uns eingehend mit dem in die KI-Politik eingebetteten Dilemma zu befassen.

Lassen wir die Aspekte selbstfahrender Autos kurz beiseite und untersuchen wir zunächst das KI-Thema dahingehend, wie es politische Tendenzen berücksichtigt. Der einfachste Weg, wie KI politisch geprägt wird, sind die Aktionen der KI-Entwickler, die die KI-Software entwickeln. Als Menschen könnten sie ihre persönlichen politischen Neigungen in das übertragen, wofür sie die Software programmieren.

Als KI-Systeme erstmals verschiedene Rassen- und Geschlechtervorurteile aufwiesen, gab es große Proteste, dass dies an den KI-Entwicklern liegen müsse, die diese Systeme entwickelt hatten. Es gab Vorwürfe, dass es sich hierbei um eine gezielte Handlung von KI-Entwicklern handele. Andere meinten jedoch, dass es den KI-Entwicklern an Vielfalt mangele und sie daher leichtfertig oder gedankenlos zuließen, dass ihre bestehenden Vorurteile in ihre KI-Programmierbemühungen übernommen würden.

Für viele KI-Teams hat dies dazu geführt, dass sie sich der Gewährleistung der Vielfalt unter ihren Entwicklerkollegen bewusster werden, auch wenn neue Mitglieder zu ihren Programmiergruppen hinzugefügt werden. Darüber hinaus wurden spezielle lehrreiche Bildungskurse geschaffen, um das Diversitätsbewusstsein für KI-Entwickler zu stärken. Es gibt sogar KI-Entwicklungsmethoden, die Diversitätsaspekte einbeziehen, um KI-Projekte ausdrücklich darauf hinzuweisen, darauf zu achten, dass ihren Systemen keine Vorurteile und Ungleichheiten eingeimpft werden.

Obwohl sich noch fast niemand der politisch verankerten Voreingenommenheit gegenüber KI bewusst ist, ist die Wahrscheinlichkeit groß, dass sie irgendwann an Bedeutung gewinnt und es zu lautstarkem Aufruhr kommt. Wieder einmal wird es eine genaue Prüfung der KI-Entwickler geben. Vielleicht bringen einige absichtlich ihre politischen Neigungen zum Ausdruck, während andere dies tun, ohne sich dessen bewusst zu sein.

Ich wage zu behaupten, dass die Annahme, dass die KI-Entwickler die einzige Quelle für die Einführung von Vorurteilen in die KI waren, die Gesamtheit der Ursachen der KI-Vorurteile verfehlte. Allmählich hat man sich darüber im Klaren, dass der Einsatz von maschinellem Lernen (ML) und Deep Learning (DL) auch einen nennenswerten Beitrag zu den internen Bias-Aspekten der KI leistet.

Maschinelles Lernen und Deep Learning sind rechnerische Mustervergleichstechniken und -technologien.

Sie stellen Daten zusammen, die Sie in den ML/DL einspeisen möchten, der dann rechnerisch versucht, mathematische Muster im bereitgestellten Datensatz zu finden. Basierend auf diesen berechneten Mustern wird ML/DL genutzt, um beispielsweise eine Gesichtserkennung durchführen zu können. Für die Gesichtserkennung geben wir möglicherweise eine Reihe von Bildern von Menschen ein, und ML/DL berechnet die bemerkenswerten Merkmale dessen, was Gesichter erkennbar macht, wie etwa die Form und Größe der Nase, die Form und Größe von Mund und Lippen , die Form und Größe der Stirn usw.

Dieser rechnerische Ansatz scheint jeglichem voreingenommenen Einfluss entzogen zu sein. Es sind alles nur Berechnungen.

Aha, aber denken Sie daran, dass wir im Rahmen des „Trainings“ oder des rechnerischen Mustervergleichs Bilder (oder was auch immer) in den ML/DL einspeisen. Wenn wir für die Gesichtserkennung hauptsächlich Bilder einspeisen würden, die Menschen einer bestimmten Rasse zeigen, ist die Wahrscheinlichkeit groß, dass sich der rechnerische Mustervergleich auf diese Gesichtsaspekte konzentrieren würde. Angenommen, wir setzen dieses Gesichtserkennungssystem später in großem Umfang ein, werden diejenigen, die es nutzten und einer anderen Rasse angehörten, mathematisch möglicherweise weniger wahrscheinlich „erkannt“ werden, da die ML/DL-Muster sich an der Rasse orientieren, die überwiegend im Training gefunden wurde Satz.

Sie können also deutlich erkennen, wie der ansonsten „unvoreingenommene“ mathematische Ansatz von ML/DL verzerrt werden kann (es gibt auch andere Möglichkeiten, aber ich erwähne hier nur diese große). Haben die KI-Entwickler absichtlich einen Datensatz erstellt, der rassistisch unausgewogen war? Ich würde vorschlagen, dass dies selten eine vorsätzliche Handlung ist, obwohl die mangelnde Erkenntnis, dass sie dies getan haben, immer noch keine ausreichende Entschuldigung ist.

Heutzutage gibt es starke Bestrebungen, diejenigen, die ML/DL verwenden, dazu zu bringen, besser darüber nachzudenken, welche Daten sie für das Training verwenden und welche Ergebnisse dies bringt. Leider ist jeder auf den ML/DL-Zug aufgesprungen, und viele dieser Neulinge oder Quereinsteiger, die den ML/DL-Umhang übernommen haben, tun dies, ohne sich der Vorurteile bewusst zu sein, die dadurch entstehen. Möglicherweise gibt es auch Bösewichte, die dies absichtlich tun, aber hoffen wir, dass es nur wenige gibt.

Ich vertraue darauf, dass das Vorstehende Sie über die Aspekte der KI-Ethik informiert hat, die mit der Einführung von Vorurteilen in die heutige KI einhergehen.

Machen Sie weiter und wiederholen Sie den ganzen Kram, indem Sie den allgemeinen Begriff der Voreingenommenheit durch die spezifischen Hinweise auf politisch verankerte Neigungen ersetzen. Ich habe bereits erwähnt, dass KI-Entwickler selbst ihre politischen Neigungen offen oder unbeabsichtigt in die Aktivitäten der programmierten KI einfließen lassen könnten. Der andere Aspekt, den ich ebenfalls angesprochen habe, ist, dass für den Einsatz von maschinellem Lernen und Deep Learning die Möglichkeit besteht, Trainingsdaten auszuwählen, die absichtlich oder versehentlich Muster vermitteln könnten, die in eine bestimmte politische Dimension passen.

Nun, ich bin mit dieser Kolumne etwas zu lang (ups, TLDR, werden manche scharf sagen), daher möchte ich kurz ein Beispiel dafür skizzieren, wie KI für ein KI-basiertes selbstfahrendes Auto in diese Kolumne einbezogen werden könnte Arten von politisch orientierten Wurmlöchern (für meine ausführliche Berichterstattung über solche Themen in vielen meiner Kolumnenbeiträge siehe den Link hier).

Ein bekanntes und oft diskutiertes potenzielles Gerechtigkeitsproblem bei selbstfahrenden KI-Autos betrifft den Einsatz von Robotertaxis und die Frage, wer Zugang zu dieser neuen Mobility-as-a-Service-Option haben wird. Es besteht die Sorge, dass sich nur die Wohlhabenden die Nutzung von Robo-Taxis leisten können und somit diejenigen in unteren Einkommensschichten von der aufkommenden Ära selbstfahrender Autos ausgeschlossen bleiben werden (einen ausführlichen Bericht hierzu finden Sie unter dem Link hier). ).

Es gibt noch eine weitere Wendung, die sich aus diesem Bedenken ergibt.

Stellen Sie sich vor, dass selbstfahrende Autos durch eine Stadt fahren und auf eine Fahranfrage warten. Eine Anfrage geht ein und ein nahegelegenes selbstfahrendes Robo-Taxi kommt herbei, um den Mitfahrer abzuholen. Der Fahrer gibt an, wohin er möchte, und das KI-Fahrsystem plant den Weg dorthin. Anschließend fährt das KI-Fahrsystem das autonome Fahrzeug zum gewünschten Ziel.

Das alles scheint in Ordnung zu sein.

Hier kommt eine ernüchternde Besorgnis zum Ausdruck.

Angenommen, das KI-Fahrsystem entscheidet sich dafür, einen Weg zu finden, der die stärker benachteiligten Viertel vermeidet. Sie könnten davon ausgehen, dass die Navigationsdarstellung nur auf dem optimalen Weg basieren würde, beispielsweise auf der geringsten Entfernung oder vielleicht auf der kürzesten Zeit. Vielleicht, vielleicht nicht.

Ein weiterer Faktor könnte die Wahrscheinlichkeit sein, dass das selbstfahrende Auto Gebiete durchquert, die vermutlich von Kriminalität heimgesucht werden. Es könnte sein, dass die Gefahr für das autonome Fahrzeug und die Passagiere bei der Wahl des einzuschlagenden Weges berücksichtigt wird.

Es herrscht die Meinung, dass selbstfahrende Autos fast immer unweigerlich die ärmeren oder unterdrückten Gemeinden meiden würden. Menschen, die in selbstfahrenden Autos fahren, scheinen nie zu bemerken, dass es solche Orte in ihren Städten gibt. Dies wiederum würde vermutlich dazu führen, dass sie sich der Bedürfnisse solcher Gemeinschaften nicht bewusst sind. Darüber hinaus haben die Bewohner dieser Gebiete möglicherweise selten die Möglichkeit, ein selbstfahrendes Auto zu nutzen, selbst wenn es erschwinglich ist. In ihrer Mitte würden keine Robotertaxis herumlaufen, da sie sich rechnerisch außerhalb dieser Gebiete aufgehalten haben.

Würde diese Verzerrung durch die absichtliche Programmierung der KI durch die Entwickler entstehen?

Könnte sein, aber nicht unbedingt.

Vielleicht ist diese Voreingenommenheit auf den Einsatz von maschinellem Lernen und Deep Learning zurückzuführen?

Sicher, es ist eine erwogene Möglichkeit.

Das KI-Fahrsystem könnte auf ML/DL basieren, das Daten für das Training darüber verwendet, wo bei der Planung eines Pfades vorzugehen ist. Wenn diese Daten darauf ausgerichtet wären, bestimmte Bereiche zu meiden, würde der ML/DL wahrscheinlich ein solches Muster erkennen und damit fortfahren. Unter der Annahme, dass solche Daten im Laufe der Zeit weiter akkumuliert werden, während die selbstfahrenden Autos unterwegs sind, würden die Daten, die anschließend für Aktualisierungen und Wartung verwendet werden, dieselben erfundenen Muster noch verstärken.

Man könnte sagen, dass sich die Muster verschärfen, wenn das vorherige Muster wiederholt eingesetzt wird, eine Art Schneeball- oder immer spiralförmiger Effekt.

In gewisser Weise könnte man meinen, dass diese scheinbare Voreingenommenheit hinsichtlich der Frage, wohin man fahren soll, ein Beispiel dafür ist, wie eine potenzielle, politisch verankerte KI-Tendenz entstehen könnte. Eine Perspektive wäre, die KI in dieser Vorliebe unvermindert fortführen zu lassen. Eine andere Möglichkeit wäre, die KI so zu überarbeiten, dass sie bewusst in die Bereiche vordringt, die außerhalb des Anwendungsbereichs der Musterübereinstimmung liegen, was, wie man wiederum sagen könnte, eine vielleicht politisch motivierte Haltung ist, die in die KI eingeflossen ist.

Alles in allem auch die KI Exponate eine politische Tendenz oder wird zumindest so wahrgenommen, unabhängig davon, ob sie irgendeinen Anschein von der Politik der Dinge hatte (was sie aufgrund ihres Empfindungsvermögens nicht tut).

Fazit

Es gibt viele Beispiele dieser Art, die angeführt werden können.

Ich bleibe beim Kontext selbstfahrender Autos und gebe Ihnen noch ein kurzes Beispiel. Angenommen, ein Mitfahrer bittet um eine Mitfahrgelegenheit durch ein KI-Robotertaxi mit selbstfahrendem Auto und tut dies, um zu einer politischen Kundgebung zu gelangen, die im Gerichtsgebäude in der Innenstadt stattfindet. Das KI-Fahrsystem weigert sich, den Fahrer dorthin zu bringen.

Warum?

Stellen Sie sich vor, dass frühere Daten über politische Kundgebungen als Zielort darauf hindeuteten, dass die selbstfahrenden Autos in Verkehrsstörungen geraten. Gehen Sie davon aus, dass dies bedeutete, dass die selbstfahrenden Autos aufgrund der langen Wartezeiten im Verkehr und der geringeren Gebühr für diese Wartezeiten weniger Geld mit den Fahrgästen verdienen konnten. Ein KI-Algorithmus wie die Verwendung von ML/DL könnte rechnerisch feststellen, dass die Teilnahme an politischen Kundgebungen eine schlechte Entscheidung zum Geldverdienen ist. Wenn daher Anfragen für das Robo-Taxi für die Fahrt zu einer politischen Kundgebung gestellt werden, wird der Antrag abgelehnt.

Ich denke, Sie können verstehen, dass dies als eine politisch motivierte Entscheidung angesehen werden könnte. Auch wenn die KI in keiner Weise direkt ein politisches Motiv nutzt, scheint sie auf jeden Fall eine politische Entscheidung zu treffen.

Sie können darauf wetten, dass wir bald mit einer politischen Gegenreaktion auf die politischen Tendenzen der KI konfrontiert werden. Merk dir meine Worte!

Apropos Worte: Der berühmte griechische Dichter und Dramatiker Aristophanes behauptete, dass unter jedem Stein ein Politiker lauere. In der heutigen Welt besteht in jedem KI-System zweifellos die Möglichkeit einer lauernden politisch verankerten Tendenz, ob Sie sich dessen bewusst sind oder nicht.

Fangen Sie besser an, diese Steine ​​umzudrehen.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/01/17/latest-jolting-ai-ethics-concern-is-that-ai-can-inextricably-embody-political-biases-include- selbst im-harmlosen-fall-von-KI-basierten-selbstfahrenden-autos/