Verantwortungsbewusste KI erfreut sich überragenden Aufschwung durch KI-Ethik-Proklamation der führenden Berufsgesellschaft ACM

Hast du die Nachrichten gesehen oder gehört?

Eine weitere Reihe von KI-Ethikregeln wurde neu verkündet.

Großer Applaus, bitte.

Dann wieder, Sie könnten nicht ist mir aufgefallen, weil seit einiger Zeit so viele andere KI-Ethik-Erlasse im Umlauf sind. Einige sagen, dass die scheinbar ununterbrochene Versickerung von Proklamationen zur ethischen KI ein wenig betäubend wird. Wie viele brauchen wir? Kann jemand mit ihnen allen Schritt halten? Welches ist das beste? Übertreiben wir vielleicht die Grundsätze der KI-Ethik? Usw.

Nun, in diesem speziellen Fall sage ich, dass wir diesen jüngsten Neuzugang im Club besonders begrüßen sollten.

Ich werde gleich aufschlussreich erklären, warum.

Zunächst beziehe ich mich zur Klarstellung auf die KI-Ethik-Grundsätze, die jetzt offiziell bekannt sind als „Grundsatzerklärung für verantwortungsvolle algorithmische Systeme“ das kürzlich vom ACM Technology Policy Council am 26. Oktober 2022 veröffentlicht wurde. Ein großes Lob geht an die Expertenteams, die dieses wertvolle Dokument zusammengestellt haben, darunter die Co-Hauptautoren Jeanna Matthews (Clarkson University) und Ricardo Baeza-Yates (Universitat Pompeu Fabra). ).

Diejenigen unter Ihnen, die sich auskennen, werden bei näherer Betrachtung feststellen, dass dieses Dokument ein wenig bekannt vorkommt.

Gutes Auge!

Diese neueste Inkarnation ist im Wesentlichen eine aktualisierte und erweiterte Variante der früheren gemeinsamen „Erklärung zu algorithmischer Transparenz und Rechenschaftspflicht“, die 2017 vom ACM US Technology Policy Committee und dem ACM Europe Technology Policy Committee veröffentlicht wurde. Treue Leser meiner Kolumnen werden sich vielleicht daran erinnern Ich habe das Dekret von 2017 von Zeit zu Zeit in meiner Kolumne über die wichtigsten Facetten der KI-Ethik und des KI-Rechts erwähnt.

Für meine umfassende und fortlaufende Bewertung und Trendanalysen zu KI-Ethik und KI-Recht siehe den Link hier und den Link hier, nur um ein paar zu nennen.

Diese jüngste Erklärung der ACM ist aus mehreren wichtigen Gründen besonders wichtig.

Hier ist der Grund.

Das ACM, ein praktisches Akronym für die Verband für Rechenmaschinen, gilt als der weltweit größte auf Computer spezialisierte Verband. Mit geschätzten 110,000 Mitgliedern ist die ACM seit langem ein Pionier auf dem Computergebiet. Das ACM produziert einige der besten wissenschaftlichen Forschungen im Computerbereich und bietet ebenso professionelles Networking und spricht auch Computerpraktiker an. Als solches ist die ACM eine wichtige Stimme, die im Allgemeinen diejenigen vertritt, die High-Tech sind und sich ständig bemüht haben, den Computerbereich voranzutreiben (die ACM wurde 1947 gegründet).

Ich könnte dazu auch noch eine persönliche Anmerkung hinzufügen. Als ich in der High School zum ersten Mal mit Computern zu tun hatte, trat ich der ACM bei und nahm an ihren Bildungsprogrammen teil, insbesondere an der aufregenden Chance, an ihrem jährlichen Computerprogrammierwettbewerb teilzunehmen (solche Wettbewerbe sind heutzutage weit verbreitet und werden normalerweise als „ Hackathon). Ich bleibe während meines Studiums über mein lokales Universitäts-Kapitel in der ACM involviert und bekam die Gelegenheit, etwas über Führung zu lernen, indem ich ein Student-Kapitel-Offizier wurde. Als ich in die Industrie eintrat, trat ich einem Berufskapitel bei und übernahm erneut eine Führungsrolle. Später, als ich Professor wurde, war ich in ACM-Ausschüssen und Redaktionsausschüssen tätig und sponserte das Studentenkapitel auf dem Campus. Noch heute bin ich in der ACM aktiv, unter anderem im ACM US Technology Policy Committee.

Ich genieße die liebenswerte und dauerhafte Vision von ACM von lebenslangem Lernen und Karriereentwicklung.

In jedem Fall hat die Tatsache, dass diese von der ACM herausgegeben wurde, in Bezug auf die neueste KI-Ethikerklärung ein erhebliches Gewicht. Sie können vernünftigerweise behaupten, dass die ethischen KI-Vorschriften die Gesamtheit oder kollektive Stimme einer weltweiten Gruppe von Computerfachleuten sind. Das sagt schon etwas aus.

Es gibt auch den Aspekt, dass andere in der Computerbranche inspiriert werden, munter zu werden und zuzuhören, in dem Sinne, dass sie gebührend berücksichtigen, was die Erklärung ihrer Computerkollegen aussagt. Selbst für diejenigen, die nicht in der ACM sind oder überhaupt nichts über die verehrte Gruppe wissen, besteht daher hoffentlich großes Interesse daran, herauszufinden, worum es in der Erklärung geht.

In der Zwischenzeit diejenigen, die es sind aussen aus dem Computerbereich könnte von der Aussage als eine Art Insider-Blick hinter die Kulissen angezogen werden, was diejenigen, die sich mit Computern beschäftigen, über ethische KI sagen. Ich möchte jedoch betonen, dass die Erklärung für alle gedacht ist, nicht nur für die Computer-Community, und daher im Hinterkopf behalten, dass die KI-Ethikregeln sozusagen allgemeingültig sind.

Schließlich gibt es eine zusätzliche Wendung, die nur wenige in Betracht ziehen würden.

Manchmal nehmen Außenstehende Computerverbände als knietief in der Technologie und als nicht besonders bewusst über die gesellschaftlichen Auswirkungen von Computern und KI wahr. Sie könnten versucht sein anzunehmen, dass sich solche professionellen Einrichtungen nur für die neuesten und heißesten Durchbrüche bei Hardware oder Software interessieren. Sie werden von der Öffentlichkeit einfach gesagt rücksichtslos als Technik-Nerds wahrgenommen.

Um es klarzustellen, ich habe mich mit den sozialen Auswirkungen der Computer beschäftigt, seit ich zum ersten Mal mit Computern zu tun hatte, und ebenso hat sich auch die ACM intensiv mit solchen Themen beschäftigt.

Für alle, die überrascht sind, dass diese Erklärung über KI-Ethikregeln von der ACM zusammengestellt und veröffentlicht wurde, schenken sie der langjährigen Forschung und Arbeit, die zu diesen Themen stattfindet, keine Aufmerksamkeit. Ich fordere auch Interessierte auf, sich das ACM genau anzusehen Verhaltenskodex, ein strenger Berufsethikkodex, der sich im Laufe der Jahre entwickelt hat und betont, dass Systementwickler sich der ethischen Auswirkungen ihrer Bemühungen und Waren bewusst sein, sich daran halten und wachsam sein müssen.

KI hat das Feuer geschürt, indem sie sich über Computerethik informiert hat.

Die Sichtbarkeit ethischer und rechtlicher Überlegungen im Computerbereich hat mit dem Aufkommen der heutigen KI enorm zugenommen. Die Berufsangehörigen werden informiert und manchmal getrommelt, Fragen der KI-Ethik und des KI-Rechts angemessen zu beachten. Der Gesetzgeber rückt zunehmend Aspekte der KI-Ethik und der KI-Gesetze ins Blickfeld. Unternehmen werden sich bewusst, dass die KI, die sie entwickeln oder einsetzen, sowohl Vorteile hat als auch manchmal enorme Risiken und potenzielle Nachteile birgt.

Lassen Sie uns zusammenfassen, was in den letzten Jahren passiert ist, damit ein angemessener Kontext hergestellt werden kann, bevor wir uns mit diesen neuesten Grundsätzen der KI-Ethik befassen.

Das steigende Bewusstsein für ethische KI

Die jüngste Ära der KI wurde zunächst als beendet angesehen KI für immer, was bedeutet, dass wir KI zur Verbesserung der Menschheit einsetzen könnten. Auf den Fersen von KI für immer kam die Erkenntnis, dass wir auch eingetaucht sind KI für schlecht. Dies schließt KI ein, die so entwickelt oder selbst verändert wurde, dass sie diskriminierend ist und rechnerische Entscheidungen trifft, die unangemessene Vorurteile mit sich bringen. Manchmal ist die KI so aufgebaut, während sie in anderen Fällen in dieses ungünstige Gebiet eindringt.

Ich möchte ganz sicher gehen, dass wir uns bezüglich der Natur der heutigen KI auf derselben Seite befinden.

Es gibt heute keine KI, die empfindungsfähig ist. Wir haben das nicht. Wir wissen nicht, ob empfindungsfähige KI möglich sein wird. Niemand kann treffend vorhersagen, ob wir eine empfindungsfähige KI erreichen werden oder ob die empfindungsfähige KI irgendwie auf wundersame Weise spontan in einer Form einer rechnergestützten kognitiven Supernova entstehen wird (normalerweise als Singularität bezeichnet, siehe meine Berichterstattung unter den Link hier).

Die Art von KI, auf die ich mich konzentriere, besteht aus der nicht-empfindungsfähigen KI, die wir heute haben. Wenn wir wild über empfindungsfähige KI spekulieren wollten, könnte diese Diskussion in eine radikal andere Richtung gehen. Eine empfindungsfähige KI wäre angeblich von menschlicher Qualität. Sie müssten bedenken, dass die empfindungsfähige KI das kognitive Äquivalent eines Menschen ist. Mehr noch, da einige spekulieren, dass wir eine superintelligente KI haben könnten, ist es denkbar, dass eine solche KI am Ende klüger als Menschen sein könnte (zu meiner Erforschung einer superintelligenten KI als Möglichkeit siehe die Berichterstattung hier).

Ich würde dringend vorschlagen, dass wir die Dinge auf dem Boden der Tatsachen halten und die heutige rechnerische, nicht-empfindungsfähige KI in Betracht ziehen.

Machen Sie sich bewusst, dass die heutige KI nicht in der Lage ist, in irgendeiner Weise auf Augenhöhe mit dem menschlichen Denken zu „denken“. Wenn Sie mit Alexa oder Siri interagieren, scheinen die Konversationsfähigkeiten den menschlichen Fähigkeiten ähnlich zu sein, aber die Realität ist, dass sie rechnerisch ist und menschliche Kognition fehlt. Die jüngste Ära der KI hat in großem Umfang maschinelles Lernen (ML) und Deep Learning (DL) genutzt, die den rechnergestützten Musterabgleich nutzen. Dies hat zu KI-Systemen geführt, die den Anschein menschenähnlicher Neigungen erwecken. In der Zwischenzeit gibt es heute keine KI, die einen Anschein von gesundem Menschenverstand hat und auch nicht über die kognitive Verwunderung robusten menschlichen Denkens verfügt.

Seien Sie sehr vorsichtig bei der Anthropomorphisierung der heutigen KI.

ML/DL ist eine Form des computergestützten Musterabgleichs. Der übliche Ansatz besteht darin, dass Sie Daten zu einer Entscheidungsaufgabe zusammenstellen. Sie speisen die Daten in die ML/DL-Computermodelle ein. Diese Modelle versuchen, mathematische Muster zu finden. Nachdem solche Muster gefunden wurden, verwendet das KI-System diese Muster, wenn es auf neue Daten stößt. Bei der Präsentation neuer Daten werden die auf den „alten“ oder historischen Daten basierenden Muster angewendet, um eine aktuelle Entscheidung zu treffen.

Ich denke, Sie können sich vorstellen, wohin das führt. Wenn Menschen, die die nach dem Muster getroffenen Entscheidungen getroffen haben, ungünstige Vorurteile eingebaut haben, stehen die Chancen gut, dass die Daten dies auf subtile, aber signifikante Weise widerspiegeln. Machine Learning oder Deep Learning Computational Pattern Matching versucht einfach, die Daten entsprechend mathematisch nachzuahmen. Es gibt keinen Anschein von gesundem Menschenverstand oder anderen empfindungsfähigen Aspekten der von KI erstellten Modellierung per se.

Darüber hinaus erkennen die KI-Entwickler möglicherweise auch nicht, was vor sich geht. Die obskure Mathematik in ML/DL könnte es schwierig machen, die jetzt verborgenen Vorurteile aufzuspüren. Sie würden zu Recht hoffen und erwarten, dass die KI-Entwickler auf die potenziell vergrabenen Vorurteile testen würden, obwohl dies schwieriger ist, als es scheinen mag. Es besteht eine solide Chance, dass selbst bei relativ umfangreichen Tests immer noch Vorurteile in den Mustervergleichsmodellen der ML/DL eingebettet sind.

Sie könnten das berühmte oder berüchtigte Sprichwort von Garbage-in-Garbage-out verwenden. Die Sache ist die, dass dies eher Vorurteilen ähnelt, die heimtückisch als Vorurteile in die KI einfließen. Die algorithmische Entscheidungsfindung (ADM) der KI wird zwangsläufig mit Ungerechtigkeiten beladen.

Nicht gut.

All dies hat bemerkenswerte Auswirkungen auf die KI-Ethik und bietet einen praktischen Einblick in die gewonnenen Erkenntnisse (noch bevor alle Lektionen geschehen), wenn es darum geht, KI gesetzlich zu verankern.

Neben der Anwendung von KI-Ethikregeln im Allgemeinen stellt sich die entsprechende Frage, ob wir Gesetze haben sollten, die verschiedene Verwendungen von KI regeln. Auf Bundes-, Landes- und lokaler Ebene werden neue Gesetze verbreitet, die den Umfang und die Art der Gestaltung von KI betreffen. Der Versuch, solche Gesetze zu entwerfen und zu erlassen, erfolgt schrittweise. Die KI-Ethik dient zumindest als wohlüberlegte Notlösung und wird mit ziemlicher Sicherheit bis zu einem gewissen Grad direkt in diese neuen Gesetze aufgenommen.

Beachten Sie, dass einige vehement argumentieren, dass wir keine neuen Gesetze brauchen, die KI abdecken, und dass unsere bestehenden Gesetze ausreichen. Sie warnen davor, dass wir, wenn wir einige dieser KI-Gesetze erlassen, die goldene Gans töten werden, indem wir gegen Fortschritte in der KI vorgehen, die immense gesellschaftliche Vorteile bieten.

In früheren Kolumnen habe ich die verschiedenen nationalen und internationalen Bemühungen zur Ausarbeitung und Verabschiedung von Gesetzen zur Regulierung von KI behandelt, siehe den Link hier, zum Beispiel. Ich habe auch die verschiedenen Prinzipien und Richtlinien der KI-Ethik behandelt, die verschiedene Nationen identifiziert und angenommen haben, darunter zum Beispiel die Bemühungen der Vereinten Nationen wie die UNESCO-Reihe der KI-Ethik, die fast 200 Länder angenommen haben, siehe den Link hier.

Hier ist eine hilfreiche Keystone-Liste von ethischen KI-Kriterien oder Merkmalen in Bezug auf KI-Systeme, die ich zuvor eingehend untersucht habe:

  • Transparenz
  • Gerechtigkeit & Fairness
  • Nicht-Maleficence
  • Verantwortung
  • Datenschutz
  • Wohltätigkeit
  • Freiheit & Autonomie
  • Vertrauen
  • Nachhaltigkeit
  • Würde
  • Solidarität

Diese Prinzipien der KI-Ethik sollten ernsthaft von KI-Entwicklern angewendet werden, zusammen mit denen, die KI-Entwicklungsbemühungen verwalten, und sogar von denen, die letztendlich KI-Systeme einsetzen und warten.

Alle Beteiligten während des gesamten KI-Lebenszyklus der Entwicklung und Nutzung werden im Rahmen der Einhaltung der etablierten Normen der ethischen KI berücksichtigt. Dies ist ein wichtiges Highlight, da die übliche Annahme ist, dass „nur Programmierer“ oder diejenigen, die die KI programmieren, der Einhaltung der KI-Ethik-Begriffe unterliegen. Wie bereits hier betont, braucht es ein Dorf, um KI zu entwickeln und einzusetzen, und dafür muss das gesamte Dorf mit den KI-Ethikvorschriften vertraut sein und sich an diese halten.

Die habe ich kürzlich auch untersucht AI-Bill of Rights Dies ist der offizielle Titel des offiziellen Dokuments der US-Regierung mit dem Titel „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People“, das das Ergebnis jahrelanger Bemühungen des Office of Science and Technology Policy (OSTP ). Das OSTP ist eine föderale Einrichtung, die dazu dient, den amerikanischen Präsidenten und das US-Exekutivbüro in verschiedenen technologischen, wissenschaftlichen und technischen Aspekten von nationaler Bedeutung zu beraten. In diesem Sinne kann man sagen, dass diese AI Bill of Rights ein Dokument ist, das vom bestehenden US-Weißen Haus genehmigt und gebilligt wurde.

In der AI Bill of Rights gibt es fünf Schlüsselkategorien:

  • Sichere und effektive Systeme
  • Algorithmischer Diskriminierungsschutz
  • Datenschutz
  • Hinweis und Erklärung
  • Menschliche Alternativen, Rücksichtnahme und Rückfall

Ich habe diese Gebote sorgfältig überprüft, seht ihr den Link hier.

Nachdem ich nun eine hilfreiche Grundlage zu diesen verwandten Themen der KI-Ethik und des KI-Rechts gelegt habe, sind wir bereit, in das kürzlich veröffentlichte ACM „Statement On Principles For Responsible Algorithmic Systems“ (übrigens, da der Titel des Dokuments darauf verweist für ihren Verlust verantwortlich. algorithmischen Systemen, vielleicht möchten Sie sich meine Einschätzung dazu ansehen, was es bedeutet, davon zu sprechen Vertrauenswürdige KI, Siehe den Link hier).

Machen Sie sich bereit für eine Reise in diese neuesten Prinzipien der KI-Ethik.

Intensives Eintauchen in die von ACM erklärten KI-Ethikregeln

Die ACM-Erklärung zur ethischen KI besteht aus diesen neun Grundpfeilern:

  • Legitimität und Kompetenz
  • Schaden minimieren
  • Sicherheit und Privatsphäre
  • Transparenz
  • Interpretierbarkeit und Erklärbarkeit
  • Wartbarkeit
  • Anfechtbarkeit und Überprüfbarkeit
  • Rechenschaftspflicht und Verantwortung
  • Begrenzung der Umweltauswirkungen

Wenn Sie dieses neueste Set mit anderen bemerkenswert erhältlichen Sets vergleichen, gibt es viele Ähnlichkeiten oder ähnliche Übereinstimmungen zwischen ihnen.

Einerseits kann man das als gutes Zeichen werten.

Wir könnten im Allgemeinen hoffen, dass die ganze Reihe von KI-Ethik-Prinzipien, die herumschweben, alle zu derselben Gesamtabdeckung verschmelzen. Zu sehen, dass ein Satz mit einem anderen Satz vergleichbar ist, gibt Ihnen einen Anschein von Vertrauen, dass sich diese Sätze im selben Baseballstadion befinden und nicht irgendwie außerhalb eines rätselhaften linken Feldes liegen.

Eine mögliche Beschwerde von einigen ist, dass diese verschiedenen Sets ungefähr gleich zu sein scheinen, was dann möglicherweise Verwirrung oder zumindest Bestürzung aufgrund der Bedenken hervorruft, dass wir nicht zahlreiche scheinbar doppelte Listen haben sollten. Kann es nicht nur eine Liste geben? Das Problem ist natürlich, dass es keine einfache Möglichkeit gibt, alle diese Listen einheitlich genau gleich zu machen. Verschiedene Gruppen und verschiedene Organisationen haben dies auf unterschiedliche Weise angegangen. Die gute Nachricht ist, dass sie so ziemlich alle zu derselben übergreifenden Schlussfolgerung gelangt sind. Wir können erleichtert sein, dass die Sets keine großen Unterschiede aufweisen, was uns vielleicht beunruhigen würde, wenn es keinen allgemeinen Konsens gäbe.

Ein Widersacher könnte ermahnen, dass die Gemeinsamkeiten dieser Listen beunruhigend sind, und argumentieren, dass möglicherweise ein Gruppendenken im Gange ist. Vielleicht denken all diese unterschiedlichen Gruppen auf die gleiche Weise und sind nicht in der Lage, über die Norm hinauszuschauen. Wir tappen alle in eine identische Falle. Die Listen verankern unser Denken vordergründig und wir können nicht über den Tellerrand hinausblicken.

Über den Tellerrand hinauszuschauen ist zweifellos eine gute Sache.

Ich bin auf jeden Fall offen dafür, zu hören, was Contrarians zu sagen haben. Manchmal bekommen sie Wind von etwas, das das hat Titanisch auf einen riesigen Eisberg zusteuern. Wir könnten ein paar Adleraugenausgucker gebrauchen. Aber in Bezug auf diese KI-Ethikregeln wurde von Konträren nichts definitiv artikuliert, das offenkundig zu untergraben scheint oder Besorgnis über eine unangemessene Gemeinsamkeit weckt. Ich denke, uns geht es gut.

In diesem ACM-Set gibt es einige besonders bemerkenswerte oder herausragende Punkte, die meiner Meinung nach besonders bemerkenswert sind.

Erstens mag ich die Phrasierung auf oberster Ebene, die sich etwas von der Norm unterscheidet.

Zum Beispiel Bezug auf Legitimität und Kompetenz (der erste Punkt mit Aufzählungszeichen) erweckt den Anschein der Bedeutung von Designer- und Managementkompetenzen im Zusammenhang mit KI. zusätzlich Legitimität Schlagwort bringt uns schließlich in die KI-Ethik und Bereich des KI-Rechts. Ich sage dies, weil sich viele der KI-Ethikregeln fast ausschließlich auf die ethischen Implikationen konzentrieren, aber anscheinend auch die rechtlichen Konsequenzen auslassen oder sich davor scheuen, sie zu beachten. Im Rechtsbereich werden ethische Erwägungen oft als „weiches Recht“ angepriesen, während die Gesetze in den Büchern als „harte Gesetze“ ausgelegt werden (was bedeutet, dass sie das Gewicht der Gerichte tragen).

Einer meiner Lieblingssprüche aller Zeiten stammt von dem berühmten Juristen Earl Warren: „Im zivilisierten Leben schwimmt das Gesetz in einem Meer von Ethik.“

Wir müssen sicherstellen, dass die KI-Ethikregeln auch die streng rechtlichen Aspekte umfassen und betonen, wie bei der Ausarbeitung, Verabschiedung und Durchsetzung von KI-Gesetzen.

Zweitens schätze ich, dass die Liste enthält Anfechtbarkeit und Überprüfbarkeit.

Ich habe wiederholt über den Wert geschrieben, in der Lage zu sein, eine rote Fahne anzufechten oder zu hissen, wenn Sie einem KI-System unterliegen, siehe den Link hier. Darüber hinaus werden wir zunehmend neue Gesetze sehen, die die Prüfung von KI-Systemen zwingen, was ich ausführlich über das Gesetz von New York City (NYC) zur Prüfung von Voreingenommenheit von KI-Systemen diskutiert habe, die für die Einstellung und Beförderung von Mitarbeitern verwendet werden, siehe den Link hier. Leider, und gemäß meiner offenen Kritik am neuen Gesetz von NYC, werden diese Gesetze zur Überprüfbarkeit, wenn sie fehlerhaft sind, wahrscheinlich mehr Probleme schaffen, als sie lösen.

Drittens gibt es ein allmähliches Erwachen, dass KI Nachhaltigkeitsthemen durchdringen kann, und ich freue mich zu sehen, dass dies der Fall ist Umwelt- Das Thema hat in diesen KI-Ethikregeln eine Top-Level-Abrechnung erhalten (siehe den letzten Punkt der Liste).

Allein die Erstellung eines KI-Systems kann eine Menge Rechenressourcen verbrauchen. Diese Computerressourcen können direkt oder indirekt Nachhaltigkeits-Usurpatoren sein. Es muss ein Kompromiss zwischen den Vorteilen, die eine KI bietet, und den Kosten, die mit der KI einhergehen, in Betracht gezogen werden. Der letzte der ACM-Punkte mit Aufzählungszeichen vermerkt die Nachhaltigkeits- und Umweltaspekte, die sich aus der KI ergeben. Für meine Berichterstattung über Fragen des COXNUMX-Fußabdrucks im Zusammenhang mit KI siehe den Link hier.

Nachdem wir uns nun die ACM-Liste der KI-Ethikregeln genau angesehen haben, tauchen wir als Nächstes tiefer ins Wasser ein.

Hier sind die offiziellen Beschreibungen für jede der hochrangigen KI-Ethikregeln (zitiert aus der formellen Erklärung):

1. "Legitimität und Kompetenz: Entwickler von algorithmischen Systemen sollten über die Managementkompetenz und die ausdrückliche Autorisierung verfügen, solche Systeme zu erstellen und einzusetzen. Sie müssen auch über Fachwissen im Anwendungsbereich verfügen, eine wissenschaftliche Grundlage für die beabsichtigte Verwendung der Systeme haben und von den vom System betroffenen Interessengruppen allgemein als gesellschaftlich legitimiert angesehen werden. Rechtliche und ethische Bewertungen müssen durchgeführt werden, um zu bestätigen, dass alle Risiken, die durch die Systeme eingeführt werden, in einem angemessenen Verhältnis zu den angegangenen Problemen stehen und dass alle relevanten Interessenvertreter alle Nutzen-Schaden-Abwägungen verstehen.“

2. "Schaden minimieren: Manager, Designer, Entwickler, Benutzer und andere Interessengruppen von algorithmischen Systemen sollten sich der möglichen Fehler und Vorurteile bewusst sein, die mit ihrem Design, ihrer Implementierung und Verwendung einhergehen, sowie des potenziellen Schadens, den ein System dem Einzelnen und der Gesellschaft zufügen kann. Organisationen sollten routinemäßig Folgenabschätzungen zu den von ihnen eingesetzten Systemen durchführen, um festzustellen, ob das System Schaden verursachen könnte, insbesondere diskriminierenden Schaden, und um geeignete Minderungsmaßnahmen anzuwenden. Wenn möglich, sollten sie aus Messungen der tatsächlichen Leistung lernen und nicht nur aus Mustern früherer Entscheidungen, die selbst möglicherweise diskriminierend waren.“

3. "Sicherheit und Privatsphäre: Das Risiko böswilliger Parteien kann durch die Einführung von Best Practices für Sicherheit und Datenschutz in jeder Phase des Lebenszyklus der Systeme gemindert werden, einschließlich robuster Kontrollen zur Minderung neuer Schwachstellen, die im Zusammenhang mit algorithmischen Systemen entstehen.“

4. "Transparenz: Systementwickler werden ermutigt, die Art und Weise, in der bestimmte Datensätze, Variablen und Modelle für die Entwicklung, Schulung, Validierung und Prüfung ausgewählt wurden, sowie die spezifischen Maßnahmen, die zur Gewährleistung der Daten- und Ausgabequalität verwendet wurden, klar zu dokumentieren. Systeme sollten ihr Vertrauen in jede Ausgabe angeben, und Menschen sollten eingreifen, wenn das Vertrauen gering ist. Entwickler sollten auch die Ansätze dokumentieren, die verwendet wurden, um nach potenziellen Verzerrungen zu suchen. Für Systeme mit kritischen Auswirkungen auf Leben und Wohlbefinden sollten unabhängige Überprüfungs- und Validierungsverfahren vorgeschrieben werden. Die öffentliche Prüfung der Daten und Modelle bietet maximale Gelegenheit zur Korrektur. Entwickler sollten daher das Testen durch Dritte im öffentlichen Interesse erleichtern.“

5. "Interpretierbarkeit und Erklärbarkeit: Manager von algorithmischen Systemen werden ermutigt, Informationen sowohl über die Verfahren, denen die verwendeten Algorithmen folgen (Interpretierbarkeit), als auch über die spezifischen Entscheidungen, die sie treffen (Erklärbarkeit), zu erstellen. Erklärbarkeit kann genauso wichtig sein wie Genauigkeit, insbesondere in politischen Kontexten oder in jedem Umfeld, in dem Bedenken darüber bestehen, wie Algorithmen verzerrt werden könnten, um einer Gruppe gegenüber einer anderen ohne Anerkennung zu nützen. Es ist wichtig, zwischen Erklärungen und nachträglichen Rationalisierungen zu unterscheiden, die nicht die Beweise oder den Entscheidungsprozess widerspiegeln, der verwendet wird, um zu der erklärten Schlussfolgerung zu gelangen.“

6. "Wartbarkeit: Nachweise über die Solidität aller algorithmischen Systeme sollten während ihres gesamten Lebenszyklus gesammelt werden, einschließlich der Dokumentation der Systemanforderungen, des Entwurfs oder der Implementierung von Änderungen, Testfällen und Ergebnissen sowie eines Protokolls der gefundenen und behobenen Fehler. Eine ordnungsgemäße Wartung kann eine Neuschulung der Systeme mit neuen Schulungsdaten und/oder den Austausch der verwendeten Modelle erfordern.“

7. "Anfechtbarkeit und Prüfbarkeit: Die Regulierungsbehörden sollten die Einführung von Mechanismen fördern, die es Einzelpersonen und Gruppen ermöglichen, Ergebnisse in Frage zu stellen und Wiedergutmachung für nachteilige Auswirkungen zu verlangen, die sich aus algorithmisch fundierten Entscheidungen ergeben. Manager sollten sicherstellen, dass Daten, Modelle, Algorithmen und Entscheidungen aufgezeichnet werden, damit sie geprüft und die Ergebnisse in Fällen repliziert werden können, in denen ein Schaden vermutet oder behauptet wird. Prüfungsstrategien sollten veröffentlicht werden, damit Einzelpersonen, Organisationen von öffentlichem Interesse und Forscher Verbesserungen überprüfen und empfehlen können.“

8. "Haftung und Verantwortung: Öffentliche und private Stellen sollten für die Entscheidungen der von ihnen verwendeten Algorithmen zur Rechenschaft gezogen werden, auch wenn es nicht möglich ist, im Detail zu erklären, wie diese Algorithmen zu ihren Ergebnissen geführt haben. Solche Gremien sollten für ganze Systeme, wie sie in ihrem spezifischen Kontext eingesetzt werden, verantwortlich sein, nicht nur für die einzelnen Teile, aus denen ein bestimmtes System besteht. Wenn Probleme in automatisierten Systemen erkannt werden, sollten Organisationen, die für die Bereitstellung dieser Systeme verantwortlich sind, die spezifischen Maßnahmen dokumentieren, die sie ergreifen werden, um das Problem zu beheben, und unter welchen Umständen die Verwendung solcher Technologien ausgesetzt oder beendet werden sollte.“

9. "Begrenzung der Umweltauswirkungen: Algorithmische Systeme sollten so konstruiert werden, dass sie Schätzungen von Umweltauswirkungen melden, einschließlich Kohlenstoffemissionen sowohl aus Schulungs- als auch Betriebsberechnungen. KI-Systeme sollten so konzipiert sein, dass ihre COXNUMX-Emissionen angesichts des Grades an Genauigkeit, der für den Kontext, in dem sie eingesetzt werden, erforderlich ist, angemessen sind.“

Ich vertraue darauf, dass Sie jede dieser entscheidenden Grundsätze der KI-Ethik sorgfältig und einst lesen werden. Bitte nehmen Sie sie sich zu Herzen.

Fazit

Es gibt einen subtilen, aber ebenso entscheidenden Teil der ACM-Erklärung, den meiner Meinung nach viele versehentlich übersehen könnten. Lassen Sie mich darauf achten, Sie darauf aufmerksam zu machen.

Ich spiele auf einen Teil an, der das quälende Rätsel diskutiert, Kompromisse im Zusammenhang mit den KI-Ethikregeln abwägen zu müssen. Sehen Sie, die meisten Leute nicken beim Lesen der ethischen KI-Prinzipien oft gedankenlos mit dem Kopf und gehen davon aus, dass alle Gebote das gleiche Gewicht haben und allen Geboten immer der gleiche optimale Anschein von Ehrerbietung und Wert gegeben wird.

Nicht in der realen Welt.

Wenn der Gummi auf die Straße trifft, wird jede Art von KI, die auch nur ein Minimum an Komplexität hat, die KI-Ethikregeln auf eine böse Probe stellen, ob einige der Elemente gegenüber einigen der anderen Prinzipien ausreichend erreichbar sind. Mir ist klar, dass Sie vielleicht lautstark ausrufen, dass alle KI alle KI-Ethikregeln einhalten müssen, aber das ist nicht besonders realistisch. Wenn das der Standpunkt ist, den Sie einnehmen möchten, müssen Sie wahrscheinlich den meisten oder fast allen KI-Herstellern und -Anwendern sagen, dass sie den Laden schließen und KI ganz weglassen sollen.

Kompromisse müssen eingegangen werden, um KI aus der Tür zu bekommen. Davon abgesehen befürworte ich weder Kürzungen, die gegen die KI-Ethikvorschriften verstoßen, noch impliziere ich, dass sie gegen KI-Gesetze verstoßen sollten. Es muss ein bestimmtes Minimum erreicht werden, über dem das Ziel besteht, noch mehr anzustreben. Am Ende muss eine Balance sorgfältig beurteilt werden. Dieser Balanceakt muss achtsam, ausdrücklich, rechtmäßig und mit KI-Ethik als echter und aufrichtiger Überzeugung erfolgen (vielleicht möchten Sie sehen, wie Unternehmen KI-Ethikgremien nutzen, um diesen ernsten Ansatz zu erreichen, siehe den Link hier).

Hier sind einige Aufzählungspunkte, die die ACM-Erklärung zu den Kompromisskomplexitäten erwähnt (aus dem formellen Dokument zitiert):

  • „Lösungen sollten in einem angemessenen Verhältnis zum zu lösenden Problem stehen, auch wenn dies die Komplexität oder die Kosten beeinflusst (z. B. die Ablehnung der Verwendung öffentlicher Videoüberwachung für eine einfache Vorhersageaufgabe).“
  • „Eine Vielzahl von Leistungsmetriken sollten berücksichtigt werden und können je nach Anwendungsdomäne unterschiedlich gewichtet werden. Beispielsweise können bei einigen Anwendungen im Gesundheitswesen die Auswirkungen von falsch negativen Ergebnissen viel schlimmer sein als von falsch positiven Ergebnissen, während in der Strafjustiz die Folgen von falsch positiven Ergebnissen (z. B. Inhaftierung einer unschuldigen Person) viel schlimmer sein können als von falsch negativen Ergebnissen. Das wünschenswerteste Betriebssystem-Setup ist selten das mit maximaler Genauigkeit.“
  • „Bedenken in Bezug auf die Privatsphäre, den Schutz von Geschäftsgeheimnissen oder die Offenlegung von Analysen, die es böswilligen Akteuren ermöglichen könnten, das System zu manipulieren, können die Beschränkung des Zugangs auf qualifizierte Personen rechtfertigen, aber sie sollten nicht verwendet werden, um die Einschränkung der Überprüfung durch Dritte zu rechtfertigen oder Entwickler von der Verpflichtung zu entbinden Fehler zu erkennen und zu beheben.“
  • „Transparenz muss mit Prozessen zur Rechenschaftslegung einhergehen, die es den von einem algorithmischen System betroffenen Interessengruppen ermöglichen, sinnvolle Wiedergutmachung für verursachte Schäden zu verlangen. Transparenz sollte nicht dazu dienen, ein System zu legitimieren oder die Verantwortung auf andere Parteien zu übertragen.“
  • „Wenn die Auswirkungen eines Systems hoch sind, kann ein besser erklärbares System vorzuziehen sein. In vielen Fällen gibt es keinen Kompromiss zwischen Erklärbarkeit und Genauigkeit. In manchen Kontexten können falsche Erklärungen jedoch noch schlimmer sein als keine Erklärung (z. B. in Gesundheitssystemen kann ein Symptom vielen möglichen Krankheiten entsprechen, nicht nur einer).“

Diejenigen, die KI entwickeln oder verwenden, sind sich der Kompromisse, mit denen sie konfrontiert sind, möglicherweise nicht bewusst. Top-Führungskräfte eines Unternehmens könnten naiv annehmen, dass die KI die Höchstwerte aller KI-Ethikprinzipien erfüllt. Sie glauben das entweder, weil sie keine Ahnung von der KI haben, oder sie wollen es glauben und machen vielleicht ein Augenzwinkern, um KI bereitwillig zu übernehmen.

Die Chancen stehen gut, dass das Versäumnis, die Kompromisse substanziell und offen zu konfrontieren, zu einer KI führen wird, die Schaden anrichten wird. Diese Schäden wiederum werden ein Unternehmen wahrscheinlich potenziell großen Verbindlichkeiten aussetzen. Darüber hinaus können konventionelle Gesetze für mögliche kriminelle Handlungen im Zusammenhang mit der KI zum Tragen kommen, zusammen mit den neueren KI-fokussierten Gesetzen, die ebenfalls darauf einhämmern. Eine Tonne Steine ​​wartet über den Köpfen derer, die glauben, sie könnten sich um die Kompromisse herumschlagen, oder die sich zutiefst nicht bewusst sind, dass die Kompromisse existieren (eine vernichtende Erkenntnis wird unweigerlich über sie fallen).

Ich werde das letzte Wort zu diesem Thema vorerst dem abschließenden Aspekt der ACM-Erklärung überlassen, da ich denke, dass es eine solide Arbeit leistet, um zu erklären, was diese ethischen KI-Vorschriften makroskopisch hervorbringen sollen:

  • „Die vorstehenden Empfehlungen konzentrieren sich auf das verantwortungsvolle Design, die Entwicklung und den Einsatz von algorithmischen Systemen; Die Haftung muss durch Gesetz und öffentliche Ordnung bestimmt werden. Die zunehmende Leistungsfähigkeit algorithmischer Systeme und ihr Einsatz in lebenswichtigen und folgenschweren Anwendungen erfordert große Sorgfalt bei deren Einsatz. Diese neun instrumentellen Prinzipien sollen inspirierend sein, um Diskussionen zu initiieren, Forschung zu initiieren und Governance-Methoden zu entwickeln, um einer Vielzahl von Benutzern Vorteile zu bringen und gleichzeitig Zuverlässigkeit, Sicherheit und Verantwortung zu fördern. Letztendlich ist es der spezifische Kontext, der die korrekte Gestaltung und Verwendung eines algorithmischen Systems in Zusammenarbeit mit Vertretern aller betroffenen Interessengruppen definiert“ (zitiert aus dem formellen Dokument).

Wie uns kluge Worte sagen, beginnt eine Reise von tausend Meilen mit einem ersten Schritt.

Ich bitte Sie inständig, sich mit KI-Ethik und KI-Recht vertraut zu machen, den ersten Schritt zu unternehmen, der Sie in Gang bringt, und dann dabei zu helfen, diese wichtigen Bemühungen fortzusetzen. Das Schöne ist, dass wir noch in den Kinderschuhen stecken, wie man mit KI umgeht und gesellschaftlich damit umgeht, also steigen Sie im Erdgeschoss ein und Ihre Bemühungen können nachweislich Ihre Zukunft und die Zukunft für uns alle gestalten.

Die KI-Reise hat gerade erst begonnen und wichtige erste Schritte sind noch im Gange.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-precious-computing- berufsverband-der-acm/