Hier erfahren Sie, warum Unternehmen eine turbulente Hassliebe zu KI-Ethikgremien haben

Sollte ein Unternehmen einen KI-Ethikbeirat einrichten?

Sie werden überrascht sein, dass dies keine einfache Ja-oder-Nein-Antwort ist.

Bevor ich auf die Komplexität eingehe, die den Vor- und Nachteilen der Einrichtung eines KI-Ethik-Beirats zugrunde liegen, wollen wir sicherstellen, dass wir alle auf derselben Seite sind, was ein KI-Ethik-Beirat betrifft und warum er auf Schlagzeilenebene aufgestiegen ist Bedeutung.

Wie jeder weiß, sind Künstliche Intelligenz (KI) und der praktische Einsatz von KI für Geschäftsaktivitäten als Must-Have für moderne Unternehmen durch die Decke gegangen. Es würde Ihnen schwerfallen, etwas anderes zu argumentieren. Bis zu einem gewissen Grad hat die Infusion von KI Produkte und Dienstleistungen verbessert und manchmal zu niedrigeren Kosten im Zusammenhang mit der Bereitstellung dieser Produkte und Dienstleistungen geführt. Eine raffinierte Liste von Effizienz- und Effektivitätssteigerungen kann möglicherweise auf den sinnvollen und angemessenen Einsatz von KI zurückgeführt werden. Kurz gesagt, das Hinzufügen oder Erweitern Ihrer Aktivitäten durch die Integration von KI kann ein durchaus profitables Unterfangen sein.

Es gibt auch das sollen wir sagen großer Spritzer das geht mit der Integration von KI in Ihre Unternehmensaktivitäten einher.

Unternehmen sind laut und stolz auf ihren Einsatz von KI. Wenn die KI zufällig auch Ihre Waren verbessert, ist das großartig. In der Zwischenzeit sind Behauptungen über die Verwendung von KI so aufmerksamkeitsstark, dass Sie so ziemlich die gleichen Dinge tun können wie zuvor, aber viel mehr Geld oder Augäpfel sammeln, indem Sie das Banner von KI als Teil Ihrer Geschäftsstrategie herumwerfen und übertreffen. The-Door-Ware.

Der letzte Punkt, dass wir manchmal ein bisschen herumspielen, ob KI wirklich verwendet wird, bringt uns dazu, in die Arena der KI-Ethik vorzudringen. Es gibt alle möglichen völlig falschen Behauptungen von Unternehmen über KI. Noch schlimmer ist vielleicht die Verwendung von KI, die sich als die sogenannte herausstellt KI für schlecht.

Zum Beispiel haben Sie zweifellos von den vielen Fällen von KI-Systemen gelesen, die maschinelles Lernen (ML) oder Deep Learning (DL) verwenden, die tief verwurzelte rassistische Vorurteile, geschlechtsspezifische Vorurteile und andere unangemessene unangemessene diskriminierende Praktiken aufweisen. Für meine fortlaufende und umfassende Berichterstattung über diese Angelegenheiten im Zusammenhang mit KI und dem Aufkommen lautstarker Forderungen nach KI-Ethik und Ethischer KI, siehe den Link hier und den Link hier, nur um ein paar zu nennen.

Wir haben also diese sauren Treiber, die in der scheinbar rosigen KI-Nutzung durch Unternehmen verborgen sind:

  • Hohle Behauptungen über die Verwendung von KI, obwohl es in Wirklichkeit keine KI oder eine unbedeutende KI-Infusion gibt
  • Falsche Behauptungen über die Verwendung von KI, die absichtlich irreführend sind
  • Unbeabsichtigte Einbeziehung von KI, die sich als unangemessene Vorurteile herausstellt und diskriminierend ist
  • Zielgerichtet geformte KI, um schlechte Vorurteile und verabscheuungswürdige diskriminierende Handlungen zu verbreiten
  • Andere

Wie kommt es zu solchen gedankenlosen oder unwürdigen Praktiken in Unternehmen?

Ein bemerkenswertes Teil des Puzzles ist ein Mangel an Bewusstsein für KI-Ethik.

Top-Führungskräfte sind sich möglicherweise der Vorstellung nicht bewusst, eine KI zu entwickeln, die sich an eine Reihe ethischer KI-Grundsätze hält. Die KI-Entwickler in einem solchen Unternehmen haben möglicherweise ein gewisses Bewusstsein für die Angelegenheit, obwohl sie vielleicht nur mit KI-Ethiktheorien vertraut sind und nicht wissen, wie sie die Lücke in den täglichen KI-Entwicklungsbemühungen schließen können. Es gibt auch den Umstand, dass KI-Entwickler die KI-Ethik annehmen wollen, aber dann einen starken Widerstand erhalten, wenn Manager und Führungskräfte glauben, dass dies ihre KI-Projekte verlangsamen und die Kosten für die Entwicklung von KI in die Höhe treiben wird.

Viele Top-Führungskräfte wissen nicht, dass ein Mangel an Einhaltung der KI-Ethik wahrscheinlich dazu führen wird, dass sie und das Unternehmen bei der Veröffentlichung von KI, die voller heikler und insgesamt hässlicher Probleme ist, ins Hinterteil treten. Eine Firma kann mit einer schlechten KI in ihrer Mitte erwischt werden, die dann den ansonsten über lange Zeit aufgebauten Ruf der Firma kläglich untergräbt (Reputationsrisiko). Kunden entscheiden sich möglicherweise dafür, die Produkte und Dienstleistungen des Unternehmens nicht mehr zu nutzen (Kundenverlustrisiko). Konkurrenten könnten aus diesem Fehler Kapital schlagen (Wettbewerbsrisiko). Und es gibt viele Anwälte, die bereit sind, denjenigen zu helfen, die übertreten wurden, mit dem Ziel, heftige Klagen gegen Firmen einzureichen, die faule KI in ihre Firmenwaren zugelassen haben (Rechtsrisiko).

Kurz gesagt, der ROI (Return on Investment) für die angemessene Nutzung der KI-Ethik ist mit ziemlicher Sicherheit vorteilhafter als im Vergleich zu den nachgelagerten Kosten, die mit dem Sitzen auf einem Gestank schlechter KI verbunden sind, die weder entwickelt noch veröffentlicht werden sollten.

Es stellt sich heraus, dass nicht jeder dieses Memo sozusagen bekommen hat.

KI-Ethik gewinnt nur allmählich an Bedeutung.

Einige glauben, dass zwangsläufig der lange Arm des Gesetzes erforderlich sein könnte, um die Einführung ethischer KI-Ansätze weiter zu inspirieren.

Neben der Anwendung von KI-Ethikregeln im Allgemeinen stellt sich die entsprechende Frage, ob wir bestimmte Gesetze haben sollten, um verschiedene Entwicklungen und Anwendungen von KI zu regeln. In der Tat werden auf internationaler, bundesstaatlicher, bundesstaatlicher und lokaler Ebene neue Gesetze verbreitet, die den Umfang und die Art der Gestaltung von KI betreffen. Der Aufwand, solche Gesetze zu entwerfen und zu erlassen, ist maßvoll. Die KI-Ethik dient zumindest als wohlüberlegte Notlösung und wird mit ziemlicher Sicherheit bis zu einem gewissen Grad direkt in diese neuen Gesetze aufgenommen.

Beachten Sie, dass einige vehement argumentieren, dass wir keine neuen Gesetze brauchen, die KI abdecken, und dass unsere bestehenden Gesetze ausreichen. Tatsächlich warnen sie davor, dass wir, wenn wir einige dieser KI-Gesetze erlassen, die goldene Gans töten werden, indem wir gegen Fortschritte in der KI vorgehen, die immense gesellschaftliche Vorteile bieten. Siehe zum Beispiel meine Berichterstattung unter den Link hier und den Link hier.

Stellen wir sicher, dass wir alle auf derselben Seite sind, was die Grundlagen der KI-Ethik enthalten.

In meiner Kolumnenberichterstattung habe ich zuvor verschiedene kollektive Analysen der Prinzipien der KI-Ethik erörtert, wie diese Bewertung unter den Link hier, die eine hilfreiche Schlusssteinliste ethischer KI-Kriterien oder -Eigenschaften in Bezug auf KI-Systeme bietet:

  • Transparenz
  • Gerechtigkeit & Fairness
  • Nicht-Maleficence
  • Verantwortung
  • Datenschutz
  • Wohltätigkeit
  • Freiheit & Autonomie
  • Vertrauen
  • Nachhaltigkeit
  • Würde
  • Solidarität

Diese Prinzipien der KI-Ethik sollten ernsthaft von KI-Entwicklern angewendet werden, zusammen mit denen, die KI-Entwicklungsbemühungen verwalten, und sogar von denen, die letztendlich KI-Systeme einsetzen und warten.

Alle Beteiligten während des gesamten KI-Lebenszyklus der Entwicklung und Nutzung werden im Rahmen der Einhaltung der etablierten Normen der ethischen KI berücksichtigt. Dies ist ein wichtiges Highlight, da die übliche Annahme ist, dass „nur Programmierer“ oder diejenigen, die die KI programmieren, den Grundsätzen der KI-Ethik unterliegen. Es braucht ein Dorf, um KI zu entwickeln und einzusetzen, und dafür muss das gesamte Dorf mit den KI-Ethikvorschriften vertraut sein und sich an diese halten.

Ein Mittel, um zu versuchen, die Anwendung von KI-Ethikregeln einzuführen und nachhaltig zu beachten, kann teilweise durch die Einrichtung eines KI-Ethikbeirats erfolgen.

Als nächstes werden wir die Facetten des KI-Ethik-Beirats entpacken.

KI-Ethikgremien und wie man sie richtig macht

Unternehmen können sich in verschiedenen Stadien der Einführung von KI befinden und ebenso in unterschiedlichen Stadien der Einführung von KI-Ethik.

Stellen Sie sich ein Unternehmen vor, das mit der Einführung von KI-Ethik beginnen möchte, aber nicht sicher ist, wie es das tun soll. Ein anderes Szenario könnte ein Unternehmen sein, das sich bereits mit KI-Ethik beschäftigt hat, sich aber nicht sicher zu sein scheint, was zur Förderung der Bemühungen getan werden muss. Ein drittes Szenario könnte ein Unternehmen sein, das aktiv KI entwickelt und verwendet und intern viel getan hat, um die KI-Ethik zu verkörpern, obwohl es erkennt, dass es möglicherweise aufgrund von internem Gruppendenken andere Erkenntnisse verpasst.

Für jedes dieser Szenarien könnte die Einrichtung eines KI-Ethik-Beratungsgremiums sinnvoll sein.

Das Konzept ist ziemlich einfach (nun, um es klarzustellen, das Gesamtkonzept ist die sprichwörtliche Spitze des Eisbergs und der Teufel steckt mit Sicherheit im Detail, wie wir gleich behandeln werden).

Ein AI Ethics Advisory Board besteht in der Regel hauptsächlich aus externen Beratern, die gebeten werden, in einem speziellen Advisory Board oder Komitee für das Unternehmen mitzuarbeiten. Es können auch einige interne Mitglieder in den Vorstand aufgenommen werden, obwohl die Idee normalerweise darin besteht, Berater von außerhalb der Firma zu gewinnen, und dies kann eine halbunabhängige Perspektive in die Aktivitäten des Unternehmens einbringen.

Ich sage semi-unabhängig, da es zweifellos einige potenzielle Unabhängigkeitskonflikte geben wird, die mit den ausgewählten Mitgliedern des AI Ethics Advisory Boards entstehen können. Wenn die Firma die Berater bezahlt, wirft dies die offensichtliche Frage auf, ob sich die bezahlten Mitglieder auf einen Gehaltsscheck von der Firma verlassen fühlen oder ob es ihnen unangenehm ist, den geschenkten Gaul zu kritisieren, den sie in der Hand haben. Auf der anderen Seite sind Unternehmen daran gewöhnt, externe bezahlte Berater für alle Arten von wohlüberlegten unabhängigen Meinungen heranzuziehen, daher ist dies ohnehin üblich und wird erwartet.

Der Beirat für KI-Ethik wird in der Regel gebeten, sich regelmäßig zu treffen, entweder persönlich oder virtuell aus der Ferne. Sie dienen der Firma als Resonanzboden. Die Chancen stehen auch gut, dass die Mitglieder mit verschiedenen internen Dokumenten, Berichten und Memos über die laufenden Bemühungen im Zusammenhang mit KI in der Firma versorgt werden. Bestimmte Mitglieder des Beirats für KI-Ethik können gebeten werden, an internen Sitzungen teilzunehmen, die ihrem spezifischen Fachwissen entsprechen. Usw.

Abgesehen davon, dass er sehen kann, was mit KI innerhalb des Unternehmens vor sich geht, und für neue Augen sorgen kann, hat der KI-Ethik-Beirat normalerweise eine doppelte Rolle, indem er ein externer Lieferant der neuesten KI und ethischer KI ist. Interne Ressourcen haben möglicherweise nicht die Zeit, sich mit den Vorgängen außerhalb des Unternehmens zu befassen, und ergo kann von den Mitgliedern des KI-Ethik-Beirats scharf fokussierte und maßgeschneiderte State-of-the-Art-Standpunkte erhalten.

Es gibt auch die Verwendung eines KI-Ethik-Beirats von innen nach außen.

Dies kann schwierig sein.

Das Konzept besteht darin, dass der Beirat für KI-Ethik genutzt wird, um die Außenwelt darüber zu informieren, was das Unternehmen in Bezug auf KI und KI-Ethik tut. Dies kann nützlich sein, um den Ruf des Unternehmens zu stärken. Die KI-infundierten Produkte und Dienstleistungen könnten aufgrund des goldenen Gütesiegels des AI Ethics Advisory Board als vertrauenswürdiger wahrgenommen werden. Darüber hinaus können Forderungen an das Unternehmen, mehr für ethische KI zu tun, etwas abgestumpft werden, indem darauf hingewiesen wird, dass das Unternehmen bereits einen Beirat für KI-Ethik einsetzt.

Zu den Fragen, die normalerweise von der Firma, die einen solchen Mechanismus nutzt, an einen AI Ethics Advisory Board gebracht werden, gehören häufig:

  • Sollte das Unternehmen KI für ein bestimmtes Produkt oder eine bestimmte Dienstleistung verwenden, oder scheint das zu beunruhigend zu sein?
  • Berücksichtigt das Unternehmen bei seinen KI-Bemühungen die gesamte Bandbreite der KI-Ethik-Überlegungen?
  • Ist das Unternehmen in Gruppendenken verfallen und nicht bereit oder nicht in der Lage, potenziell störende KI-Ethik-Stürze zu sehen, die auf diese Bemühungen warten?
  • Welche Art von neuesten Ansätzen zur KI-Ethik sollte das Unternehmen anstreben?
  • Wäre es möglich, unseren Bemühungen um KI-Ethik und dem Engagement dafür externe Anerkennung zu zollen?
  • Andere

Die Teilnahme an einem KI-Ethik-Beirat ist sicherlich sinnvoll, und Unternehmen gehen diesen Weg zunehmend ein.

Bitte beachten Sie, dass diese Medaille auch eine andere Seite hat.

Auf der einen Seite der Medaille können Beratungsgremien für KI-Ethik das Nächstbeste seit geschnittenem Brot sein. Vernachlässigen Sie nicht die andere Seite der Medaille, nämlich sie können auch gewaltige Kopfschmerzen verursachen, und Sie könnten es bereuen, dass Sie in dieses heikle Gebiet geraten sind (wie Sie in dieser Diskussion sehen werden, können die Nachteile bewältigt werden, wenn Sie wissen, was Sie tun sind dabei).

Unternehmen beginnen zu erkennen, dass sie sich in einer kleinen Zwickmühle wiederfinden können, wenn sie sich für den Weg des AI Ethics Advisory Board entscheiden. Man könnte behaupten, dass diese Machenschaften dem Spiel mit dem Feuer ähneln. Sie sehen, Feuer ist ein sehr mächtiges Element, das Sie verwenden können, um Mahlzeiten zu kochen, Sie in der Wildnis vor Raubtieren zu schützen, Sie warm zu halten, Licht hervorzubringen und eine Menge praktischer und lebenswichtiger Vorteile zu bieten.

Feuer kann Sie auch verbrennen, wenn Sie nicht gut damit umgehen können.

In jüngster Zeit gab es verschiedene Schlagzeilen, die die potenziellen Gefahren eines Beirats für KI-Ethik anschaulich demonstrieren. Wenn ein Mitglied kurzerhand entscheidet, dass es nicht mehr glaubt, dass die Firma die richtigen ethischen KI-Aktivitäten durchführt, könnte das verärgerte Mitglied verärgert kündigen. Unter der Annahme, dass die Person wahrscheinlich im KI-Bereich oder in der Industrie allgemein bekannt ist, wird ihr springendes Schiff zwangsläufig breite Medienaufmerksamkeit erregen.

Eine Firma muss dann in die Verteidigung gehen.

Warum ist das Mitglied gegangen?

Was hat das Unternehmen heimtückisch vor?

Einige Firmen verlangen, dass die Mitglieder des AI Ethics Advisory Board NDAs (Geheimhaltungsvereinbarungen) unterzeichnen, die die Firma anscheinend schützen, wenn das Mitglied beschließt, „skrupellos“ zu werden und das Unternehmen zu ruinieren. Das Problem ist jedoch, dass selbst wenn die Person relativ schweigt, es dennoch wahrscheinlich ist, dass sie nicht mehr im Beirat für KI-Ethik tätig ist. Dies allein wird alle möglichen Fragen aufwerfen, die die Augenbrauen hochziehen.

Darüber hinaus versucht das Mitglied manchmal, selbst wenn ein NDA existiert, die Bestimmungen zu umgehen. Dies könnte den Verweis auf unbenannte augenzwinkernde generische „Fallstudien“ beinhalten, um Anomalien der KI-Ethik hervorzuheben, von denen sie glauben, dass die Firma sie heimtückisch durchgeführt hat.

Das gestürzte Mitglied könnte völlig dreist sein und direkt seine Bedenken gegenüber dem Unternehmen äußern. Ob dies ein klarer Verstoß gegen die Geheimhaltungsvereinbarung ist, ist vielleicht weniger entscheidend als die Tatsache, dass Bedenken hinsichtlich ethischer KI verbreitet werden. Eine Firma, die versucht, das Mitglied wegen Verstoßes gegen die NDA zu verklagen, kann brutal heißes Wasser auf sich ziehen, was zusätzliche Aufmerksamkeit auf den Streit lenkt und wie das klassische Duell David gegen Goliath aussieht (die Firma ist das große „Monster“).

Einige Top-Führungskräfte gehen davon aus, dass sie einfach eine finanzielle Einigung mit jedem Mitglied des AI Ethics Advisory Board erzielen können, das der Meinung ist, dass das Unternehmen die falschen Dinge tut, einschließlich des Ignorierens oder Herunterspielens geäußerter Bedenken.

Das ist vielleicht nicht so einfach, wie man annimmt.

Oftmals sind die Mitglieder sehr ethisch gesinnt und werden nicht ohne weiteres von dem Abstand nehmen, was sie als einen ethischen Rechts-gegen-Falsch-Kampf empfinden. Sie könnten auch anderweitig finanziell stabil und nicht bereit sein, ihre ethischen Grundsätze zu schleifen, oder sie könnten eine andere Beschäftigung haben, die von ihrem Ausscheiden aus dem AI Ethics Advisory Board unberührt bleibt.

Wie vielleicht offensichtlich ist, erkennen einige später, dass ein KI-Ethikbeirat ein zweischneidiges Schwert ist. Es gibt einen enormen Wert und wichtige Erkenntnisse, die eine solche Gruppe vermitteln kann. Gleichzeitig spielst du mit dem Feuer. Es könnte sein, dass ein oder mehrere Mitglieder entscheiden, dass sie nicht länger glauben, dass das Unternehmen glaubwürdige ethische KI-Arbeit leistet. In den Nachrichten gab es Hinweise darauf, dass zeitweise ein ganzer KI-Ethik-Beirat auf einmal aufhörte, oder dass ein gewisses Übergewicht der Mitglieder ihren Austritt ankündigte.

Seien Sie bereit für das Gute und die Probleme, die bei Beratungsgremien für KI-Ethik auftreten können.

Natürlich gibt es Zeiten, in denen Unternehmen tatsächlich nicht die richtigen Dinge tun, wenn es um KI-Ethik geht.

Daher würden wir hoffen und erwarten, dass ein Beirat für KI-Ethik in dieser Firma vortritt, um dies bekannt zu machen, vermutlich zuerst intern innerhalb der Firma. Wenn die Firma den wahrgenommenen schlechten Weg fortsetzt, scheinen die Mitglieder sicherlich ethisch (möglicherweise auch rechtlich) verpflichtet zu sein, andere Maßnahmen zu ergreifen, die sie für angemessen halten (Mitglieder sollten ihren persönlichen Anwalt für eine solche Rechtsberatung konsultieren). Es könnte sein, dass dies der einzige Weg ist, das Unternehmen zu einem Umdenken zu bewegen. Eine drastische Aktion eines Mitglieds oder einer Gruppe von Mitgliedern scheint der letzte Ausweg zu sein, von dem die Mitglieder hoffen, dass er das Blatt wenden wird. Darüber hinaus möchten diese Mitglieder wahrscheinlich nicht Teil von etwas sein, von dem sie fest glauben, dass es von der KI-Ethik abgekommen ist.

Ein nützlicher Weg, um diese Möglichkeiten in Betracht zu ziehen, ist folgender:

  • Die Firma verirrt sich, das Mitglied entscheidet sich für den Ausstieg aufgrund eines wahrgenommenen Mangels an Firmenkonformität
  • Die Firma verirrt sich nicht, aber das Mitglied glaubt, dass die Firma es ist, und tritt daher aufgrund eines wahrgenommenen Mangels an Compliance aus

Die Außenwelt wird nicht unbedingt wissen, ob das Mitglied, das austritt, einen guten Grund hat, sich Sorgen um die Firma zu machen, oder ob es sich um einen eigenwilligen oder falschen Eindruck des Mitglieds handelt. Es besteht auch die recht einfache Möglichkeit, dass ein Mitglied die Gruppe aufgrund anderer Verpflichtungen oder aus persönlichen Gründen, die nichts mit der Tätigkeit der Kanzlei zu tun haben, verlässt.

Das Wesentliche ist, dass es für jedes Unternehmen, das einen KI-Ethik-Beirat einsetzt, wichtig ist, die gesamte Bandbreite der mit der Gruppe verbundenen Lebenszyklusphasen sorgfältig zu durchdenken.

Bei all dem Gerede über problematische Aspekte möchte ich nicht den Eindruck erwecken, einen KI-Ethik-Beirat meiden zu wollen. Das ist nicht die Botschaft. Das eigentliche Wesentliche ist, einen Beirat für KI-Ethik zu haben und sicherzustellen, dass Sie dies auf die richtige Weise tun. Machen Sie das zu Ihrem geschätzten Mantra.

Hier sind einige der oft erwähnten Vorteile eines KI-Ethik-Beirats:

  • Ein Mittel zur Hand haben, um KI-Projekte und -Ideen von einer halbunabhängigen privaten Gruppe abprallen zu lassen
  • Nutzen Sie Fachwissen in KI-Ethik, das von außerhalb des Unternehmens stammt
  • Streben Sie danach, KI-Ethik-Gelächter und völlige Katastrophen durch die Firma zu vermeiden
  • Seien Sie ein PR-Booster für das Unternehmen und seine KI-Systeme
  • Ausbruch des internen Gruppendenkens zu KI und KI-Ethik
  • Gewinnen Sie einen frischen Blick auf KI-Innovationen und ihre Praktikabilität
  • Steigern Sie das Ansehen und die Statur des Unternehmens
  • Diene als ungezügelte Stimme, wenn die Bemühungen der festen KI am Ende sind
  • Andere

Hier sind gängige Methoden, mit denen Unternehmen ihren KI-Ethik-Beirat vermasseln und unterbieten (tun Sie dies nicht!):

  • Geben Sie vage und verwirrende Anweisungen in Bezug auf Mission und Zweck
  • Nur sparsam konsultiert und oft unpassend, wenn das Pferd schon aus dem Stall ist
  • Im Dunkeln gehalten
  • Gefütterte stark gefilterte Informationen, die eine irreführende Darstellung der Dinge liefern
  • Wird ausschließlich als Schaufenster und für keinen anderen wertschöpfenden Zweck verwendet
  • Es ist nicht gestattet, den Anschein von Nachforschungen über interne Angelegenheiten anzustellen
  • Fehlen ausreichender Ressourcen, um ihre Arbeit ausreichend auszuführen
  • Mangel an expliziter Führung innerhalb der Gruppe
  • Mangelnde Aufmerksamkeit der Unternehmensleitung gegenüber der Gruppe
  • Es wird erwartet, dass er allem, was präsentiert wird, blind zustimmt
  • Zufällig hinsichtlich der gewählten Mitglieder
  • Mit wenig Respekt behandelt und scheinbar nur ein Häkchen
  • Andere

Ein weiteres häufig verwirrendes Problem betrifft die Art und das Verhalten der verschiedenen Mitglieder, die in einem Beirat für KI-Ethik tätig sind, was manchmal auf folgende Weise problematisch sein kann:

  • Einige Mitglieder sind möglicherweise nur Konzepter von KI-Ethik und nicht mit KI-Ethik als Praxis vertraut und bieten als solche minimalistische, geschäftserfahrene Einblicke
  • Einige können bombastisch sein, wenn es um KI-Ethik geht, und sind während ihrer gesamten Teilnahme außerordentlich schwierig zu handhaben
  • Machtkämpfe können zu einer erheblichen Ablenkung werden, oft zu Zusammenstößen großer Egos, und dazu führen, dass sich die Gruppe in eine Funktionsstörung verwandelt
  • Einige sind möglicherweise übermäßig beschäftigt und zu engagiert, sodass sie sich von den Beratungsanstrengungen zur KI-Ethik fernhalten
  • Einige haben eine tief verwurzelte, unerschütterliche Meinung zur KI-Ethik, die unflexibel und unrealistisch ist
  • Einige neigen eher zu emotionalen als zu analytischen und systemischen Überlegungen, die der KI-Ethik zugrunde liegen
  • Kann mit dem berühmten Sprichwort verwandt sein, wie eine Herde Katzen zu sein, die sich nicht konzentrieren und ziellos umherwandern
  • Andere

Einige Firmen scheinen nur willkürlich einen Beirat für KI-Ethik zusammenzustellen. Kein Gedanke geht an die auszuwählenden Mitglieder. Kein Gedanke geht an das, was sie jeweils auf den Tisch bringen. Es wird nicht an die Häufigkeit der Sitzungen gedacht und daran, wie die Sitzungen durchgeführt werden sollen. Insgesamt wird nicht daran gedacht, den Beirat für KI-Ethik zu leiten. Usw.

In gewisser Weise setzen Sie durch Ihren eigenen Mangel an Einfallsreichtum wahrscheinlich ein Zugunglück in Bewegung.

Tu das nicht.

Vielleicht diese Liste der richtige Dinge zu tun ist für Sie aufgrund des bisherigen Diskurses offensichtlich offensichtlich, aber Sie wären vielleicht schockiert zu wissen, dass nur wenige Firmen dies richtig zu machen scheinen:

  • Identifizieren Sie ausdrücklich die Mission und den Zweck des AI Ethics Advisory Board
  • Stellen Sie sicher, dass der Gruppe die angemessene Aufmerksamkeit auf oberster Führungsebene geschenkt wird
  • Identifizieren Sie die Art von Mitgliedern, die am besten für die Gruppe geeignet sind
  • Sprechen Sie die gewünschten Mitglieder an und stellen Sie die Passung für die Gruppe fest
  • Treffen Sie geeignete Vereinbarungen mit den ausgewählten Mitgliedern
  • Etablieren Sie die Logistik von Besprechungen, Häufigkeit usw.
  • Bestimmen Sie Aufgaben der Mitglieder, Umfang und Tiefe
  • Antizipieren Sie die internen Ressourcen, die zur Unterstützung der Gruppe benötigt werden
  • Weisen Sie der Gruppe selbst genügend Ressourcen zu
  • Halten Sie den Beirat für KI-Ethik aktiv und eingebunden
  • Lassen Sie Eskalationen im Voraus planen, wenn Bedenken auftreten
  • Geben Sie an, wie mit Notfällen oder krisenorientierten Ereignissen umgegangen wird
  • Drehen Sie die Elemente nach Bedarf heraus oder hinein, um die Mischung geeignet zu halten
  • Im Voraus haben Ausstiegspfade für Mitglieder vorweggenommen
  • Andere

Fazit

Vor einigen Jahren wurden viele der Autohersteller und selbstfahrenden Technologiefirmen, die sich mit der Entwicklung von KI-basierten selbstfahrenden Autos befassten, plötzlich aufgefordert, KI-Ethik-Beiräte einzuführen. Bis zu diesem Zeitpunkt schien es wenig Bewusstsein dafür zu geben, eine solche Gruppe zu haben. Es wurde davon ausgegangen, dass der interne Fokus auf Ethical AI ausreichen würde.

Ich habe in meiner Kolumne ausführlich die verschiedenen unglücklichen Versäumnisse oder Versäumnisse der KI-Ethik besprochen, die zeitweise zu Problemen mit selbstfahrenden Autos geführt haben, wie z den Link hier. Die Bedeutung der KI-Sicherheit und ähnlicher Schutzmaßnahmen muss für diejenigen, die autonome Fahrzeuge herstellen, an erster Stelle stehen. KI-Ethik-Beiräte in dieser Nische tragen dazu bei, dass die KI-Sicherheit eine wichtige Priorität bleibt.

Meine bevorzugte Art, diese Art von Offenbarung über KI-Ethik auszudrücken, besteht darin, die Angelegenheit mit Erdbeben zu vergleichen.

Kalifornier sind von Zeit zu Zeit Erdbeben ausgesetzt, manchmal ziemlich heftigen. Sie könnten denken, dass die Vorbereitung auf ein Erdbeben eine allgegenwärtige Überlegung wäre. Nicht so. Der Kreislauf funktioniert so. Ein erhebliches Erdbeben passiert und die Menschen werden daran erinnert, auf ein Erdbeben vorbereitet zu sein. Für kurze Zeit herrscht Eile, solche Vorbereitungen zu treffen. Nach einer Weile lässt die Aufmerksamkeit darauf nach. Die Vorbereitungen bleiben auf der Strecke oder werden anderweitig vernachlässigt. Bumm, ein weiteres Erdbeben trifft ein, und alle, die vorbereitet sein sollten, werden „überrascht“, als hätten sie nicht gewusst, dass eines Tages ein Erdbeben auftreten könnte.

Firmen machen oft das Gleiche in Bezug auf Beratungsgremien für KI-Ethik.

Sie fangen keine an und werden dann plötzlich, nach einer Katastrophe in Bezug auf ihre KI, reaktiv zum Handeln angespornt. Sie gründen einen Beirat für KI-Ethik. Es hat viele der Probleme, die ich zuvor hier zitiert habe. Der Beirat für KI-Ethik fällt auseinander. Hoppla, eine neue KI-Katastrophe innerhalb der Firma weckt die Notwendigkeit eines KI-Ethik-Beratungsgremiums.

Waschen, spülen und wiederholen.

Unternehmen stellen definitiv fest, dass sie manchmal eine Hassliebe mit ihren Bemühungen im KI-Ethik-Beratungsgremium haben. Wenn es darum geht, die Dinge richtig zu machen, liegt Liebe in der Luft. Wenn es darum geht, Dinge falsch zu machen, entsteht Hass. Stellen Sie sicher, dass Sie alles Notwendige tun, um die Liebe am Laufen zu halten und den Hass abzuwenden, wenn es darum geht, einen Beirat für KI-Ethik einzurichten und zu unterhalten.

Lasst uns daraus eine Liebesbeziehung machen.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/08/08/heres-why-businesses-are-having-a-tumultuous-love-hate-relationship-with-ai-ethics-boards/