KI-Ethik und KI-Gesetze könnten nur dazu gedrängt und angestachelt werden, Sicherheitswarnungen für alle bestehenden und zukünftigen KI vorzuschreiben

Ihre täglichen Aktivitäten werden zweifellos mit tausend oder mehr Vorsichtswarnungen der einen oder anderen Art bombardiert.

Probieren Sie diese für die Größe an:

  • Es muss immer eine Schutzbrille getragen werden
  • Gefahr: Gefährliche Chemikalien in der Nähe
  • Hochspannung – Halten Sie sich fern
  • Warnung: Achten Sie auf Ihre Umgebung
  • Objekte im Spiegel sind näher als sie scheinen
  • Entfernen Sie das Kind vor dem Zusammenklappen (wie auf Kinderwagen angegeben)
  • Achtung: Ignorieren Sie diese Meldung

Die meisten davon sind praktische und insgesamt durchdachte Schilder oder Etiketten, die dazu dienen, uns hoffentlich sicher und geschützt zu halten.

Bitte beachten Sie, dass ich ein paar „Ausreißer“ auf die Liste geschmuggelt habe, um einige bemerkenswerte Punkte hervorzuheben.

Zum Beispiel glauben manche Leute, dass es verrückt ist, dass Kinderwagen ein Etikett angebracht haben, das Sie warnt, den Kinderwagen nicht zu falten, während das Baby noch in der Vorrichtung sitzt. Obwohl das Zeichen sicherlich angemessen und pflichtgemäß nützlich ist, scheint es, dass der gesunde Menschenverstand bereits ausreicht.

Welcher Mensch würde nicht von sich aus bewusst erkennen, dass er zuerst das Baby entfernen muss?

Nun, andere betonen, dass solche Etiketten einen wichtigen Zweck erfüllen. Erstens könnte jemand wirklich vergessen haben, dass er das Baby entfernen muss, bevor er den Kinderwagen zusammenfaltet. Vielleicht nahm die Person an, dass der Kinderwagen klug konstruiert war, um sicherzustellen, dass das Zusammenklappen dem Baby keinen Schaden zufügt. Oder möglicherweise gibt es eingebaute Sicherheitsfunktionen, die ein Zusammenklappen verhindern, wenn sich ein Kind im Kinderwagen befindet. Usw.

Es könnte auch sein, dass die Person abgelenkt war und den Kinderwagen gedankenlos gefaltet hätte, Baby und alles eingeschlossen, aber das Etikett hat die Person glücklicherweise dazu veranlasst, dies nicht zu tun (manche würden argumentieren, dass es unwahrscheinlich erscheint, dass eine solche Person das Etikett bemerken würde ohnehin). Hinzu kommt, dass jemand den Hersteller des Kinderwagens verklagen könnte, wenn ein solches Etikett nicht vorhanden wäre. Sie können sich eine dieser heftigen Klagen vorstellen, bei denen ein Baby verletzt wurde und die Eltern beschlossen, eine Million Dollar zu sammeln, weil am Kinderwagen kein Warnschild angebracht war. Die Kinderwagenfirma würde es bereuen, nicht die paar Cent ausgegeben zu haben, die nötig waren, um die Warnschilder herzustellen und auf ihre Kinderwagen zu kleben.

Sehen Sie sich auch die letzte der Warnmeldungen an, die ich oben aufgelistet hatte.

Ich habe mich dafür entschieden, die schmierige Nachricht zu platzieren, um sicherzustellen, dass die Nachricht ignoriert wird, da es heutzutage viele gefälschte Warnschilder gibt, die die Leute kaufen oder nur zum Spaß herstellen. Dieser hier ist ein echter philosophischer Mind-Bender. Wenn Sie die Warnung lesen, die besagt, dass Sie die Warnung ignorieren sollen, was genau müssen Sie tun, nachdem Sie die Warnung gelesen haben? Sie haben es bereits gelesen, also ist es angeblich in Ihrem Kopf. Sicher, Sie können es ignorieren, aber andererseits werden Sie überhaupt nicht darauf hingewiesen, was Sie ignorieren sollen. Rund und rund geht dieser Witz.

Natürlich sind gutgläubige Warnhinweise normalerweise nicht scherzhafter oder humorvoller Natur.

Wir sollten Warnungen sehr ernst nehmen.

Wenn Sie sich nicht an eine vermerkte Warnung halten, tun Sie dies normalerweise auf ein schweres persönliches Risiko. Und es könnte auch sein, dass Sie möglicherweise auch andere einem unangemessenen Risiko aussetzen, wenn Sie die Warnung nicht beachten und befolgen. Denken Sie an das Autofahren. In dem Moment, in dem Sie hinter dem Steuer eines Autos sitzen, können Ihre Handlungen als Fahrer sich selbst verletzen, außerdem können Sie Ihren Mitfahrern Schaden zufügen, und Sie können anderen Schaden zufügen, z. B. Personen in anderen Autos oder Fußgängern in der Nähe. In diesem Sinne dient eine Warnung nicht nur Ihnen, sondern wahrscheinlich auch anderen.

Warum decke ich diese Facetten von Warn- und Warnhinweisen ab?

Denn einige behaupten vehement, dass wir Warn- und Warnzeichen zur heutigen Künstlichen Intelligenz (KI) brauchen.

Eigentlich geht es darum, der heutigen KI und der zukünftigen KI solche Etiketten aufzudrücken. Alles in allem würde jede KI am Ende mit irgendeiner Form oder Variante einer Warnung oder eines Warnhinweises verbunden sein.

Gute Idee oder schlechte Idee?

Praktisch oder unpraktisch?

Lassen Sie uns weitermachen und die Konzeption auspacken und sehen, was wir daraus machen können.

Ich möchte zunächst einige wesentliche Grundlagen zu KI und insbesondere zu KI-Ethik und KI-Recht legen, um sicherzustellen, dass das Thema KI-Warnungen kontextuell sinnvoll ist. Für diejenigen unter Ihnen, die sich allgemein für ethische KI und auch KI-Recht interessieren, finden Sie meine umfangreiche und fortlaufende Berichterstattung unter den Link hier und den Link hier, nur um ein paar zu nennen.

Das steigende Bewusstsein für ethische KI und auch KI-Recht

Die jüngste Ära der KI wurde zunächst als beendet angesehen KI für immer, was bedeutet, dass wir KI zur Verbesserung der Menschheit einsetzen könnten. Auf den Fersen von KI für immer kam die Erkenntnis, dass wir auch eingetaucht sind KI für schlecht. Dies schließt KI ein, die so entwickelt oder selbst verändert wurde, dass sie diskriminierend ist und rechnerische Entscheidungen trifft, die unangemessene Vorurteile mit sich bringen. Manchmal ist die KI so aufgebaut, während sie in anderen Fällen in dieses ungünstige Gebiet eindringt.

Ich möchte ganz sicher gehen, dass wir uns bezüglich der Natur der heutigen KI auf derselben Seite befinden.

Es gibt heute keine KI, die empfindungsfähig ist. Wir haben das nicht. Wir wissen nicht, ob empfindungsfähige KI möglich sein wird. Niemand kann treffend vorhersagen, ob wir eine empfindungsfähige KI erreichen werden oder ob die empfindungsfähige KI irgendwie auf wundersame Weise spontan in einer Form einer rechnergestützten kognitiven Supernova entstehen wird (normalerweise als Singularität bezeichnet, siehe meine Berichterstattung unter den Link hier).

Die Art von KI, auf die ich mich konzentriere, besteht aus der nicht-empfindungsfähigen KI, die wir heute haben. Wenn wir wild über empfindungsfähige KI spekulieren wollten, könnte diese Diskussion in eine radikal andere Richtung gehen. Eine empfindungsfähige KI wäre angeblich von menschlicher Qualität. Sie müssten bedenken, dass die empfindungsfähige KI das kognitive Äquivalent eines Menschen ist. Mehr noch, da einige spekulieren, dass wir eine superintelligente KI haben könnten, ist es denkbar, dass eine solche KI am Ende klüger als Menschen sein könnte (zu meiner Erforschung einer superintelligenten KI als Möglichkeit siehe die Berichterstattung hier).

Ich würde dringend vorschlagen, dass wir die Dinge auf dem Boden der Tatsachen halten und die heutige rechnerische, nicht-empfindungsfähige KI in Betracht ziehen.

Machen Sie sich bewusst, dass die heutige KI nicht in der Lage ist, in irgendeiner Weise auf Augenhöhe mit dem menschlichen Denken zu „denken“. Wenn Sie mit Alexa oder Siri interagieren, scheinen die Konversationsfähigkeiten den menschlichen Fähigkeiten ähnlich zu sein, aber die Realität ist, dass sie rechnerisch ist und menschliche Kognition fehlt. Die jüngste Ära der KI hat in großem Umfang maschinelles Lernen (ML) und Deep Learning (DL) genutzt, die den rechnergestützten Musterabgleich nutzen. Dies hat zu KI-Systemen geführt, die den Anschein menschenähnlicher Neigungen erwecken. In der Zwischenzeit gibt es heute keine KI, die einen Anschein von gesundem Menschenverstand hat und auch nicht über die kognitive Verwunderung robusten menschlichen Denkens verfügt.

Seien Sie sehr vorsichtig bei der Anthropomorphisierung der heutigen KI.

ML/DL ist eine Form des computergestützten Musterabgleichs. Der übliche Ansatz besteht darin, dass Sie Daten zu einer Entscheidungsaufgabe zusammenstellen. Sie speisen die Daten in die ML/DL-Computermodelle ein. Diese Modelle versuchen, mathematische Muster zu finden. Nachdem solche Muster gefunden wurden, verwendet das KI-System diese Muster, wenn es auf neue Daten stößt. Bei der Präsentation neuer Daten werden die auf den „alten“ oder historischen Daten basierenden Muster angewendet, um eine aktuelle Entscheidung zu treffen.

Ich denke, Sie können sich vorstellen, wohin das führt. Wenn Menschen, die die nach dem Muster getroffenen Entscheidungen getroffen haben, ungünstige Vorurteile eingebaut haben, stehen die Chancen gut, dass die Daten dies auf subtile, aber signifikante Weise widerspiegeln. Machine Learning oder Deep Learning Computational Pattern Matching versucht einfach, die Daten entsprechend mathematisch nachzuahmen. Es gibt keinen Anschein von gesundem Menschenverstand oder anderen empfindungsfähigen Aspekten der von KI erstellten Modellierung per se.

Darüber hinaus erkennen die KI-Entwickler möglicherweise auch nicht, was vor sich geht. Die obskure Mathematik in ML/DL könnte es schwierig machen, die jetzt verborgenen Vorurteile aufzuspüren. Sie würden zu Recht hoffen und erwarten, dass die KI-Entwickler auf die potenziell vergrabenen Vorurteile testen würden, obwohl dies schwieriger ist, als es scheinen mag. Es besteht eine solide Chance, dass selbst bei relativ umfangreichen Tests immer noch Vorurteile in den Mustervergleichsmodellen der ML/DL eingebettet sind.

Sie könnten das berühmte oder berüchtigte Sprichwort von Garbage-in-Garbage-out verwenden. Die Sache ist die, dass dies eher Vorurteilen ähnelt, die heimtückisch als Vorurteile in die KI einfließen. Die algorithmische Entscheidungsfindung (ADM) der KI wird zwangsläufig mit Ungerechtigkeiten beladen.

Nicht gut.

All dies hat bemerkenswerte Auswirkungen auf die KI-Ethik und bietet einen praktischen Einblick in die gewonnenen Erkenntnisse (noch bevor alle Lektionen geschehen), wenn es darum geht, KI gesetzlich zu verankern.

Neben der Anwendung von KI-Ethikregeln im Allgemeinen stellt sich die entsprechende Frage, ob wir Gesetze haben sollten, die verschiedene Verwendungen von KI regeln. Auf Bundes-, Landes- und lokaler Ebene werden neue Gesetze verbreitet, die den Umfang und die Art der Gestaltung von KI betreffen. Der Versuch, solche Gesetze zu entwerfen und zu erlassen, erfolgt schrittweise. Die KI-Ethik dient zumindest als wohlüberlegte Notlösung und wird mit ziemlicher Sicherheit bis zu einem gewissen Grad direkt in diese neuen Gesetze aufgenommen.

Beachten Sie, dass einige vehement argumentieren, dass wir keine neuen Gesetze brauchen, die KI abdecken, und dass unsere bestehenden Gesetze ausreichen. Sie warnen davor, dass wir, wenn wir einige dieser KI-Gesetze erlassen, die goldene Gans töten werden, indem wir gegen Fortschritte in der KI vorgehen, die immense gesellschaftliche Vorteile bieten.

In früheren Kolumnen habe ich die verschiedenen nationalen und internationalen Bemühungen zur Ausarbeitung und Verabschiedung von Gesetzen zur Regulierung von KI behandelt, siehe den Link hier, zum Beispiel. Ich habe auch die verschiedenen Prinzipien und Richtlinien der KI-Ethik behandelt, die verschiedene Nationen identifiziert und angenommen haben, darunter zum Beispiel die Bemühungen der Vereinten Nationen wie die UNESCO-Reihe der KI-Ethik, die fast 200 Länder angenommen haben, siehe den Link hier.

Hier ist eine hilfreiche Keystone-Liste von ethischen KI-Kriterien oder Merkmalen in Bezug auf KI-Systeme, die ich zuvor eingehend untersucht habe:

  • Transparenz
  • Gerechtigkeit & Fairness
  • Nicht-Maleficence
  • Verantwortung
  • Datenschutz
  • Wohltätigkeit
  • Freiheit & Autonomie
  • Vertrauen
  • Nachhaltigkeit
  • Würde
  • Solidarität

Diese Prinzipien der KI-Ethik sollten ernsthaft von KI-Entwicklern angewendet werden, zusammen mit denen, die KI-Entwicklungsbemühungen verwalten, und sogar von denen, die letztendlich KI-Systeme einsetzen und warten.

Alle Beteiligten während des gesamten KI-Lebenszyklus der Entwicklung und Nutzung werden im Rahmen der Einhaltung der etablierten Normen der ethischen KI berücksichtigt. Dies ist ein wichtiges Highlight, da die übliche Annahme ist, dass „nur Programmierer“ oder diejenigen, die die KI programmieren, der Einhaltung der KI-Ethik-Begriffe unterliegen. Wie bereits hier betont, braucht es ein Dorf, um KI zu entwickeln und einzusetzen, und dafür muss das gesamte Dorf mit den KI-Ethikvorschriften vertraut sein und sich an diese halten.

Die habe ich kürzlich auch untersucht AI-Bill of Rights Dies ist der offizielle Titel des offiziellen Dokuments der US-Regierung mit dem Titel „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People“, das das Ergebnis jahrelanger Bemühungen des Office of Science and Technology Policy (OSTP ). Das OSTP ist eine föderale Einrichtung, die dazu dient, den amerikanischen Präsidenten und das US-Exekutivbüro in verschiedenen technologischen, wissenschaftlichen und technischen Aspekten von nationaler Bedeutung zu beraten. In diesem Sinne kann man sagen, dass diese AI Bill of Rights ein Dokument ist, das vom bestehenden US-Weißen Haus genehmigt und gebilligt wurde.

In der AI Bill of Rights gibt es fünf Schlüsselkategorien:

  • Sichere und effektive Systeme
  • Algorithmischer Diskriminierungsschutz
  • Datenschutz
  • Hinweis und Erklärung
  • Menschliche Alternativen, Rücksichtnahme und Rückfall

Ich habe diese Gebote sorgfältig überprüft, seht ihr den Link hier.

Nachdem ich nun eine hilfreiche Grundlage für diese verwandten Themen zu KI-Ethik und KI-Recht gelegt habe, sind wir bereit, uns mit dem berauschenden Thema zu befassen, ob KI Warnhinweise haben sollte oder nicht.

Machen Sie sich bereit für eine informative Reise, die Ihnen die Augen öffnet.

KI mit Warnhinweisen versehen, um die Menschheit zu schützen

Es wird immer lauter, dass die KI vielleicht mit einer Art Warnung kommen sollte.

Zum Beispiel in einem kürzlich erschienenen Artikel in MIT Technology Review in dem das steigende Interesse an KI-Audits diskutiert wurde, entstand die Idee, Warnzeichen bereitzustellen: „Die Zunahme dieser Audits deutet darauf hin, dass wir eines Tages Warnungen im Stil von Zigarettenschachteln sehen könnten, dass KI-Systeme Ihrer Gesundheit und Sicherheit schaden könnten. Andere Sektoren wie Chemie und Lebensmittel führen regelmäßige Audits durch, um sicherzustellen, dass die Produkte sicher in der Anwendung sind. Könnte so etwas zur Norm in der KI werden?“ (MIT Technology Review, Melissa Heikkilä, 24. Oktober 2022).

Lassen Sie uns ein wenig über Warn- und Warnzeichen plaudern.

Warn- und Warnhinweise auf zahlreichen Produkten und Dienstleistungen des täglichen Lebens sind uns allen bereits allgemein bekannt. Manchmal sind die Sicherheitszeichen gesetzlich vorgeschrieben, während es in anderen Fällen einen Ermessensspielraum gibt, solche Zeichen zu verwenden. Darüber hinaus sind einige Sicherheitszeichen standardisiert, wie zum Beispiel gemäß dem ANSI Z535-Standard und dem OSHA 1910.14-Standard spezifiziert. Diese Normen umfassen Aspekte wie den Wortlaut des Zeichens, die verwendeten Farben und Schriftarten, die Form des Zeichens und verschiedene andere Einzelheiten.

Es ist sinnvoll, Standards für solche Warnzeichen zu haben. Wenn Sie ein solches Zeichen sehen und es den angegebenen Standards entspricht, glauben Sie eher, dass das Zeichen legitim ist, und Sie benötigen weniger kognitive Verarbeitung, um das Zeichen zu analysieren und zu verstehen. Bei Schildern, die nicht standardisiert sind, müssen Sie oft im Kopf berechnen, was das Schild Ihnen sagt, wodurch Sie möglicherweise wertvolle Zeit verlieren, um Maßnahmen zu ergreifen, oder Sie könnten das Schild völlig falsch einschätzen und die vorliegende Warnung nicht richtig verstehen.

Es kann eine Reihe solcher Zeichen geben, für die sie oft wie folgt klassifiziert werden:

  • Gefahrenzeichen: Höchste Besorgnis und Hinweis auf eine unmittelbare Gefahr mit wahrscheinlich schwerwiegenden Folgen
  • Warnzeichen: Weist auf eine Gefahr hin, die weniger als „Gefahr“ ist, aber dennoch ziemlich ernst
  • Vorsichtszeichen: Weist auf eine potenzielle Gefahr hin, die weniger als eine „Warnung“ ist, aber dennoch ernst
  • Hinweiszeichen: Hinweis auf einen informativen Hinweis, der weniger als „Vorsicht“ ist, aber dennoch besorgniserregende Aspekte enthält

Angesichts des vorstehenden Hintergrunds zu Warnungen und Warnzeichen können wir versuchen, dies kontextbezogen auf die Verwendung von KI anzuwenden.

Erstens könnten wir möglicherweise irgendwie zustimmen, dass die KI-Beschilderung in einem ähnlichen Schweregrad liegen könnte, wie es bei alltäglichen Schildern üblich ist, so dass:

  • AI-Gefahrenzeichen: AI von höchster Besorgnis und Hinweis auf eine unmittelbare Gefahr mit wahrscheinlich schwerwiegenden Folgen
  • AI-Warnzeichen: AI zeigt eine Gefahr an, die weniger als „Gefahr“ ist, aber dennoch ziemlich ernst
  • AI-Warnzeichen: KI weist auf eine potenzielle Gefahr hin, die weniger als eine „Warnung“ ist, aber dennoch ernst gemeint ist
  • AI-Benachrichtigungszeichen: KI weist auf ein informatives Heads-up hin, das weniger als „Vorsicht“ ist, aber dennoch besorgniserregende Aspekte enthält

Das Wesentliche ist, dass nicht alle KI gleichermaßen beunruhigend sein werden. Es kann sein, dass eine KI enorme Risiken birgt oder nur marginale Risiken hat. Dementsprechend sollte die Beschilderung widerspiegeln, was was ist. Wenn alle KI-Warnungen oder Warnzeichen einfach als von gleichem Kaliber gezeigt würden, wüssten wir vermutlich nicht oder wären uns nicht bewusst, ob wir uns große oder nur leichte Sorgen über KI machen sollten. Die Verwendung eines typisierten Formulierungsschemas könnte das Leben beim Erkennen und Interpretieren von KI-bezogenen Warnzeichen erleichtern.

Sie fragen sich vielleicht, was die Schilder sonst noch über die Besonderheiten der zu übermittelnden Botschaft sagen würden.

Das ist sicherlich eine schwierigere Angelegenheit. Die KI-Möglichkeiten, Dinge zu tun, die als unsicher oder besorgniserregend gelten, wären enorm groß, fast endlos. Können wir sie zu einem routinierten Satz zusammenfassen, der jeweils nur mit einer Handvoll Wörtern formuliert ist? Oder müssen wir einen freieren Ansatz für die Formulierung zulassen?

Ich lasse Sie über diese offene Frage nachdenken.

Im weiteren Verlauf neigen wir dazu, Warnschilder auf Objekten zu sehen. Ein KI-System ist nicht zwingend ein „Gegenstand“ im gleichen Sinne wie das übliche Anbringen von Schildern. Dies wirft die Frage auf, wo die KI-Warnzeichen präsentiert werden sollen.

Wenn Sie eine App auf Ihrem Smartphone ausführen, könnte es sein, dass bei Verwendung von KI eine Meldung angezeigt wird, die die KI-bezogene Warnung enthält. Die App warnt Sie vor der zugrunde liegenden Verwendung von KI. Dies könnte eine Popup-Nachricht sein oder auf verschiedene visuelle und sogar akustische Weise präsentiert werden.

Es gibt auch die Situation, dass Sie einen Dienst nutzen, der von KI unterstützt wird, obwohl Sie möglicherweise nicht direkt mit der KI interagieren. Sie könnten beispielsweise ein Gespräch mit einem menschlichen Agenten über den Erhalt einer Haushypothek führen, bei der der Agent still hinter den Kulissen arbeitet und ein KI-System verwendet, um seine Bemühungen zu leiten.

Daher sollten wir davon ausgehen, dass die KI-Warnzeichen in beiden KI-Anwendungsfällen vorhanden sein sollten, so dass:

  • Produktspezifische KI: KI als Produkt sollte eindeutige KI-Warn- oder Warnzeichen haben
  • Serviceorientierte KI: KI als Service (direkt oder indirekt) sollte KI-Warn- oder Warnzeichen haben

Skeptiker würden sicherlich schnell vermuten, dass das KI-Warnzeichen vom App-Hersteller hinterhältig getarnt sein könnte, damit die Warnung nicht besonders auffällt. Vielleicht erscheint die Warnung für einen kurzen Moment und Sie bemerken wirklich nicht, dass sie angezeigt wurde. Ein weiterer hinterhältiger Trick wäre, daraus eine Art Spiel zu machen, das die Ernsthaftigkeit der Warnung scheinbar untergräbt und die Leute einlullt, dass die Warnung belanglos ist.

Ja, Sie können ziemlich sicher darauf wetten, dass alle KI-bezogenen Warnzeichen ausgetrickst und auf eine Weise verwendet werden, die nicht dem Geist und der Absicht der warnenden Botschaft entspricht, die sie vermitteln sollen.

All diese Skepsis gehen einher mit der Frage, ob wir KI-Ethik als „weiche Gesetze“ verwenden würden, um zu versuchen, KI-bezogene Warnungen und Warnungen voranzutreiben, oder ob wir „harte Gesetze“ anwenden würden, einschließlich erlassener Gesetze mit gerichtlicher Unterstützung. Theoretisch würde der Soft-Law-Vorstoß einen größeren Anschein des Spiels mit der Angelegenheit ermöglichen, während Gesetze in den Büchern das Potenzial für die Durchsetzung durch die Regierung mit sich bringen und größere Strenge hervorbringen würden.

Eine weitere Sorge ist, ob die KI-Beschilderung überhaupt einen Unterschied machen würde.

Viele Untersuchungen zum Verbraucherverhalten zeigen tendenziell verworrene Ergebnisse, wenn es um die Bereitstellung von Warnhinweisen für Verbraucher geht. Manchmal sind die Warnungen wirksam, manchmal nicht. Wenden wir einige dieser Forschungsergebnisse auf den KI-Kontext an.

Betrachten Sie diese Facetten:

  • Erkennung: Würden diejenigen, die KI verwenden, die ein brauchbares KI-Warnschild enthält, aktiv bemerken oder erkennen, dass ihnen das Schild gezeigt wird (vorausgesetzt, dass eine solche Beschilderung erfolgt ist)?
  • Verstehen: Würden diejenigen, die es bemerkt haben, verstehen oder begreifen, was das KI-Warnzeichen ihnen zu suggerieren versucht?
  • Aktion: Wird das KI-Warnzeichen diejenigen, die diesen mentalen Sprung machen, zum Handeln auffordern oder auf andere Weise dazu dienen, ihr Verhalten entsprechend zu lenken?

Sie können davon ausgehen, dass Forscher die Angelegenheit genau untersuchen werden, wenn die Dynamik für KI-Warnzeichen zunimmt. Die Idee wäre, zu klären, unter welchen Umständen die Warnungen hilfreich sind und wann nicht. Dies wiederum bezieht sich auf das Design und die damit verbundene Optik und Haptik. Wir könnten auch erwarten, dass die breite Öffentlichkeit über das Auftreten dieser KI-Warn- und Warnzeichen aufgeklärt oder informiert werden muss, damit sie sich daran gewöhnt.

Es gibt viele Drehungen und Wendungen, die berücksichtigt werden müssen.

Soll das KI-Warn- oder Warnzeichen nur beim Start der verwendeten App erscheinen? Vielleicht reicht der Ausgangspunkt allein nicht aus. Eine Person könnte auf den ersten Blick denken, dass die App nur auf Nummer sicher geht, indem sie eine Warnung verwendet, und daher der Warnung nicht viel Beachtung schenken. Sobald die Person die App zur Hälfte verwendet hat, wäre vielleicht eine zusätzliche Warnung gerechtfertigt. An diesem Punkt ist sich die Person besser bewusst, was die App unternimmt, und sie hat möglicherweise die früher angezeigte Warnmeldung bereits vergessen.

Die KI-Warnung oder der Warnhinweis kann dann auftreten:

  • Vor dem Start der App und kurz bevor die App aufgerufen wird
  • Präsentiert, sobald die App gestartet wird und nur am Startpunkt
  • Gezeigt am Anfang und wieder in der Mitte
  • Wird während der Verwendung der KI mehrmals angezeigt
  • Gegeben am Ende der Nutzung der App
  • Geben Sie nach dem Beenden der App und möglicherweise sogar Minuten, Stunden oder Tage später an
  • Usw.

Denken Sie, dass die Person, die die KI verwendet, solche KI-Warnungen oder Warnzeichen bestätigen oder anerkennen muss?

Einige würden darauf bestehen, dass von der Person verlangt werden sollte, zuzugeben, dass sie die Warnungen gesehen hat. Dies würde potenziell denen zuvorkommen, die behaupten könnten, dass es keine Warnmeldung gegeben habe. Es könnte auch dazu führen, dass Menschen die Meldungen ernster nehmen, da sie gebeten werden, zu bestätigen, dass sie den Warnhinweis beachtet haben.

Hier ist eine schwierige Frage für Sie.

Sollte alle KI muss einen Warn- oder Sicherheitshinweis geben?

Sie könnten argumentieren, dass ja, alle KI dies haben müssen. Selbst wenn die KI nur ein marginales Sicherheitsrisiko darstellt, sollte sie dennoch ein Warnzeichen haben, möglicherweise nur eine Benachrichtigung oder ein Hinweis. Andere würden diese Behauptung bestreiten. Sie würden dagegen argumentieren, dass Sie über Bord gehen. Nicht jede KI braucht das. Wenn Sie außerdem alle KI dazu zwingen, verwässern Sie den Zweck. Die Menschen werden taub, wenn sie die Warnhinweise sehen. Das ganze Vorgehen wird zur Farce.

Betrachten Sie aus einem ähnlichen Blickwinkel, was die KI-Hersteller wahrscheinlich sagen werden.

Ein Standpunkt wäre, dass dies ein Schmerz in der Du-weißt-schon-was-Einführung sein wird. Es kann kostspielig sein, alle Ihre KI-Systeme ändern und diese Funktion hinzufügen zu müssen. Das Hinzufügen auf Go-Forward-Basis könnte weniger kostspielig sein, obwohl die Einbeziehung dieser Bestimmung mit Kosten verbunden ist.

Die Unschärfe ist eine weitere mögliche Beschwerde. Welche Art von Botschaft soll angezeigt werden? Wenn es keine Standards gibt, bedeutet dies, dass die KI-Macher etwas Neues herstellen müssen. Dies verursacht nicht nur zusätzliche Kosten, sondern öffnet möglicherweise auch die Tür für eine Klage. Sie können sich vorstellen, dass ein KI-Hersteller vor die Aufgabe gestellt wird, dass seine Warnung nicht so gut war wie die eines anderen KI-Systems. Anwälte werden am Ende ein Bündel aus der daraus resultierenden Verwirrung machen.

Es besteht auch die Sorge, dass die Menschen durch diese Sicherheitshinweise übermäßig verängstigt werden.

Ein KI-Hersteller könnte aufgrund einer Sicherheitsmeldung, die lediglich als informative Warnung dienen soll, einen steilen Rückgang der Benutzerzahlen feststellen. Die Leute werden nicht wissen, was sie von der Nachricht halten sollen. Wenn sie solche Nachrichten noch nie gesehen haben, könnten sie sofort ausrasten und unnötigerweise den Einsatz der KI vermeiden.

Ich erwähne diese Facetten, weil einige bereits verkünden, dass „es nicht schaden kann“, KI-Warnungen oder Sicherheitshinweise einzufügen. Für sie ist die Idee so ideal wie Apfelkuchen. Niemand könnte die Vorteile ernsthaft bestreiten, immer KI-bezogene Sicherheit oder Warnungen zu verlangen. Aber das ist natürlich keine reale Art, über die Angelegenheit nachzudenken.

Man könnte sogar noch weiter gehen und behaupten, dass die KI-Warnmeldungen eine Art Massenhysterie hervorrufen könnten. Wenn wir plötzlich anfingen, KI-Systeme dazu zu zwingen, solche Nachrichten zu haben, könnten die Leute die Absicht missverstehen. Sehen Sie, es gibt viele Ermahnungen, dass wir vor einer existenziellen KI-Krise stehen, in der die KI die Welt übernehmen und die Menschheit auslöschen wird, sehen Sie den Link hier für meine Analyse dieser Art von Behauptungen.

Die Verwendung der KI-Warnmeldung könnte einige Menschen dazu „inspirieren“, zu glauben, dass das Ende nahe ist. Warum sonst würden die Meldungen jetzt erscheinen? Sicherlich ist dies ein Hinweis darauf, dass sich die KI endlich darauf vorbereitet, unsere unterdrückerischen Oberherren zu werden.

Eine Art verzweifelt düsteres Ergebnis des Versuchs, das Richtige zu tun, indem man der Öffentlichkeit bewusst macht, wie KI mit diskriminierenden Fähigkeiten oder anderem ausgestattet werden kann KI für schlecht Aspekte.

Fazit

James Russell Lowell, der berühmte amerikanische Dichter, sagte einmal: „Ein Dorn der Erfahrung ist eine ganze Wildnis der Warnung wert.“

Ich bringe die erhabene Bemerkung, einige abschließende Bemerkungen zum Thema KI-Warnungen oder Sicherheitshinweise zu machen.

Die Chancen stehen gut, dass es keinen großen Lärm um KI-bezogene Warnmeldungen geben wird, bis wir eine einigermaßen weit verbreitete Erkenntnis haben, dass KI schlechte Taten begeht. Diejenigen KI-Hersteller, die sich freiwillig dafür entscheiden, werden vielleicht gelobt, obwohl sie auch versehentlich unfair belästigt werden könnten. Einige Experten könnten ihnen nachgehen, weil sie KI nutzen, die scheinbar Warnungen benötigt, und dabei vernachlässigen, dass sie versuchen, an erster Stelle zu stehen, und all diese anderen KI-Hersteller hinterherhinken.

Verdammt, wenn Sie es tun, vielleicht nicht verflixt, wenn Sie es nicht tun.

Eine weitere Überlegung betrifft die Umsetzung einer scheinbar netten konzeptionellen Idee in eine praktische und nützliche Praxis. Es ist einfach, mit den Händen zu winken und vage in den Wind zu schreien, dass die KI Warn- und Sicherheitsmeldungen haben sollte. Der schwierige Teil kommt bei der Entscheidung, was diese Botschaften sein sollten, wann und wo sie präsentiert werden sollten, ob oder inwieweit ihre Kosten ausreichenden Nutzen bringen und so weiter.

Wir werden James Russell Lowell hier vorerst das letzte Wort (poetisch) zu diesem Thema geben: „Kreativität ist nicht das Finden einer Sache, sondern das Machen von etwas daraus, nachdem es gefunden wurde.“

Schätze, es ist an der Zeit, die Ärmel hochzukrempeln und daran zu arbeiten. Und das ist nicht nur eine Warnung, es ist eine Aktion.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- Warnungen-auf-alles-bestehende-und-zukünftige-ai/