KI-Ethik grübelt über die Vorzüge der gesetzlichen Anordnung von Sühnegeldern nach, um die Rechenschaftspflicht für schlechtes Handeln der KI sicherzustellen

Wer ist schuld?

Das mag wie eine einfache Frage erscheinen, obwohl im Fall der berühmten Komödie des legendären Duos Abbott und Costello über ein Baseballteam das „Wer“ verwirrend sein kann. Sie kennen sich vielleicht vage aus Wer ist zuerst dran komödiantische Routine, die sie zu einem der beständigsten Sketche aller Zeiten gemacht haben (Spoiler-Alarm für diejenigen unter Ihnen, die ihn noch nicht gehört haben).

Abbott sagt Costello, dass Who's on first, What's on second und I Don't Know auf Third ist. Der clevere Trick besteht darin, dass der erste Baseman Who heißt, der zweite Baseman What heißt und der dritte Baseman I Don't Know heißt. Natürlich haben diese Sätze auch ihre konventionelle Bedeutung, und daher kann der Versuch, das zu interpretieren, was Abbott sagt, völlig verwirrend sein. Tatsächlich stellt Costello die scheinbar harmlose Frage, wer zuerst dran ist, für die die Antwort ein klares Ja ist. Aber das ergibt für Costello keinen Sinn, da er einen Namen erwartete und stattdessen ein verblüffendes Ja als Antwort erhielt.

Gangwechsel, wenn es um das Aufkommen der künstlichen Intelligenz (KI) geht, ist eine der ärgerlichsten Fragen, die immer wieder gestellt werden, wer oder was vielleicht zur Rechenschaft gezogen wird, wenn die KI in die Irre geht.

Ich habe bereits die strafrechtliche Verantwortlichkeit dafür besprochen, wenn KI zu kriminellen Handlungen führt oder diese durchführt, siehe meine Berichterstattung unter den Link hier. Es gibt auch die Frage der zivilrechtlichen Verantwortlichkeit, z. B. wen oder was Sie verklagen könnten, wenn KI Ihnen Unrecht getan hat, und das ist das Thema, das ich hier erörtern werde. All dies hat erhebliche Überlegungen zur KI-Ethik. Für meine fortlaufende und umfassende Berichterstattung über KI-Ethik und Ethische KI siehe den Link hier und den Link hier, nur um ein paar zu nennen.

Die Grundsätze der KI-Ethik veranlassen uns, wachsam zu bleiben. KI-Technologen können sich manchmal mit Technologie beschäftigen, insbesondere mit der Optimierung von Hightech. Sie berücksichtigen nicht unbedingt die größeren gesellschaftlichen Auswirkungen. Eine KI-Ethik-Denkweise zu haben und diese integral in die KI-Entwicklung und -Einführung zu integrieren, ist entscheidend für die Herstellung angemessener KI, einschließlich (vielleicht überraschend oder ironischerweise) der Bewertung, wie KI-Ethik von Unternehmen übernommen wird.

Neben der Anwendung von KI-Ethikregeln im Allgemeinen stellt sich die entsprechende Frage, ob wir Gesetze haben sollten, die verschiedene Verwendungen von KI regeln. Auf Bundes-, Landes- und lokaler Ebene werden neue Gesetze verbreitet, die den Umfang und die Art der Gestaltung von KI betreffen. Der Versuch, solche Gesetze zu entwerfen und zu erlassen, erfolgt schrittweise. Die KI-Ethik dient zumindest als wohlüberlegte Notlösung und wird mit ziemlicher Sicherheit bis zu einem gewissen Grad direkt in diese neuen Gesetze aufgenommen.

Beachten Sie, dass einige vehement argumentieren, dass wir keine neuen Gesetze brauchen, die KI abdecken, und dass unsere bestehenden Gesetze ausreichen. Tatsächlich warnen sie davor, dass wir, wenn wir einige dieser KI-Gesetze erlassen, die goldene Gans töten werden, indem wir gegen Fortschritte in der KI vorgehen, die immense gesellschaftliche Vorteile bieten.

Es findet eine hitzige Debatte darüber statt, ob die bestehenden Gesetze in der Lage sind, dem Aufkommen von KI-Systemen in der gesamten Gesellschaft angemessen zu begegnen. Die gesetzliche Haftung erfordert normalerweise, dass Sie dem Esel den Schwanz anheften können, wer für schädliches Verhalten verantwortlich ist. Im Fall von KI kann es einen ziemlich unklaren Pfad geben, der eine bestimmte Person oder Personen mit der KI verbindet, die eine schädliche Handlung ausgeführt hat. Die KI ist möglicherweise weitgehend nicht auf die Quelle oder den Erfinder zurückzuführen, der die KI komponiert hat.

Eine weitere Überlegung ist, dass selbst wenn die Wurzeln der KI zu jemandem zurückverfolgt werden können, die Frage lautet, ob die Person oder Personen nicht in der Lage gewesen sein könnten, die nachteiligen Folgen, die die KI letztendlich hervorgebracht hat, vernünftigerweise vorherzusehen. Die Crux der Vorhersehbarkeit ist ein üblicherweise bemerkenswerter Faktor bei der Beurteilung der gesetzlichen Haftung.

Sie könnten versucht sein zu glauben, dass Sie einfach die KI selbst verfolgen und die KI als die rechtliche Partei benennen können, die für den angeblich entstandenen Schaden verantwortlich oder verantwortlich ist. Im Großen und Ganzen ist die vorherrschende Rechtsauffassung, dass KI noch nicht die Stufe der Rechtspersönlichkeit erreicht hat. Daher können Sie streng genommen nicht versuchen, die KI zur Zahlung zu bewegen, und müssen Menschen finden, die sozusagen hinter den Kulissen an den Hebeln gearbeitet haben (zu meiner Analyse der Rechtspersönlichkeit für KI siehe den Link hier).

In all diesen potenziellen juristischen Morast tritt eine Idee, die als mögliches Heilmittel in Umlauf gebracht wird, entweder auf kurzfristiger oder möglicherweise langfristiger Basis. Die Idee ist, dass vielleicht ein spezieller Ausgleichsfonds eingerichtet werden sollte, um die durch KI Geschädigten finanziell zu entlasten. Wenn Sie ansonsten nicht in der Lage sind, die KI dazu zu bringen, Sie zu entschädigen, und Sie die Personen, die mutmaßlich zur Rechenschaft gezogen werden sollten, nicht festnageln können, könnte die nächstbeste Option darin bestehen, einen Entschädigungsfonds in Anspruch zu nehmen, der darauf abzielt, den von der KI Geschädigten zu helfen.

Ein solcher Fonds wäre einer Art Versicherung ähnlich, wie es in einem zum Nachdenken anregenden Forschungsbericht heißt: „Dies wäre im Wesentlichen ein Versicherungsmechanismus gegen Unsicherheit: Ein klarer und transparenter Rahmen für eine schnelle Entschädigung in Fällen, in denen eine Haftungsklage vorliegt ungewiss oder aussichtslos aufgrund der Unvorhersehbarkeit des schädigenden Verhaltens, des (der Art des) Schadens selbst oder der übermäßigen Kosten und/oder Komplexität des Verfahrens“ (Artikel von Olivia Erdelyi und Gabor Erdelyi, „The AI ​​Liability Puzzle und eine fondsbasierte Problemumgehung“, Zeitschrift für Künstliche Intelligenzforschung, 2021).

Der Ausgleichsfonds wäre Teil eines übergreifenden AI-Garantiesystems (AIGS) und würde von einigen geringfügigen Änderungen der bestehenden Gesetze zur gesetzlichen Haftung begleitet. Die leichte Berührung wäre vermutlich einfacher umzusetzen und würde nicht die mühsame Art von rechtlicher und gesellschaftlicher Angst erfordern, wenn eine herzzerreißendere Reihe von demonstrativen Änderungen an den bestehenden Rechtssystemen vorgenommen würde. Laut den Forschern: „Dies spiegelt unsere Überzeugung wider, dass – trotz der Attraktivität einer solchen Schnelllösung – die unverändert Anwendung bestehender Haftungsregeln auf AI oder a protektionistisch motiviert der Rückgriff auf die verschuldensunabhängige Haftung mit dem Ziel, eine Verantwortlichkeit um jeden Preis zu begründen, sind aus drei Gründen keine richtigen Antworten: Erstens verstoßen sie, indem sie außer Acht lassen, dass diese Regeln auf unterschiedliche Umstände zugeschnitten sind und daher möglicherweise für KI unangemessen sind, gegen die sorgfältig ausbalancierten Ziele des gesetzliches Haftungssystem. Zweitens hemmen sie KI-Innovationen, indem sie einen unangemessen strafenden Ansatz verfolgen. Drittens umgeht ein unzulässiger Rückgriff auf Gefährdungshaftung nur Vorhersehbarkeits- und Fehlerprobleme auf dogmatisch widersprüchliche Weise, anstatt sie zu beheben“ (so das oben zitierte Papier).

Argumente für solche KI-Ausgleichskassen sind:

  • Reduziert die Notwendigkeit langwieriger und kostspieliger Gerichtsverfahren zur Bewältigung von KI-zugefügten Schäden
  • Beruhigt Menschen, dass sie KI nutzen können und bei Schaden entschädigt werden
  • Fördert KI-Innovation durch Verringerung der Rechtsunsicherheit für KI-Innovatoren
  • Kann viel schneller in Betrieb genommen werden als massive Änderungen an bestehenden Gesetzen
  • Bietet ein relativ klares Heilmittel, das zuverlässig und leicht verfügbar ist
  • Andere

In der Zwischenzeit sagen diejenigen, die sich dem Ansatz der KI-Ausgleichsfonds widersetzen, Folgendes:

  • Lassen Sie uns KI-Hersteller übermäßig aus der Bahn werfen und ihnen erlauben, sich der Verantwortung zu entziehen
  • Wird KI-Hersteller ermutigen, KI zu entwickeln, der es an pflichtbewusster Sicherheit und angemessenen Kontrollen mangelt
  • Könnte Menschen dazu anspornen, KI-Schäden fälschlicherweise zu behaupten, damit sie die Gelder anzapfen können
  • Umgeht und untergräbt die wahre Notwendigkeit, unsere Gesetze zu überarbeiten, um die KI ausreichend zu regeln
  • Könnte zu einem bürokratischen Albtraum werden, der festfährt und die Gelder missbraucht
  • Andere

Wie man sieht, gibt es sowohl Befürworter als auch Gegner dieser durchaus umstrittenen Vorstellung.

Sie würden sich schwer tun, den KI-Ausgleichsfonds pauschal als potenziellen Ansatz für die steigenden Bedenken hinsichtlich der Schädlichkeit von KI auszuschließen. Die vorgeschlagene Lösung ist auch kein Slam Dunk.

Ein Standpunkt ist, dass KI-Hersteller im Rahmen ihrer Bemühungen bei der Entwicklung und Verbreitung von KI Gelder in die Fonds stecken müssten. Dies könnte als eine Art Gebühr oder Steuer ausgelegt werden, die sie tragen müssen, um ihre KI der Welt zur Verfügung stellen zu können. Aber unterdrücken diese zusätzlichen Kosten möglicherweise die Bemühungen von Startups, die versuchen, die Grenzen der heutigen KI zu erweitern? Und wie würde die Durchsetzung gehandhabt, um sicherzustellen, dass KI-Hersteller ihre Gebühren oder Steuern bezahlt haben?

Eine Reihe von Fragen tauchen auf und müssten geklärt werden:

  • In welchen Ländern wäre ein KI-Ausgleichsfonds am besten umsetzbar?
  • Könnte ein globaler Schein von miteinander verbundenen KI-Ausgleichsfonds etabliert werden?
  • Welche detaillierten und praktikablen Mechanismen wären mit solchen Fonds verbunden?
  • Wie sollen die KI-Ausgleichskassen finanziert werden (öffentlich, privat, gemeinnützig)?
  • Wäre dies eine verschuldensunabhängige Versicherungsgrundlage oder würde ein anderer Ansatz gewählt?
  • Usw.

Ein Bereich, in dem die Idee der KI-Ausgleichsfonds bereits verbreitet wurde, sind autonome Systeme wie autonome Fahrzeuge und selbstfahrende Autos. Für meine Berichterstattung über selbstfahrende Autos und autonome KI-Systeme siehe den Link hier.

Hier ist eine Skizze, wie dies für KI-basierte selbstfahrende Autos funktionieren könnte.

Angenommen, ein selbstfahrendes Auto kollidiert mit einem Fahrradfahrer. Der Fahrradfahrer wird verletzt. Der Fahrradfahrer könnte Rechtsmittel einlegen, indem er den Autohersteller des autonomen Fahrzeugs verklagt. Oder sie zielen auf die selbstfahrende Technologiefirma ab, die das KI-Fahrsystem entwickelt hat. Wenn das selbstfahrende Auto als Flotte betrieben wird, wäre ein weiterer rechtlicher Weg, den Flottenbetreiber zu verfolgen. Der Versuch, die AI zu verklagen, ist derzeit keine Option, da die Rechtspersönlichkeit der AI noch nicht feststeht.

Anstatt rechtliche Schritte gegen eine dieser Parteien einzuleiten, wäre eine andere Möglichkeit, einen Antrag oder Anspruch auf einen geeigneten AI-Ausgleichsfonds zu stellen. Der Fonds hätte Prozesse formalisiert, die die Prüfung des Anspruchs umfassen, und dann bestimmen, ob und welche Ausgleichszahlungen an den Antragsteller gezahlt werden könnten. Es kann ein Berufungsverfahren geben, das Antragstellern hilft, die glauben, dass sie entweder zu Unrecht vom Fonds abgelehnt oder vom Fonds nicht ausreichend entschädigt wurden.

Theoretisch wäre der KI-Ausgleichsfonds ein viel schnellerer Weg, um für den zugefügten Schaden entschädigt zu werden. Sie können sich vorstellen, wie mühsam ein Gerichtsverfahren ist, bei dem die beklagten Firmen versuchen, den Fall hinauszuzögern.

Anwälte könnten jedoch betonen, dass der KI-Ausgleichsfonds es anderen Parteien wie den KI-Herstellern ermöglichen könnte, scheinbar jede klare Strafe zu vermeiden, wenn sie ihr selbstfahrendes Auto auf öffentlichen Straßen losgelassen haben, was schließlich einen Fahrradfahrer getroffen hat. Was könnten diese Unternehmen sonst noch „fahrlässig“ tun? Ohne das drohende Gespenst des legalen Schwertes, das über ihren Köpfen baumelt, könnten wir uns täglich mit einer KI konfrontiert sehen, die voller gefährlicher Fähigkeiten ist.

Rund und rund gehen die Argumente.

Fazit

KI-Ethik erinnert uns daran, dass wir immer die ethischen und rechtlichen Auswirkungen von KI berücksichtigen sollten. Im Fall der KI-Ausgleichsfonds scheint die vorgeschlagene Idee eines versicherungsähnlichen Fonds zur Entschädigung der durch KI Geschädigten verlockend. Die Gelder würden dort scheinbar bereitstehen, um angezapft zu werden und die schnellstmögliche Entschädigung zu leisten.

Die Abwägung, ob dies die Schleusen für die Entwicklung von KI mit immer weniger Sicherheitskontrollen öffnen könnte, ist eine entmutigende und allzu reale Sorge. Einem Feuer, das vielleicht schon etwas im Gange ist, müssen wir wahrscheinlich kein Öl hinzufügen.

Können wir die KI-Hersteller irgendwie noch dazu bringen, eine angemessene ethische KI zu entwickeln, und gleichzeitig diese KI-Ausgleichsfonds einrichten?

Einige würden sagen, ja, wir können. Durch die Neuausrichtung bestehender Gesetze zur Angleichung an die KI-Ausgleichsfonds hätten diejenigen, die durch KI geschädigt werden, möglicherweise einen zweifachen Weg, um ihre gerechte Entschädigung zu erlangen.

Wer ist zuerst dran?

Ja, das ist es, was (wie wir alle) als erstes bemerkt, dass wir über die mögliche Verwendung von KI-Ausgleichsgeldern nachdenken und bestehende Gesetze ändern sollten, wenn auch nur geringfügig, um ein Mittel bereitzustellen, um mit dem Ansturm sowohl guter KI als auch zurechtzukommen schlechte KI.

Es gibt keine Verwirrung über diese wichtige Überlegung.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- Rechenschaftspflicht/