KI-Ethik und das drohende Debakel, wenn das New Yorker Gesetz, das Audits auf KI-Vorurteile vorschreibt, in Gang kommt

Manchmal werden die besten Absichten kläglich durch einen schwerwiegenden Mangel an Aufmerksamkeit für Details zunichte gemacht.

Ein Paradebeispiel dieser weisen Weisheit ist es wert, erkundet zu werden.

Schauen wir uns insbesondere ein neues Gesetz in New York City zur künstlichen Intelligenz (KI) an, das am 1. Januar 2023 in Kraft tritt. Sie könnten leicht eine beträchtliche Wette gewinnen, dass alle Arten von Verwirrung, Bestürzung und Schwierigkeiten auftreten werden sobald das Gesetz in Kraft tritt. Obwohl die Probleme nicht beabsichtigt sind, werden sie zweifellos als Ergebnis eines schlechten Designs oder zumindest einer unzureichenden Festlegung notwendiger Details auftreten, die leicht entwickelt und explizit angegeben werden sollten und könnten.

Ich beziehe mich auf ein lokales Gesetz, das letztes Jahr am 11. Dezember 2021 in der ehrwürdigen Stadt New York verabschiedet wurde und Anfang 2023 in Kraft treten soll. Wir sind derzeit nur noch wenige Monate von dem großen Erwachen entfernt Dieses neue Gesetz wird für Aufsehen sorgen. Ich wünschte, ich könnte sagen, dass das ehrgeizige Gesetz nahtlos das tut, was es tun soll, nämlich potenzielle KI-Vorurteile im Bereich der Beschäftigungsentscheidungen zu behandeln. Obwohl die Absicht lobenswert ist, werde ich Sie leider durch die klaffenden Schlupflöcher, Auslassungen und den Mangel an Spezifität führen, die dieses Gesetz untergraben und Arbeitgeber verrückt machen werden, wenn sie versuchen, mit den unbeabsichtigten, aber ziemlich nachteiligen Auswirkungen fertig zu werden.

Man könnte sagen, dass dies der Klassiker ist, einen unausgegorenen Plan voranzutreiben. Eine verehrte Maxime, die Dwight Eisenhower zugeschrieben wird, war, dass ein Plan nichts ist, während Planung alles ist. Kurz gesagt, dieses spezielle Gesetz wird ein anschauliches Beispiel dafür liefern, wie der Gesetzgeber manchmal zu kurz kommen kann, indem er nicht durchdenkt vorher die notwendigen Einzelheiten, damit das Gesetz seine lobenswerten Ziele erreicht und auf sicher vernünftige und umsichtige Weise verabschiedet werden kann.

Ein Debakel wartet.

Entschuldigungen werden bereits in die Länge gezogen.

Einige Experten haben gesagt, dass man ein Gesetz nie vollständig spezifizieren kann und es in Aktion sehen muss, um zu wissen, welche Aspekte des Gesetzes angepasst werden müssen (eine allgemeine Binsenweisheit, die in diesem Fall überproportional verdreht wird). Darüber hinaus argumentieren sie heftig, dass dies insbesondere der Fall ist, wenn es um die sich abzeichnende Neuheit von KI-bezogenen Gesetzen geht. Verdammt, sie ermahnen, KI ist High-Tech-Zauberei, über die wir als Gesetzgeber nicht viel wissen, daher lautet die Logik, dass es besser ist, etwas in die Rechtsseiten aufzunehmen, als überhaupt nichts dort zu haben.

Oberflächlich betrachtet klingt das sicherlich überzeugend. Wenn Sie jedoch tiefer graben, erkennen Sie, dass es potenziell töricht ist, einschließlich und insbesondere im Fall dieses spezifischen Gesetzes. Dieses Gesetz könnte ohne weiteres geschickter und vernünftiger festgelegt werden. Wir brauchen keine Zaubertränke. Wir brauchen nicht zu warten, bis Chaos entsteht. Zum Zeitpunkt der Ausarbeitung des Gesetzes hätten die richtigen Formulierungen und Details festgelegt werden können.

Lassen Sie uns auch sicherstellen, dass die unziemliche, schwebende Idee, dass die Adoptionsaspekte nicht vorher erraten werden könnten, schmerzhaft absurd ist. Es ist legales Kauderwelsch der inhaltsleersten Art. Es gibt viele bereits bekannte Überlegungen zum Umgang mit KI-Vorurteilen und zur Durchführung von KI-Audits, die leicht in dieses Gesetz hätten einfließen können. Dasselbe gilt für jede andere Gerichtsbarkeit, die die Einführung eines solchen Gesetzes erwägt. Lassen Sie sich nicht täuschen, dass wir nur blind einen legalen Pfeil in den wilden Wind werfen und Qualen erleiden müssen. Ein Klacks juristisches Denken gepaart mit einem entsprechenden KI-Verständnis ist bereits machbar und man muss nicht nur nach Strohhalmen greifen.

Ich möchte hinzufügen, es ist noch Zeit, dies zu korrigieren. Die Uhr tickt noch. Es könnte möglich sein, aufzuwachen, bevor die Alarmglocken zu läuten beginnen. Der Beratungsbedarf kann abgeleitet und bekannt gemacht werden. Die Zeit ist knapp, daher muss dieser Priorität Priorität eingeräumt werden.

Achten Sie in jedem Fall darauf, dass Sie hier die Betonung verstehen.

Lassen Sie mich eifrig klarstellen, dass ein solches Gesetz über KI-Voreingenommenheit seinen Wert hat. Warum, erkläre ich gleich. Ich werde auch beschreiben, welche Probleme es mit diesem neuen Gesetz gibt, von dem viele sagen würden, dass es das erste überhaupt ist, das in die Rechtsbücher aufgenommen wurde (es gibt andere Variationen, vielleicht nicht ganz so wie diese).

In der Tat können Sie davon ausgehen, dass im ganzen Land nach und nach ähnliche Gesetze in Kraft treten werden. Eine bemerkenswerte Sorge ist, dass, wenn dieser First-Mover-Versuch in New York City schlecht verläuft, der Rest des Landes vorsichtig sein könnte, solche Gesetze zu erlassen. Das ist nicht die richtige Lektion zu lernen. Die richtige Lektion lautet: Wenn Sie ein solches Gesetz schreiben, tun Sie dies vernünftig und mit der gebotenen Überlegung.

Gesetze, die ohne angemessene Überprüfung in die Bücher geworfen werden, können ziemlich ärgerlich sein und alle Arten von nachgelagerten Schwierigkeiten verursachen. In diesem Sinne bitte das Kind nicht mit dem Bade ausschütten (ein altes Sprichwort, das wohl abgeschafft werden sollte). Der Kern ist, dass solche Gesetze wirklich produktiv und schützend sein können, wenn sie richtig formuliert werden.

Dieser spezielle wird dies leider nicht aus dem Tor tun.

Alle Arten von panischer Anleitung kommen zwangsläufig von den Verfassern und Vollstreckern des Gesetzes. Markieren Sie Ihre Kalender für Ende Januar und bis in den Februar 2023, um zu sehen, wie das Gerangel weitergeht. Das Zeigen mit dem Finger wird immens intensiv sein.

Niemand kreischt im Moment besonders, weil das Gesetz noch nicht auf den Köpfen der Arbeitgeber gelandet ist, die durch das neue Gesetz zonkiert werden. Stellen Sie sich vor, dass dies metaphorisch gesprochen eine Art Erdbeben ist, das in den ersten Wochen des Jahres 2023 stattfinden wird. Nur wenige bereiten sich auf das Erdbeben vor. Viele wissen gar nicht, dass das Erdbeben bereits in den Kalender eingepfropft ist. Abgesehen davon werden sich viele sehr erstaunte und schockierte Unternehmen fragen, was passiert ist und warum das Chaos auftreten musste, sobald das Erdbeben passiert ist.

All dies hat bemerkenswerte Auswirkungen auf die KI-Ethik und bietet einen praktischen Einblick in die gewonnenen Erkenntnisse (noch bevor alle Lektionen geschehen), wenn es darum geht, KI gesetzlich zu verankern. Für meine laufende und umfassende Berichterstattung über KI-Ethik, Ethische KI, zusammen mit KI-Recht inmitten der rechtlichen Facetten der KI-Governance finden Sie unter den Link hier und den Link hier, nur ein paar zu nennen.

Diese juristische Leidensgeschichte bezieht sich auf früher aufkommende Bedenken hinsichtlich der heutigen KI und insbesondere der Verwendung von maschinellem Lernen (ML) und Deep Learning (DL) als Technologieform und wie sie genutzt werden. Sie sehen, es gibt Verwendungen von ML/DL, die dazu neigen, dass die KI von der breiten Öffentlichkeit vermenschlicht wird, indem sie glaubt oder sich dafür entscheidet, anzunehmen, dass die ML/DL entweder eine empfindungsfähige KI ist oder ihr nahe kommt (sie ist es nicht). Darüber hinaus kann ML/DL Aspekte des Computermusterabgleichs enthalten, die unerwünscht oder völlig unangemessen oder aus ethischer oder rechtlicher Sicht illegal sind.

Es kann nützlich sein, zunächst zu klären, was ich meine, wenn ich mich auf KI insgesamt beziehe, und auch einen kurzen Überblick über Machine Learning und Deep Learning zu geben. Es herrscht große Verwirrung darüber, was künstliche Intelligenz bedeutet. Ich möchte Ihnen auch die Grundsätze der KI-Ethik vorstellen, die für den Rest dieses Diskurses besonders wichtig sein werden.

Angabe der Aufzeichnungen über KI

Stellen wir sicher, dass wir uns über die Natur der heutigen KI einig sind.

Es gibt heute keine KI, die empfindungsfähig ist.

Wir haben das nicht.

Wir wissen nicht, ob empfindungsfähige KI möglich sein wird. Niemand kann treffend vorhersagen, ob wir eine empfindungsfähige KI erreichen werden oder ob die empfindungsfähige KI irgendwie auf wundersame Weise spontan in einer Form einer rechnergestützten kognitiven Supernova entstehen wird (normalerweise als Die Singularität bezeichnet, siehe meine Berichterstattung unter den Link hier).

Machen Sie sich bewusst, dass die heutige KI nicht in der Lage ist, in irgendeiner Weise auf Augenhöhe mit dem menschlichen Denken zu „denken“. Wenn Sie mit Alexa oder Siri interagieren, scheinen die Konversationsfähigkeiten den menschlichen Fähigkeiten ähnlich zu sein, aber die Realität ist, dass sie rechnerisch ist und menschliche Kognition fehlt. Die jüngste Ära der KI hat in großem Umfang maschinelles Lernen und Deep Learning genutzt, die den rechnergestützten Musterabgleich nutzen. Dies hat zu KI-Systemen geführt, die den Anschein menschenähnlicher Neigungen erwecken. In der Zwischenzeit gibt es heute keine KI, die einen Anschein von gesundem Menschenverstand hat und auch nicht über die kognitive Verwunderung robusten menschlichen Denkens verfügt.

Ein Teil des Problems ist unsere Tendenz, Computer und insbesondere KI zu vermenschlichen. Wenn ein Computersystem oder eine KI so zu handeln scheint, wie wir es mit menschlichem Verhalten assoziieren, besteht ein fast überwältigender Drang, dem System menschliche Qualitäten zuzuschreiben. Es ist eine gewöhnliche mentale Falle, die selbst den unnachgiebigsten Skeptiker über die Chancen, ein Bewusstsein zu erlangen, ergreifen kann.

Bis zu einem gewissen Grad ist das der Grund, warum KI-Ethik und Ethische KI ein so wichtiges Thema sind.

Die Grundsätze der KI-Ethik veranlassen uns, wachsam zu bleiben. KI-Technologen können sich manchmal mit Technologie beschäftigen, insbesondere mit der Optimierung von Hightech. Sie berücksichtigen nicht unbedingt die größeren gesellschaftlichen Auswirkungen. Eine KI-Ethik-Denkweise zu haben und diese integral in die KI-Entwicklung und -Einführung zu integrieren, ist entscheidend für die Herstellung geeigneter KI, einschließlich der Bewertung, wie KI-Ethik von Unternehmen übernommen wird.

Neben der Anwendung von KI-Ethikregeln im Allgemeinen stellt sich die entsprechende Frage, ob wir Gesetze haben sollten, die verschiedene Verwendungen von KI regeln. Auf Bundes-, Landes- und lokaler Ebene werden neue Gesetze verbreitet, die den Umfang und die Art der Gestaltung von KI betreffen. Der Versuch, solche Gesetze zu entwerfen und zu erlassen, erfolgt schrittweise. Die KI-Ethik dient zumindest als wohlüberlegte Notlösung und wird mit ziemlicher Sicherheit bis zu einem gewissen Grad direkt in diese neuen Gesetze aufgenommen.

Beachten Sie, dass einige vehement argumentieren, dass wir keine neuen Gesetze brauchen, die KI abdecken, und dass unsere bestehenden Gesetze ausreichen. Sie warnen davor, dass wir, wenn wir einige dieser KI-Gesetze erlassen, die goldene Gans töten werden, indem wir gegen Fortschritte in der KI vorgehen, die immense gesellschaftliche Vorteile bieten. Siehe zum Beispiel meine Berichterstattung unter den Link hier.

In früheren Kolumnen habe ich die verschiedenen nationalen und internationalen Bemühungen zur Ausarbeitung und Verabschiedung von Gesetzen zur Regulierung von KI behandelt, siehe den Link hier, zum Beispiel. Ich habe auch die verschiedenen Prinzipien und Richtlinien der KI-Ethik behandelt, die verschiedene Nationen identifiziert und angenommen haben, darunter zum Beispiel die Bemühungen der Vereinten Nationen wie die UNESCO-Reihe der KI-Ethik, die fast 200 Länder angenommen haben, siehe den Link hier.

Hier ist eine hilfreiche Keystone-Liste von ethischen KI-Kriterien oder Merkmalen in Bezug auf KI-Systeme, die ich zuvor eingehend untersucht habe:

  • Transparenz
  • Gerechtigkeit & Fairness
  • Nicht-Maleficence
  • Verantwortung
  • Datenschutz
  • Wohltätigkeit
  • Freiheit & Autonomie
  • Vertrauen
  • Nachhaltigkeit
  • Würde
  • Solidarität

Diese Prinzipien der KI-Ethik sollten ernsthaft von KI-Entwicklern angewendet werden, zusammen mit denen, die KI-Entwicklungsbemühungen verwalten, und sogar von denen, die letztendlich KI-Systeme einsetzen und warten. Alle Beteiligten während des gesamten KI-Lebenszyklus der Entwicklung und Nutzung werden im Rahmen der Einhaltung der etablierten Normen der ethischen KI berücksichtigt. Dies ist ein wichtiges Highlight, da die übliche Annahme ist, dass „nur Programmierer“ oder diejenigen, die die KI programmieren, den Grundsätzen der KI-Ethik unterliegen. Wie bereits hier betont, braucht es ein Dorf, um KI zu entwickeln und einzusetzen, und dafür muss das gesamte Dorf mit den KI-Ethikvorschriften vertraut sein und sich an diese halten.

Lassen Sie uns die Dinge auf dem Boden der Tatsachen halten und uns auf die heutige nicht-empfindungsfähige KI konzentrieren.

ML/DL ist eine Form des computergestützten Musterabgleichs. Der übliche Ansatz besteht darin, dass Sie Daten zu einer Entscheidungsaufgabe zusammenstellen. Sie speisen die Daten in die ML/DL-Computermodelle ein. Diese Modelle versuchen, mathematische Muster zu finden. Nachdem solche Muster gefunden wurden, verwendet das KI-System diese Muster, wenn es auf neue Daten stößt. Bei der Präsentation neuer Daten werden die auf den „alten“ oder historischen Daten basierenden Muster angewendet, um eine aktuelle Entscheidung zu treffen.

Ich denke, Sie können sich vorstellen, wohin das führt. Wenn Menschen, die die nach dem Muster getroffenen Entscheidungen getroffen haben, ungünstige Vorurteile eingebaut haben, stehen die Chancen gut, dass die Daten dies auf subtile, aber signifikante Weise widerspiegeln. Machine Learning oder Deep Learning Computational Pattern Matching versucht einfach, die Daten entsprechend mathematisch nachzuahmen. Es gibt keinen Anschein von gesundem Menschenverstand oder anderen empfindungsfähigen Aspekten der von KI erstellten Modellierung per se.

Darüber hinaus erkennen die KI-Entwickler möglicherweise auch nicht, was vor sich geht. Die obskure Mathematik in der ML/DL könnte es schwierig machen, die jetzt verborgenen Vorurteile aufzuspüren. Sie würden zu Recht hoffen und erwarten, dass die KI-Entwickler auf die potenziell vergrabenen Vorurteile testen würden, obwohl dies schwieriger ist, als es scheinen mag. Es besteht eine solide Chance, dass selbst bei relativ umfangreichen Tests immer noch Verzerrungen in den Mustererkennungsmodellen der ML/DL eingebettet sind.

Sie könnten das berühmte oder berüchtigte Sprichwort von Garbage-in-Garbage-out verwenden. Die Sache ist die, dass dies eher Vorurteilen ähnelt, die heimtückisch als Vorurteile in die KI einfließen. Die algorithmische Entscheidungsfindung (ADM) der KI wird zwangsläufig mit Ungerechtigkeiten beladen.

Nicht gut.

Ich glaube, dass ich jetzt die Voraussetzungen dafür geschaffen habe, die Rolle der KI in der Rubrik des leisen Aufhörens ausreichend zu diskutieren.

KI, die bei der Entscheidungsfindung bei der Beschäftigung verwendet wird

Das New Yorker Gesetz konzentriert sich auf das Thema der arbeitsrechtlichen Entscheidungsfindung.

Wenn Sie in letzter Zeit fast überall auf der Welt versucht haben, sich für einen modernen Job zu bewerben, sind Sie wahrscheinlich auf ein KI-basiertes Element im Entscheidungsprozess bei der Einstellung gestoßen. Natürlich wissen Sie vielleicht nicht, dass es da ist, da es hinter den Kulissen versteckt sein könnte und Sie keine Möglichkeit hätten, zu erkennen, dass ein KI-System beteiligt war.

Ein gängiges Schlagwort für diese KI-Systeme ist, dass sie berücksichtigt werden Automatisierte Tools für Beschäftigungsentscheidungen, abgekürzt als AEDT.

Sehen wir uns an, wie das NYC-Gesetz diese Tools oder Apps definiert, die Entscheidungen über die Beschäftigung beinhalten:

  • „Der Begriff ‚automatisiertes Tool zur Einstellungsentscheidung‘ bezeichnet jeden Rechenprozess, der aus maschinellem Lernen, statistischer Modellierung, Datenanalyse oder künstlicher Intelligenz abgeleitet ist und eine vereinfachte Ausgabe ausgibt, einschließlich einer Punktzahl, Klassifizierung oder Empfehlung, die verwendet wird, um wesentlich zu helfen oder ersetzen Ermessensentscheidungen für Beschäftigungsentscheidungen, die sich auf natürliche Personen auswirken. Der Begriff „automatisiertes Tool zur Einstellungsentscheidung“ umfasst kein Tool, das diskretionäre Entscheidungsprozesse nicht automatisiert, unterstützt, wesentlich unterstützt oder ersetzt und das natürliche Personen nicht wesentlich beeinträchtigt, einschließlich, aber nicht beschränkt auf einen Junk-E-Mail-Filter, Firewall, Antivirensoftware, Taschenrechner, Tabellenkalkulation, Datenbank, Datensatz oder andere Zusammenstellung von Daten“ (NYC, Int 1894-2020, Unterkapitel 25, Abschnitt 20-870).

Ich gehe kurz auf diese Formulierung ein, da sie für die gesamte Natur und Reichweite des Gesetzes von entscheidender Bedeutung ist.

Erstens besteht, wie ich schon oft in meinen Schriften festgestellt habe, eine der schwierigsten Hürden beim Schreiben von Gesetzen über KI darin, zu versuchen, angemessen zu definieren, was KI bedeutet. Es gibt keinen einheitlichen, allgemein vereinbarten rechtlich kugelsicheren Standard, auf den alle gelandet sind. Es gibt alle Arten von Definitionen. Manche sind hilfreich, manche nicht. Siehe meine Analysen unter den Link hier.

Sie könnten versucht sein zu glauben, dass es nicht besonders wichtig ist, wie wir KI definieren. Sorry, aber da liegst du falsch.

Das Problem ist, dass, wenn die KI-Definition in einem bestimmten Gesetz vage spezifiziert ist, es denjenigen, die KI entwickeln, erlaubt, das Gesetz zu umgehen, indem sie scheinbar behaupten, dass ihre Software oder ihr System nicht KI-infundiert ist. Sie würden mit großer Kühnheit argumentieren, dass das Gesetz nicht für ihre Software gilt. Ebenso könnte jemand, der die Software verwendet, behaupten, dass das Gesetz ihn nicht betrifft, weil die Software oder das System, das er verwendet, nicht unter die im Gesetz festgelegte KI-Definition fällt.

Menschen sind so knifflig.

Eine der schlauesten Methoden, um zu vermeiden, dass Sie von einem Gesetz, das Sie nicht befürworten, erschlagen werden, besteht darin, zu behaupten, dass das Gesetz für Sie nicht gilt. In diesem Fall würden Sie versuchen, die Definition von AEDT stückweise auseinanderzunehmen. Ihr Ziel, vorausgesetzt, Sie möchten nicht, dass das Gesetz auf Ihrem Rücken ist, wäre es, rechtlich zu argumentieren, dass die im Gesetz gegebene Definition dessen, was Ihr beschäftigungsbezogenes Computersystem ist oder tut, falsch ist.

Ein solches Gesetz kann durch bewusste Aufnahme von Ausschlussbestimmungen in die Definition sowohl unterstützt als auch bisweilen unterlaufen werden.

Schauen Sie sich noch einmal die Definition von AEDT an, wie sie in diesem Gesetz angegeben ist. Sie haben hoffentlich festgestellt, dass es eine Ausschlussklausel gibt, die besagt: „… enthält kein Tool, das diskretionäre Entscheidungsprozesse nicht automatisiert, unterstützt, wesentlich unterstützt oder ersetzt und das natürliche Personen nicht wesentlich beeinflusst…“.

Einerseits ist die Grundlage für die Einbeziehung eines solchen Ausschlusses ausgesprochen hilfreich.

Es scheint (aus meiner Sicht als Laie) darauf hinzudeuten, dass das AEDT einen bestimmten Zweck erfüllen und auf substanzielle Weise verwendet werden muss. Wenn das AEDT, sagen wir oberflächlich oder peripher ist, und wenn die Einstellungsentscheidung immer noch eher von Menschenhand gemacht wird, sollte das verwendete Softwaresystem vielleicht nicht als AEDT ausgelegt werden. Auch wenn die Software oder das System natürliche Personen (Menschen) nicht „materiell“ beeinflusst, dann scheint es nicht sinnvoll, die Füße sozusagen ins Feuer zu halten.

Vernünftigerweise möchten Sie nicht, dass ein Gesetz seinen Geltungsbereich übertreibt und alles verschlingt, einschließlich der Küchenspüle. Dies ist im Wesentlichen unfair und belastend für diejenigen, die das Gesetz nicht umfassen sollte. Sie können sich in einem Morast verfangen, der sich wie eines dieser allumfassenden Fischnetze verhält. Vermutlich sollten unsere Gesetze darauf achten, Unschuldige nicht in den Anwendungsbereich des Gesetzes zu ziehen.

Alles ist schön und gut.

Ein versierter Anwalt muss erkennen, dass eine Ausschlussklausel eine Art legaler Ausstiegsausweis sein kann (nebenbei sieht dieses spezielle Gesetz zivilrechtliche Strafen vor, keine strafrechtlichen Strafen, also die Raus aus dem Gefängnis Bemerkung ist nur metaphorisch und für würzige Schlagkraft). Wenn jemand behaupten würde, dass ein Unternehmen einen AEDT in der Arbeitsverwaltung verwendet, wäre eine der ersten Möglichkeiten, diese Behauptung zu widerlegen, zu argumentieren, dass der sogenannte AEDT tatsächlich im Bereich der Ausgrenzung liege. Sie könnten versuchen zu zeigen, dass die sogenannte AEDT dies nicht tut automatisieren die Einstellungsentscheidung, oder nicht Support die Einstellungsentscheidung, oder nicht wesentlich unterstützen or ersetzen diskretionäre Entscheidungsprozesse.

Sie können dann den verschlungenen Weg gehen, herauszufinden, was die Wörter „automatisieren“, „unterstützen“, „im Wesentlichen unterstützen“ oder „ersetzen“ in diesem Zusammenhang bedeuten. Es ist ein ziemlich praktischer legaler Kaninchenbau. Es könnte zwingend argumentiert werden, dass die Software oder das System, das angeblich ein AEDT ist, Teil der ausschließenden Indikationen ist. Daher kein Schaden, kein Foul in Bezug auf dieses besondere Gesetz.

Offensichtlich sollten zugelassene Anwälte für solche Angelegenheiten konsultiert werden (hier wird kein Anschein von Rechtsberatung angegeben, und dies ist ausschließlich die Ansicht eines Laien).

Mein Punkt hier ist, dass es in diesem neuen Gesetz Spielraum geben wird. Der Spielraum wird es einigen Arbeitgebern, die wirklich ein AEDT verwenden, ermöglichen, vielleicht eine Lücke zu finden, um die AEDT-Nutzung zu umgehen. Die andere Seite dieser Medaille ist, dass es möglicherweise Firmen gibt, die nicht wirklich ein AEDT verwenden, die von diesem Gesetz verstrickt werden. Es könnte behauptet werden, dass das, was sie verwendet haben, tatsächlich ein AEDT war, und sie müssen ein Mittel finden, um nachzuweisen, dass ihre Software oder Systeme nicht unter das AEDT fallen und unter die Ausschlussbestimmung fallen.

Wir können diese kühne Vorhersage machen:

  • Es wird zweifellos Arbeitgeber geben, die wissentlich ein AEDT verwenden, das möglicherweise versuchen wird, sich ihrer gesetzlichen Verantwortung zu entziehen.
  • Es wird unweigerlich Arbeitgeber geben, die kein AEDT verwenden und sich in Behauptungen verzetteln, dass sie ein AEDT verwenden, was sie dazu zwingt, „zusätzliche“ Anstrengungen zu unternehmen, um zu zeigen, dass sie kein AEDT verwenden.

Ich werde diese zahlreichen Permutationen und Kombinationen weiter erläutern, wenn wir in dieser Diskussion weiter vorankommen. Wir haben viel mehr Boden zu betreten.

Die Verwendung eines AEDT per se ist nicht der Teil dieses Problems, der Anlass zu demonstrativen Bedenken gibt, es ist die Art und Weise, wie das AEDT seine Handlungen durchführt, die den rechtlichen Zorn zum Fließen bringt. Der springende Punkt ist, dass Sie sich, wenn der AEDT auch zufällig Vorurteile in Bezug auf die Entscheidungsfindung bei der Beschäftigung einführt, in potenziell heißem Wasser befinden (na ja, irgendwie).

Wie können wir wissen, ob ein AEDT tatsächlich KI-beladene Vorurteile in eine Entscheidungsfindung einführt?

Die Antwort nach diesem Gesetz lautet, dass ein KI-Audit durchzuführen ist.

Ich habe früher und oft über die Art von KI-Audits und deren Bedeutung gesprochen, zusammen mit bestehenden Nachteilen und schlecht definierten Facetten, wie z den Link hier und den Link hier, neben vielen anderen ähnlichen Beiträgen. Einfach gesagt, die Vorstellung ist, dass Sie, genau wie Sie eine Finanzprüfung einer Firma oder eine Technologieprüfung in Bezug auf ein Computersystem durchführen, eine Prüfung eines KI-Systems durchführen können. Mit spezialisierten Prüfungstechniken, -werkzeugen und -methoden untersuchen und bewerten Sie, woraus ein KI-System besteht, und versuchen beispielsweise festzustellen, ob es Verzerrungen der einen oder anderen Art enthält.

Dies ist ein aufkeimender Bereich der Aufmerksamkeit.

Sie können davon ausgehen, dass dieser Teilbereich der Prüfung, der sich der KI-Prüfung widmet, weiter wachsen wird. Es ist leicht ersichtlich, dass mit zunehmender Markteinführung von KI-Systemen immer mehr Forderungen nach KI-Audits laut werden. Neue Gesetze werden dazu beitragen, dies zu entfachen. Auch ohne diese Gesetze wird es viele KI-Audits geben, da Menschen und Unternehmen behaupten, dass ihnen durch KI Unrecht getan wurde, und versuchen werden, einen konkreten dokumentierten Hinweis darauf zu liefern, dass der Schaden vorhanden war und mit der verwendeten KI zusammenhängt.

KI-Auditoren werden heiß und sehr gefragt sein.

Es kann ein spannender Job sein. Ein vielleicht aufregendes Element besteht darin, in die neueste und beste KI einzutauchen. KI entwickelt sich weiter. Wenn dies geschieht, muss ein scharfsinniger KI-Prüfer auf der Hut sein. Wenn Sie ein Auditor sind, der es satt hat, alltägliche konventionelle Audits durchzuführen, verspricht die aufschlussreiche, immer neue KI-Auditing-Arena (ich sage dies, um das Ansehen von Auditoren teilweise zu erhöhen, da sie oft die unangekündigten Helden sind, die in den Schützengräben arbeiten und werden für ihre Bemühungen eher vernachlässigt).

Abgesehen davon bin ich ein zertifizierter Computersystemprüfer (eine solche Bezeichnung ist die CISA) und habe über viele Jahre hinweg viele Male IT-Prüfungen (Informationstechnologie) durchgeführt, einschließlich KI-Prüfungen. Meistens bekommt man für solche Bemühungen nicht die verdiente Anerkennung. Sie können wahrscheinlich erraten, warum. Im Großen und Ganzen neigen Auditoren dazu, Dinge zu finden, die falsch oder kaputt sind. In diesem Sinne sind sie sehr hilfreich, obwohl dies von einigen als schlechte Nachricht wahrgenommen werden kann und der Überbringer schlechter Nachrichten normalerweise nicht besonders auf ein Podest gestellt wird.

Zurück zum eigentlichen Thema.

In Bezug auf das NYC-Gesetz sagt das Gesetz Folgendes über KI-Prüfung und den Versuch, KI-Vorurteile aufzudecken:

  • „Der Begriff „Bias-Audit“ bedeutet eine unparteiische Bewertung durch einen unabhängigen Wirtschaftsprüfer. Ein solches Bias-Audit umfasst, ist aber nicht beschränkt auf das Testen eines automatisierten Instruments zur Einstellungsentscheidung, um die unterschiedlichen Auswirkungen des Instruments auf Personen jeder Kategorie von Komponente 1 zu bewerten, die von Arbeitgebern gemäß Unterabschnitt (c) von Abschnitt 2000e-8 des Titels gemeldet werden müssen 42 des United States Code, wie in Teil 1602.7 von Titel 29 des Code of Federal Regulations angegeben“ (NYC, Int 1894-2020, Unterkapitel 25, Abschnitt 20-870).

Als Zusammenfassung, hier sind wir bisher beim Auspacken dieses Gesetzes:

  • Das Gesetz umfasst automatisierte Instrumente zur Beschäftigungsentscheidung (AEDT)
  • Eine Art Definition ist enthalten, um zu identifizieren, was ein AEDT ist
  • Die Definition von AEDT erwähnt auch Ausschlussbestimmungen
  • Der Kern ist, dass das Gesetz KI-Vorurteile in AEDT aufdecken will
  • Um herauszufinden, ob KI-Vorurteile vorliegen, muss ein KI-Audit durchgeführt werden
  • Das KI-Audit wird vermutlich alle KI-Vorurteile bekannt machen

Als nächstes können wir uns ein bisschen mehr mit dem Gesetz befassen.

So besteht eine Einstellungsentscheidung:

  • „Der Begriff ‚Beschäftigungsentscheidung‘ bedeutet, Kandidaten für eine Anstellung oder Mitarbeiter für eine Beförderung innerhalb der Stadt zu prüfen“ (NYC, Int 1894-2020, Unterkapitel 25, Abschnitt 20-870).

Beachten Sie, dass der Begrenzungsaspekt von „der Stadt“ darauf hindeutet, dass sich die Angelegenheit nur auf beschäftigungsbezogene Umstände in NYC bezieht. Es ist auch erwähnenswert, dass eine Einstellungsentscheidung im Sinne der Definition ein Screening von Kandidaten beinhaltet, was die übliche Konnotation dessen ist, was wir unter einer Einstellungsentscheidung verstehen, und dazu gehören auch Beförderungen.

Dies ist ein Doppelschlag in dem Sinne, dass Unternehmen erkennen müssen, dass sie den Überblick darüber behalten müssen, wie ihr AEDT (falls sie eines verwenden) für die anfänglichen Beschäftigungseinstellungen und auch bei der Beförderung innerhalb des Unternehmens verwendet wird. Sie können wahrscheinlich vermuten oder davon ausgehen, dass viele Unternehmen sich des Werbeelements, das auch in dieser Rubrik enthalten ist, nicht ganz bewusst sind. Sie werden dieses zusätzliche Konstrukt unweigerlich auf eigene Gefahr übersehen.

Ich werde als nächstes einen zusätzlichen Schlüsselauszug des Gesetzes liefern, um das Wesen dessen zu beleuchten, was von diesem Gesetz als rechtswidrig ausgelegt wird:

  • „Anforderungen an automatisierte Instrumente zur Einstellungsentscheidung. a. In der Stadt ist es für einen Arbeitgeber oder eine Arbeitsvermittlung rechtswidrig, ein automatisiertes Tool zur Einstellungsentscheidung zu verwenden, um einen Kandidaten oder Arbeitnehmer auf eine Einstellungsentscheidung hin zu überprüfen, es sei denn: 1. Dieses Tool war Gegenstand einer Befangenheitsprüfung, die höchstens durchgeführt wurde ein Jahr vor der Verwendung eines solchen Tools; und 2. eine Zusammenfassung der Ergebnisse der letzten Befangenheitsprüfung eines solchen Tools sowie das Verteilungsdatum des Tools, auf das sich diese Prüfung bezieht, vor der Verwendung auf der Website des Arbeitgebers oder der Arbeitsagentur öffentlich zugänglich gemacht wurde such tool…“ (NYC, Int 1894-2020, Unterkapitel 25, Abschnitt 20-871). Es gibt zusätzliche Unterabschnitte, die Sie sich vielleicht ansehen sollten, wenn Sie sich sehr für den Gesetzestext interessieren.

Skeptiker und Kritiker haben argumentiert, dass dies in Bezug auf die rechtswidrige Aktivität, die aufgerufen wird, etwas lauwarm erscheint.

Sie sagen, dass sich das Gesetz nur eng und minimal darauf konzentriert Leitung ein KI-Audit und Bekanntmachung die Ergebnisse, und nicht darauf, ob das KI-Audit KI-Voreingenommenheit entdeckt hat und welche Auswirkungen dies auf das Treffen von Beschäftigungsentscheidungen hatte, die in den Anwendungsbereich dieses Gesetzes fallen. Im Wesentlichen ist es offensichtlich rechtswidrig nicht sich für die Durchführung eines solchen KI-Audits entscheiden (falls zutreffend, wie zuvor besprochen), außerdem ist es in diesem Fall auch rechtswidrig, wenn Sie das KI-Audit durchführen, es aber tun nicht publiziere es.

Das Gesetz scheint zu der Frage, ob KI-Vorurteile erkannt wurden und vorhanden sind oder nicht, zu schweigen. Ebenso Schweigen darüber, ob die KI-Voreingenommenheit jemanden beeinflusst hat, der mit einer herausragenden Aktivität zur Entscheidungsfindung im Zusammenhang mit der Beschäftigung zu tun hat. Der Schlüssel liegt darin, scheinbar einfach „nur“ ein KI-Audit durchzuführen und darüber zu berichten.

Geht dieses Gesetz nicht weit genug?

Ein Teil des Gegenarguments für die Behauptung, dass dies in Bezug auf die Reichweite oder den Umfang dessen, was dieses Gesetz umfasst, scheinbar zufriedenstellend ist, ist, dass, wenn ein KI-Audit KI-Vorurteile findet und wenn diese KI-Vorurteile an bestimmte Instanzen der Entscheidungsfindung im Beschäftigungsbereich gebunden sind, die Person oder Personen, die so geschädigt wurden, den Arbeitgeber unter verfolgen könnten Sonstiges Rechtsvorschriften. Daher besteht keine Notwendigkeit, diesen Aspekt in dieses spezielle Gesetz aufzunehmen.

Angeblich soll dieses Gesetz solche Dinge ans Licht bringen.

Sobald diese unangemessenen Praktiken ans Tageslicht kommen, können alle möglichen anderen rechtlichen Wege beschritten werden, wenn KI-Vorurteile vorhanden sind und sich auf die Menschen auswirken. Ohne dieses Gesetz wird argumentiert, dass diejenigen, die AEDT verwenden, dies tun würden, während sie möglicherweise Amok laufen und möglicherweise Tonnen von KI-Vorurteilen haben, von denen diejenigen, die eine Anstellung oder eine Beförderung suchen, nicht wissen würden, dass sie stattfinden.

Bring sie an die Oberfläche. Lass sie erzählen. Geh unter die Haube. Sehen Sie, was in diesem Motor steckt. Das ist das Mantra in diesem Fall. Aus diesem Auftauchen und Erzählen können zusätzliche Aktionen unternommen werden.

Abgesehen von der Einleitung rechtlicher Schritte aufgrund der Aufhellung, dass ein KI-Audit möglicherweise gemeldet hat, dass KI-Vorurteile vorhanden waren, besteht auch die Überzeugung, dass die Veröffentlichung dieser Ergebnisse Auswirkungen auf den Ruf haben wird. Arbeitgeber, von denen gezeigt wird, dass sie AEDTs verwenden, die KI-voreingenommen sind, werden wahrscheinlich gesellschaftlichen Zorn erleiden, beispielsweise über soziale Medien und dergleichen. Sie werden wegen ihrer bösen Taten entlarvt und beschämt, ihr Verhalten zu korrigieren, und sie könnten auch von Menschen beraubt werden, die dort arbeiten wollen, weil sie Bedenken haben, dass KI-Vorurteile die Einstellung oder die Usurpation von Beförderungen verhindern.

Die angegebenen Strafen im Zusammenhang mit der Rechtswidrigkeit sind folgende:

  • „Strafen. a. Jede Person, die gegen eine Bestimmung dieses Unterkapitels oder eine gemäß diesem Unterkapitel erlassene Regel verstößt, haftet für einen ersten Verstoß und jeden weiteren Verstoß, der am selben Tag wie der erste Verstoß auftritt, mit einer zivilrechtlichen Strafe von nicht mehr als 500 US-Dollar und nicht weniger als 500 $ und nicht mehr als 1,500 $ für jeden weiteren Verstoß“ (NYC, Int 1894-2020, Unterkapitel 25, Abschnitt 20-872). Es gibt zusätzliche Unterabschnitte, die Sie sich vielleicht ansehen sollten, wenn Sie sich sehr für den Gesetzestext interessieren.

Skeptiker und Kritiker halten die Strafen für nicht hart genug. Eine große Firma würde angeblich über die damit verbundenen winzigen Geldbußen spotten oder lachen. Andere weisen darauf hin, dass die Geldstrafe am Ende mehr sein könnte, als man denkt, so dass, wenn eine Firma jeden Tag Verstöße in Höhe von tausend Dollar hätte (nur ein Szenario, es gibt viele andere Szenarien), ein Jahr Wert wäre 365,000 US-Dollar, vorausgesetzt, die Firma hat das Gesetz ein ganzes Jahr lang einfach ignoriert und ist damit davongekommen (scheint schwer vorstellbar, könnte aber passieren und könnte theoretisch sogar länger oder für einen höheren Höhepunkt täglicher Geldstrafen auftreten).

Unterdessen machen sich einige Sorgen um kleinere Unternehmen und die damit verbundenen Bußgelder. Wenn ein kleines Unternehmen, das kaum über die Runden kommt, von den Bußgeldern getroffen wird, und dies angeblich nicht durch eine bewusste Motivation zur Gesetzesumgehung geschah, könnten die Bußgelder sein schwankendes Geschäft erheblich beeinträchtigen.

Die problematischen Überlegungen zu Keystone

Ich habe eine einfache und einfache Frage an Sie.

Was genau macht im Kontext dieses Gesetzes ein KI-Audit aus?

Problematischerweise gibt es in der Erzählung des Gesetzes keinen endgültigen Hinweis. Alles, was uns anscheinend gesagt wird, ist, dass die „Befangenheitsprüfung“ durch „eine unparteiische Bewertung durch einen unabhängigen Prüfer“ (gemäß dem Wortlaut des Gesetzes) durchgeführt werden soll.

Sie können einen Mac-Truck durch dieses klaffende Loch fahren.

Hier ist der Grund.

Betrachten Sie dieses ziemlich beunruhigende Beispiel. Ein Betrüger kontaktiert eine Firma in NYC und erklärt, dass sie einen Service anbieten, bei dem sie ein sogenanntes „Bias Audit“ ihres AEDT durchführen. Sie versprechen, dass sie dies „unparteiisch“ tun werden (was auch immer das bedeutet). Sie stellen sich als unabhängige Prüfer dar, und sie haben sich selbst als einen gesalbt. Keine Notwendigkeit für Buchhaltungs- oder Wirtschaftsprüfungsschulungen, Abschlüsse, Zertifizierungen oder ähnliches. Vielleicht machen sie sich die Mühe, ein paar Visitenkarten zu drucken oder hastig eine Website einzurichten, die ihre Stellung als unabhängiger Wirtschaftsprüfer anpreist.

Sie werden der Firma eine bescheidene Gebühr von sagen wir 100 Dollar in Rechnung stellen. Ihr Dienst besteht darin, vielleicht ein paar Fragen zum AEDT zu stellen und dann zu verkünden, dass der AEDT frei von Vorurteilen ist. Anschließend schicken sie einen einseitigen Bericht, in dem die „Ergebnisse“ des sogenannten Audits deklariert werden. Die Kanzlei veröffentlicht dies pflichtgemäß auf ihrer Website.

Hat sich die Firma an dieses Gesetz gehalten?

Du sagst es mir.

Anscheinend haben sie es.

Sie könnten sofort überrascht sein, dass die Prüfung nur oberflächlich durchgeführt wurde (das ist in diesem speziellen Szenario höflich und großzügig). Sie könnten beunruhigt sein, dass die Bias-Erkennung (oder deren Fehlen) möglicherweise im Wesentlichen vorbestimmt war (voila, Sie scheinen frei von Bias zu sein). Sie könnten sich darüber ärgern, dass die veröffentlichten Ergebnisse den Anschein erwecken könnten, ein strenges Audit durch einen seriösen, erfahrenen, geschulten, erfahrenen und zertifizierten Auditor bestanden zu haben.

Ja, das bedeutet, die Dinge zu vergrößern.

Ein Arbeitgeber könnte erleichtert sein, dass er diese „dumme“ Anforderung erfüllt hat, und verdammt glücklich sein, dass es ihn nur schlappe 100 Dollar gekostet hat. Der Arbeitgeber könnte intern und stillschweigend erkennen, dass die unabhängige Prüfung eine Scharade war, aber das zu entscheiden scheint nicht auf seinen Schultern zu liegen. Ihnen wurde ein behaupteter unabhängiger Wirtschaftsprüfer vorgestellt, der Wirtschaftsprüfer hat die Arbeit durchgeführt, die der Wirtschaftsprüfer als konform bezeichnet hat, die Firma hat dafür bezahlt, sie haben die Ergebnisse erhalten und sie haben die Ergebnisse veröffentlicht.

Einige Arbeitgeber werden dies tun und erkennen, dass sie augenzwinkernd das Gesetz einhalten. Nichtsdestotrotz werden sie glauben, dass sie vollständig konform sind.

Andere Arbeitgeber könnten betrogen werden. Alles, was sie wissen, ist die Notwendigkeit, das Gesetz einzuhalten. Zum Glück für sie (so nehmen sie zumindest an) kontaktiert sie ein „unabhängiger Prüfer“ und verspricht, dass eine Beschwerdeprüfung und ein Ergebnis für 100 US-Dollar zu haben sind. Um die tägliche Geldstrafe von 500 Dollar oder mehr zu vermeiden, glaubt die Firma, dass sie ein Geschenk des Himmels erhalten hat. Sie zahlen die 100 Dollar, das „Audit“ findet statt, sie erhalten ein kostenloses Gesundheitszeugnis bezüglich ihrer fehlenden KI-Voreingenommenheit, sie posten die Ergebnisse und vergessen dies bis zum nächsten Mal, wenn sie ein weiteres solches Audit durchführen müssen .

Woher soll jede Firma in NYC, die diesem Gesetz unterliegt, wissen, was eine ehrliche Einhaltung des Gesetzes ist?

Falls Ihnen nicht schon etwas der Magen umdreht, können wir alles noch schlimmer machen. Ich hoffe, Sie haben in den letzten Stunden nichts gegessen, da es schwierig sein wird, die nächste Wendung intakt zu halten.

Sind Sie bereit?

Dieser Schein-Dienstleister entpuppt sich mehr als ein Shammer, als Sie vielleicht gedacht haben. Sie bringen die Firma dazu, sich für den 100-Dollar-Service anzumelden, um die unparteiische Voreingenommenheitsprüfung als unabhängiger Wirtschaftsprüfer durchzuführen. Und siehe da, sie machen das „Audit“ und entdecken, dass es Vorurteile in allen Ecken und Enden des AEDT gibt.

Sie haben KI-Vorurteile wie einen Kakerlakenbefall.

Huch, sagt die Firma, was können wir dagegen tun?

Kein Problem, wird ihnen gesagt, wir können diese KI-Vorurteile für Sie beheben. Es kostet Sie nur 50 US-Dollar pro gefundener Abweichung. Okay, sagt die Firma, bitte reparieren Sie sie, danke dafür. Der Dienstleister macht ein bisschen Programmiergeschwätz und teilt der Firma mit, dass er einhundert KI-Fehler korrigiert hat und ihnen daher 5,000 US-Dollar in Rechnung stellen wird (das sind 50 USD pro zu behebendem KI-Fehler, multipliziert mit den 100 gefundenen).

Autsch, die Firma fühlt sich eingeklemmt, aber es ist immer noch besser, als sich dem Verstoß von 500 $ oder mehr pro Tag zu stellen, also zahlen sie den „unabhängigen Wirtschaftsprüfer“ und erhalten dann einen neuen Bericht, der zeigt, dass sie jetzt frei von Vorurteilen sind. Sie veröffentlichen dies stolz auf ihrer Website.

Sie wissen nicht, dass dies eine Boondoggle, ein Schwindel, ein Betrug war.

Sie könnten darauf bestehen, dass dieser Dienstleister für seine Trickserei bestraft wird. Diese Betrüger zu fangen und zu stoppen, wird viel schwieriger sein, als Sie sich vorstellen können. Genauso wie die Jagd auf ausländische Prinzen, die ein Vermögen für Sie haben, sich wahrscheinlich in einem fremden Land befindet, das außerhalb der Reichweite des US-Rechts liegt, könnte das Gleiche auch in diesem Fall passieren.

Erwarten Sie, dass aufgrund dieses neuen Gesetzes eine Heimindustrie entsteht.

Es wird gutgläubige Wirtschaftsprüfer geben, die versuchen, diese Dienstleistungen zu erbringen. Gut für sie. Es wird lückenhafte Auditoren geben, die dieser Arbeit nachgehen. Es wird fälschlicherweise verkündete Auditoren geben, die dieser Arbeit nachgehen.

Ich erwähnte, dass das Serviceanbieter-Szenario darin bestand, 100 US-Dollar für die Durchführung des sogenannten KI-Audits zu verlangen. Das war nur ein erfundener Platzhalter. Vielleicht verlangen einige 10 US-Dollar (scheint skizzenhaft). Vielleicht etwa 50 Dollar (immer noch lückenhaft). Usw.

Angenommen, ein Dienstleister sagt, dass die Ausführung der Arbeit 10,000 US-Dollar kosten wird.

Oder 100,000 Dollar dafür.

Möglicherweise 1,000,000 $ dafür.

Einige Arbeitgeber haben keine Ahnung, wie viel dies kosten könnte oder sollte. Die Vermarktung dieser Dienste wird kostenlos sein. Dies ist ein Gesetz zum Geldverdienen für diejenigen, die diese Dienstleistungen rechtmäßig erbringen, und ein Geldverdiener für diejenigen, die dabei auch hinterhältig sind. Es wird schwer zu wissen, was was ist.

Ich bitte Sie auch, über ein weiteres klaffendes Loch nachzudenken.

Was genau stellt im Kontext dieses Gesetzes eine KI-Voreingenommenheit dar?

Abgesehen von der Erwähnung des United States Code of Federal Regulations (dies beantwortet die Frage der KI-Voreingenommenheit nicht besonders und dient daher nicht als Notbehelf oder Lösungsansatz in dieser Angelegenheit), würden Sie sich schwer tun, dies neu zu behaupten Das Gesetz gibt keinen substanziellen Hinweis darauf, was KI-Vorurteile sind. Auch dies wird völlig unterschiedlichen Interpretationen unterliegen, und Sie werden nicht genau wissen, wonach gesucht, was gefunden wurde und so weiter. Außerdem wird die Arbeit, die selbst von echten KI-Prüfern geleistet wird, mit ziemlicher Wahrscheinlichkeit nicht mit einer anderen vergleichbar sein, sodass jeder dazu neigen wird, seine proprietären Definitionen und Ansätze zu verwenden.

Kurz gesagt, wir können mit Besorgnis und Besorgnis beobachten, was Arbeitgeber als Ergebnis dieses locker formulierten, aber gut gemeinten Gesetzes erleben werden:

  • Einige Arbeitgeber werden über das Gesetz Bescheid wissen und sich ernsthaft und vollständig nach besten Kräften daran halten
  • Einige Arbeitgeber werden über das Gesetz Bescheid wissen und den schmalsten, billigsten und möglicherweise unappetitlichsten Weg einhalten, den sie finden können oder der vor ihre Haustür führt
  • Einige Arbeitgeber werden über das Gesetz Bescheid wissen und glauben, dass sie nicht in den Geltungsbereich des Gesetzes fallen, also werden sie nichts dagegen unternehmen (obwohl sich herausstellt, dass sie möglicherweise in den Geltungsbereich fallen).
  • Einige Arbeitgeber werden über das Gesetz Bescheid wissen und sich rundweg dafür entscheiden, es zu ignorieren, vielleicht in dem Glauben, dass niemand es bemerken wird oder dass das Gesetz nicht durchgesetzt wird oder dass das Gesetz für nicht durchsetzbar befunden wird usw.
  • Einige Arbeitgeber wissen nichts über das Gesetz und werden auf dem falschen Fuß erwischt, wenn sie versuchen, sich daran zu halten
  • Einige Arbeitgeber kennen das Gesetz nicht und werden kläglich von Betrügern geschröpft
  • Einige Arbeitgeber wissen nichts über das Gesetz, sie fallen nicht in den Anwendungsbereich, aber sie werden trotzdem von Betrügern geschröpft, die sie davon überzeugen, dass sie in den Anwendungsbereich fallen
  • Einige Arbeitgeber wissen nichts über das Gesetz und werden nichts dagegen unternehmen, während sie auf wundersame Weise nie wegen ihres Versehens erwischt oder gedingt werden
  • Andere

Eine wichtige Überlegung, die man im Hinterkopf behalten sollte, ist die Größenordnung oder Skalierung, die mit diesem neuen Gesetz verbunden ist.

Laut verschiedenen gemeldeten Statistiken über die Anzahl der Unternehmen in New York City wird die Zahl normalerweise mit etwa 200,000 Unternehmen angegeben (verwenden wir das als Größenordnung). Unter der Annahme, dass dies eine vernünftige Annäherung ist, unterliegen vermutlich diese Unternehmen als Arbeitgeber diesem neuen Gesetz. Nehmen Sie also die oben genannten verschiedenen Möglichkeiten, wie Arbeitgeber auf dieses Gesetz reagieren werden, und überlegen Sie, wie viele in jedem der verschiedenen Eimer, die ich gerade erwähnt habe, sein werden.

Es ist ein ziemlich erstaunliches Skalierungsproblem.

Darüber hinaus gibt es laut gemeldeten Statistiken vielleicht 4 Millionen Arbeitsplätze im Privatsektor in New York City, plus eine geschätzte Zahl von etwa 300,000 Regierungsangestellten, die von der Regierung von NYC beschäftigt werden (verwenden Sie diese wiederum eher als Größenordnungen als als genaue Zahlen). Wenn Sie berücksichtigen, dass Neueinstellungen scheinbar in den Geltungsbereich dieses neuen Gesetzes fallen, zusammen mit Beförderungen im Zusammenhang mit all diesen bestehenden und zukünftigen Arbeitnehmern, ist die Anzahl der Mitarbeiter, die auf die eine oder andere Weise von diesem Gesetz betroffen sein werden, offen gesagt erstaunlich .

Der Big Apple hat ein neues Gesetz, das auf den ersten Blick harmlos und scheinbar vernachlässigbar oder banal erscheint, aber wenn Sie die beteiligten Skalierungsfaktoren erkennen, nun, es kann Ihnen den Kopf verdrehen

Fazit

Ich habe zu Beginn dieser Diskussion erwähnt, dass dies ein gut gemeintes neues Gesetz ist.

Alles, was ich gerade als potenzielle Schlupflöcher, Auslassungen, Lücken, Probleme und dergleichen beschrieben habe, könnte leicht vorhergesehen werden. Das ist keine Raketenwissenschaft. Ich möchte hinzufügen, dass dieses Gesetz noch mehr inhärente Bedenken und verwirrende Aspekte enthält, die ich aus Platzgründen hier nicht angesprochen habe.

Sie können sie so leicht finden, wie Sie Fische in einem Fass schießen können.

Gesetze dieser Art sollten sorgfältig ausgearbeitet werden, um zu versuchen, diese Art von hinterhältigen Endrunden zu verhindern. Ich nehme an, dass die ernsthaften Komponisten versuchten, ein Gesetz zu schreiben, von dem sie glaubten, dass es relativ sicher sei und im schlimmsten Fall hier oder da ein paar klitzekleine Tropfen haben würde. Leider ist es ein Feuerwehrschlauch voller Tropfen. Es wird viel Klebeband benötigt.

Hätte das Gesetz ausführlicher formuliert werden können, um diese ziemlich offensichtlichen Schlupflöcher und damit verbundenen Probleme zu schließen?

Ja, reichlich.

Nun, da dies der Fall ist, könnten Sie empört ermahnen, dass ein solches Gesetz zweifellos viel länger dauern würde. Es gibt immer einen Kompromiss zwischen einem Gesetz, das immer weitergeht, unhandlich wird, und einem prägnanten und kompakten Gesetz. Sie möchten jedoch nicht an Prägnanz gewinnen, wenn Sie an inhaltlicher und verdienstvoller Klarheit und Spezifität verlieren. Ein kurzes Gesetz, das Spielereien zulässt, sorgt für Ärger. Ein längeres Gesetz, auch wenn es scheinbar komplexer ist, wäre normalerweise ein würdiger Kompromiss, wenn es nachgelagerte Probleme während der Annahmephase vermeidet, abwendet oder zumindest minimiert.

Der berühmte Ausspruch des heiligen Augustinus: „Mir scheint, ein ungerechtes Gesetz ist überhaupt kein Gesetz.“

Wir könnten eine logische Folgerung liefern, dass ein gerechtes Gesetz, das sich aus problematischer Sprache zusammensetzt, ein Gesetz ist, das danach schreit, unangenehme Probleme zu produzieren. In diesem Fall scheinen uns die weisen Worte des großen Juristen Oliver Wendell Holmes Jr. übrig zu bleiben, nämlich dass eine Seite der Geschichte ein Pfund Logik wert ist.

Seien Sie dabei, wenn bald Geschichte geschrieben wird.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai- Vorurteile-Audits-tritt-in-den-Gang/