Eintauchen in die Aufregung und Fanfare über generative KI-ChatGPT, einschließlich sich abzeichnender KI-Ethik und KI-Gesetzesüberlegungen

Ich vermute, dass Sie inzwischen von lauten Schlagzeilen oder Social-Media-Beiträgen gehört oder vielleicht gesehen haben, die die heißeste und neueste Verwendung von KI ankündigen, die scheinbar von Menschen geschriebene, textorientierte Erzählungen über eine KI-Anwendung namens ChatGPT generiert.

Wenn Sie noch nichts von dieser neuen KI-App gehört oder gelesen haben, machen Sie sich keine Sorgen, ich werde Sie auf den neuesten Stand bringen.

Für diejenigen unter Ihnen, die ChatGPT bereits kennen, könnten Sie einige meiner Insider-Informationen darüber, was es tut, wie es funktioniert und worauf Sie achten sollten, von großem Interesse finden. Alles in allem wird fast jeder, der sich um die Zukunft kümmert, unweigerlich herausfinden wollen, warum alle über diese KI-Anwendung gespannt sind.

Zur Verdeutlichung: Es gibt weit verbreitete Vorhersagen, dass diese Art von KI Leben verändern wird, einschließlich derjenigen, die noch nichts über ChatGPT oder andere derartige KI-Fähigkeiten wissen. Wie ich gleich erklären werde, werden diese KI-Apps ziemlich weitreichende Auswirkungen haben, die wir gerade erst zu erwarten beginnen.

Machen Sie sich bereit für die sogenannte Achterbahnfahrt Generative KI.

Ich werde mit einigen wichtigen Hintergrundinformationen zur generativen KI beginnen und das einfachste Szenario verwenden, bei dem es um KI geht, die Kunst erzeugt. Nachdem wir Sie durch diese Grundlagen geführt haben, springen wir in die generative KI, die textorientierte Erzählungen generiert.

Für meine laufende und umfassende Berichterstattung über KI insgesamt, einschließlich KI-Ethik und KI-Recht, siehe den Link hier und den Link hier, nur um ein paar zu nennen.

Generative KI, die generierte Kunst produziert

Ich bezeichne diesen Typ oder Stil von KI als Wesen generativ Dies ist die Terminologie für KI-Fans, die verwendet wird, um KI zu beschreiben, die Ausgaben wie Text, Bilder, Videos und dergleichen generiert.

Sie haben vielleicht zu Beginn dieses Jahres bemerkt, dass es eine große Flut darüber gab, künstlerische Bilder durch die Eingabe von ein oder zwei Textzeilen zu erstellen. Die Idee ist ziemlich einfach. Sie verwenden eine KI-App, mit der Sie einen Text Ihrer Wahl eingeben können. Sie könnten beispielsweise eingeben, dass Sie sehen möchten, wie ein Frosch mit Hut auf einem Schornstein aussehen würde. Die KI-App analysiert dann Ihre Wörter und versucht, ein Bild zu generieren, das im Allgemeinen mit den von Ihnen angegebenen Wörtern übereinstimmt. Die Leute haben es sehr genossen, alle Arten von Bildern zu erzeugen. Soziale Medien wurden für eine Weile mit ihnen verstopft.

Wie erledigt die generative KI die Generierungsaspekte?

Im Fall des Text-zu-Kunst-Stils der generativen KI wurde eine Menge Online-Kunst über Computeralgorithmen vorgescannt und die Elemente der gescannten Kunst wurden rechnerisch auf die beteiligten Komponenten analysiert. Stellen Sie sich ein Online-Bild vor, auf dem ein Frosch zu sehen ist. Stellen Sie sich ein anderes separates Bild vor, das einen Schornstein enthält. Ein weiteres Bild zeigt einen Hut. Diese Komponenten werden rechnerisch identifiziert, manchmal ohne menschliche Hilfe und manchmal unter menschlicher Anleitung, und dann wird eine Art mathematisches Netzwerk formuliert.

Wenn Sie später vorbeikommen und darum bitten, dass ein Kunstwerk erstellt wird, das einen Frosch mit Hut auf einem Schornstein zeigt, verwendet die KI-App das mathematische Netzwerk, um diese Elemente zu finden und zusammenzusetzen. Das resultierende Kunstbild kann oder kann nicht so aussehen, wie Sie es sich erhofft haben. Vielleicht sieht der Frosch hässlich aus. Der Hut könnte ein großer Ofenrohrhut sein, aber Sie hätten sich einen schmaleren Hut im Derby-Stil gewünscht. Inzwischen steht das Froschbild auf dem Schornstein, obwohl Sie versucht haben, den Frosch stattdessen sitzen zu lassen.

Das Raffinierte an dieser Art von KI-Apps ist, dass sie es Ihnen normalerweise ermöglichen, Ihre Anfrage zu wiederholen und auch zusätzliche Spezifikationen hinzuzufügen, wenn Sie dies wünschen. Sie könnten also Ihre Anfrage wiederholen und angeben, dass Sie einen schönen Frosch mit einem Derbyhut haben möchten, der auf einem Schornstein sitzt. Voila, das neu generierte Bild könnte näher an dem liegen, was Sie wollten.

Einige haben sich gefragt, ob die KI nur genau das wiedergibt, worauf sie trainiert wurde. Die Antwort ist nein (normalerweise). Das Bild eines Frosches, das die KI für Ihre Anfrage anzeigt, ist nicht unbedingt ein exaktes Duplikat eines verwandten Bildes, das sich im Trainingssatz befand. Die meisten dieser generativen KI-Apps sind so eingerichtet, dass sie alle ursprünglich gefundenen Bilder verallgemeinern. Denk darüber so. Angenommen, Sie haben tausend Bilder von Fröschen gesammelt. Sie könnten sich dafür entscheiden, nach und nach herauszufinden, wie ein Frosch auszusehen scheint, indem Sie tausend Bilder zusammenfügen, die Sie gefunden haben. Daher ist der Frosch, den Sie am Ende zeichnen, nicht unbedingt genau wie der, den Sie für Trainingszwecke verwendet haben.

Davon abgesehen besteht die Möglichkeit, dass der KI-Algorithmus möglicherweise nicht so viel generalisiert, wie man annehmen könnte. Wenn es einzigartige Trainingsbilder gibt und keine anderen ähnlicher Art, könnte es sein, dass die KI ziemlich nahe an der einzigen spezifischen Instanz „verallgemeinert“, die sie erhalten hat. In diesem Fall könnte der Versuch des Algorithmus, später ein angefordertes Bild dieser Art zu erzeugen, dem, was sich im Trainingssatz befand, bemerkenswert ähnlich sehen.

Ich werde einen Moment innehalten, um einige Gedanken zu KI-Ethik und KI-Recht vorzutragen.

Wenn die generative KI wie erwähnt im Internet trainiert wird, bedeutet dies, dass alles, was öffentlich im Internet gepostet wurde, möglicherweise vom KI-Algorithmus verwendet wird. Angenommen, Sie haben ein raffiniertes Kunstwerk, an dem Sie gearbeitet haben, und glauben, dass Sie die Rechte an dem Kunstwerk besitzen. Du stellst ein Bild davon online. Jeder, der Ihr Kunstwerk verwenden möchte, soll zu Ihnen kommen und Ihnen eine Gebühr für diese Verwendung zahlen.

Vielleicht ahnen Sie schon, wohin das führt.

Bleiben Sie dort für die mürrischen Nachrichten.

Eine generative KI-App, die durch umfassende Untersuchung von Inhalten im Internet trainiert wird, erkennt Ihr wunderbares Kunstwerk. Das Bild Ihres Kunstwerks wird in die KI-App aufgenommen. Merkmale Ihrer Kunstfertigkeit werden nun mathematisch mit anderen gescannten Kunstwerken kombiniert. Wenn Sie aufgefordert werden, ein Kunstwerk zu erstellen, kann die KI Ihr Kunstwerk beim Erstellen eines neu generierten Kunstwerks nutzen. Diejenigen, die die Kunst sammeln, erkennen möglicherweise nicht, dass die Kunst in gewisser Weise überall Ihre speziellen Fingerabdrücke trägt, da der KI-Algorithmus etwas auf Ihr Meisterwerk geprägt hat.

Es besteht auch die Möglichkeit, dass Ihr Kunstwerk, wenn es außergewöhnlich einzigartig war, von der KI-App wiederverwendet wird, um die Kunstfertigkeit besser zur Geltung zu bringen. Daher ist Ihr Kunstwerk manchmal in einigen neu generierten KI-Kunstwerken kaum wiederzuerkennen, während es in anderen Fällen sein kann, dass das generierte Kunstwerk fast ein Ebenbild dessen ist, was Sie erraten haben.

Es ist daher an der Zeit, KI-Ethik in dieses Szenario einzubringen.

Ist es ethisch richtig oder angemessen, dass die generative KI Kunstwerke erzeugt hat, die Ähnlichkeiten mit Ihrer Kunst aufweisen?

Manche sagen ja, manche sagen nein.

Das Ja-Lager, das glaubt, dass dies ethisch vollkommen in Ordnung ist, würde vielleicht argumentieren, dass, da Sie Ihr Kunstwerk online gestellt haben, es für jeden oder was auch immer offen ist, es zu kopieren. Außerdem könnten sie behaupten, dass die neue Grafik keine exakte Kopie Ihrer Arbeit ist. Somit kann man sich nicht beschweren. Wenn wir irgendwie die Wiederverwendung bestehender Kunst stoppen würden, hätten wir niemals irgendeine Art von neuer Kunst, die wir uns ansehen könnten. Außerdem könnten wir vermutlich in eine hitzige Debatte darüber geraten, ob Ihr bestimmtes Kunstwerk kopiert oder ausgenutzt wurde oder nicht – es könnte sich um ein anderes Kunstwerk handeln, von dem Sie nicht einmal wussten, dass es existiert und das tatsächlich die zugrunde liegende Quelle war.

Das Nein-Lager würde nachdrücklich darauf bestehen, dass dies äußerst unethisch ist. Es gibt keine zwei Möglichkeiten. Sie würden argumentieren, dass Sie abgezockt werden. Nur weil Ihr Kunstwerk online gestellt wird, bedeutet das nicht, dass jeder vorbeikommen und es frei kopieren kann. Vielleicht haben Sie die Grafik mit einer strengen Warnung gepostet, sie nicht zu kopieren. In der Zwischenzeit kam die KI daher und entfernte die Kunst und übersprang die Warnungen vollständig. Empörend! Und die Entschuldigung, dass sich der KI-Algorithmus verallgemeinert hat und nicht das Wesentliche des präzisen Kopierens tut, scheint eine dieser gefälschten Ausreden zu sein. Es hat herausgefunden, wie Sie Ihre Kunstfertigkeit ausnutzen können, und das ist eine Farce und eine Schande.

Was ist mit den rechtlichen Aspekten dieser generativen KI?

Um die rechtlichen Besonderheiten der generativen KI wird viel gehadert. Sehen Sie sich Bundesgesetze zu Rechten des geistigen Eigentums (IP) an? Sind diese streng genug, um sich zu bewerben? Was ist, wenn die generative KI internationale Grenzen überschreitet, um das Trainingsset zu sammeln? Passt das von der KI generierte Kunstwerk in die verschiedenen Ausschlusskategorien, die mit IP-Rechten verbunden sind? Usw.

Einige glauben, dass wir neue KI-bezogene Gesetze brauchen, um speziell mit solchen generativen KI-Situationen fertig zu werden. Anstatt zu versuchen, bestehende Gesetze zu beschönigen, könnte es sauberer und einfacher sein, neue Gesetze zu konstruieren. Selbst wenn bestehende Gesetze gelten, können die Kosten und Verzögerungen beim Versuch, rechtliche Schritte einzuleiten, enorm sein und Sie daran hindern, weiterzumachen, wenn Sie glauben, dass Sie unfair und rechtswidrig geschädigt wurden. Für meine Berichterstattung zu diesen Themen siehe den Link hier.

Ich werde diesen Überlegungen zu KI-Ethik und KI-Recht eine zusätzliche Wendung hinzufügen.

Wem gehören die Rechte an der generierten Ausgabe der KI?

Man könnte sagen, dass die Menschen, die die KI entwickelt haben, diese Rechte besitzen sollten. Nicht alle stimmen einer solchen Behauptung zu. Man könnte sagen, dass KI diese Rechte besitzt, aber dies wird durch die Tatsache verwechselt, dass wir im Allgemeinen nicht anerkennen, dass KI solche Rechte besitzen kann. Bis wir herausfinden, ob KI eine Rechtspersönlichkeit haben wird, sind die Dinge an dieser Front unsicher, siehe meine Analyse unter den Link hier.

Ich vertraue darauf, dass Sie jetzt eine Vorstellung davon haben, was generative KI tut. Als nächstes können wir den Anwendungsfall betrachten, bei dem textbasierte Erzählungen generiert werden.

Generative KI, die textbasierte Erzählungen generiert

Nachdem wir nun die Verwendung von generativer KI zum Produzieren von Kunst oder Bildern besprochen haben, können wir uns leicht dieselben allgemeinen Formulierungen ansehen, um textbasierte Erzählungen zu erstellen.

Beginnen wir mit etwas, das wir alle kennen und das wir jeden Tag verwenden. Wenn Sie Text in ein Textverarbeitungsprogramm oder Ihre E-Mail-App eingeben, gibt es wahrscheinlich eine Autokorrekturfunktion, die versucht, Ihre Rechtschreibfehler zu erkennen.

Als diese Art von automatischer Unterstützungsfunktion üblich wurde, bestand die nächste fortschrittlichere Facette aus einer Funktion zur automatischen Vervollständigung. Bei einer automatischen Vervollständigung versucht die Textverarbeitungs- oder E-Mail-App vorherzusagen, welche Wörter Sie wahrscheinlich als Nächstes eingeben werden, wenn Sie mit dem Schreiben eines Satzes beginnen. Es könnte nur ein oder zwei Wörter voraussagen. Wenn die Funktion besonders stark ist, kann sie den Rest Ihres gesamten Satzes vorhersagen.

Wir können das auf Hochtouren bringen. Angenommen, Sie beginnen, einen Satz zu schreiben, und die automatische Vervollständigung generiert den Rest des gesamten Absatzes. Voila, Sie mussten den Absatz nicht direkt schreiben. Stattdessen hat die App dies für Sie erledigt.

Okay, das sieht schick aus. Schieben Sie dies weiter voran. Sie beginnen einen Satz und die automatische Vervollständigung setzt den Rest Ihrer gesamten Nachricht zusammen. Diese kann aus vielen Absätzen bestehen. All dies wird generiert, indem Sie nur einen Teil eines Satzes oder vielleicht einen oder zwei ganze Sätze eingeben.

Wie findet die automatische Vervollständigung heraus, was Sie wahrscheinlich als nächstes eingeben werden?

Es stellt sich heraus, dass Menschen dazu neigen, immer wieder dieselben Dinge zu schreiben. Vielleicht tun Sie das nicht, aber der Punkt ist, dass alles, was Sie schreiben, wahrscheinlich etwas ist, das jemand anderes bereits geschrieben hat. Es ist vielleicht nicht genau das, was Sie schreiben wollen. Stattdessen könnte es dem, was Sie schreiben wollten, etwas ähneln.

Lassen Sie uns die gleiche Logik verwenden, die beim Generieren von Kunst oder Bildern verwendet wurde.

Eine generative KI-App wird vorbereitet, indem man ins Internet geht und alle Arten von Texten untersucht, die in der Online-Welt existieren. Der Algorithmus versucht, rechnerisch zu identifizieren, wie Wörter mit anderen Wörtern zusammenhängen, wie Sätze mit anderen Sätzen zusammenhängen und wie Absätze mit anderen Absätzen zusammenhängen. All dies wird mathematisch modelliert und ein Rechennetzwerk aufgebaut.

Hier ist dann, was als nächstes passiert.

Sie entscheiden sich für eine generative KI-App, die sich auf die Generierung textbasierter Erzählungen konzentriert. Beim Start der App geben Sie einen Satz ein. Die KI-App untersucht Ihren Satz rechnerisch. Die verschiedenen mathematischen Beziehungen zwischen den von Ihnen eingegebenen Wörtern werden im mathematischen Netzwerk verwendet, um festzustellen, welcher Text als nächstes kommen würde. Aus einer einzigen Zeile, die Sie schreiben, kann eine ganze Geschichte oder Erzählung entstehen.

Jetzt denken Sie vielleicht, dass dies ein Monkey-see-monkey-do ist und dass der resultierende Text, der von der generativen KI produziert wird, unsinnig sein wird. Nun, Sie wären überrascht, wie gut diese Art von KI entwickelt wird. Mit einem ausreichend großen Datensatz für das Training und mit genügend Computerverarbeitung, um ihn umfassend zu durchlaufen, kann die von einer generativen KI erzeugte Ausgabe erstaunlich beeindruckend sein.

Sie würden sich die Ausgabe ansehen und wahrscheinlich schwören, dass die generierte Erzählung mit Sicherheit direkt von einem Menschen geschrieben wurde. Es ist, als ob Ihr Urteil an einen Menschen übergeben wurde, der sich hinter den Kulissen versteckt, und sie haben Ihnen schnell eine ganze Erzählung geschrieben, die fast vollständig mit dem übereinstimmt, was Sie sonst sagen wollten. So gut sind die mathematischen und rechnerischen Grundlagen geworden.

Wenn Sie eine generative KI verwenden, die textbasierte Erzählungen erstellt, neigen Sie normalerweise dazu, eine Startfrage oder eine Art Behauptung zu stellen. Sie könnten beispielsweise „Erzählen Sie mir von Vögeln in Nordamerika“ eingeben, und die generative KI betrachtet dies als Behauptung oder Frage, wodurch die App dann versucht, „Vögel“ und „Nordamerika“ mit einem beliebigen trainierten Datensatz zu identifizieren es hat. Sie können sich sicher vorstellen, dass es im Internet eine große Menge an Texten gibt, die Vögel Nordamerikas beschrieben haben, aus denen die KI während des Vortrainings die Textspeicher extrahiert und modelliert hat.

Die für Sie erstellte Ausgabe wird wahrscheinlich nicht der genaue Text einer bestimmten Online-Site sein. Erinnern Sie sich daran, dass dasselbe zuvor über generierte Kunstwerke erwähnt wurde. Der Text wird eine Mischung aus Arten, Bits und Stücken sein, die mathematisch und rechnerisch miteinander verbunden sind. Eine generierte textbasierte Erzählung scheint für alle Gesamterscheinungen einzigartig zu sein, als ob dieser spezifische Text nie zuvor von jemandem verfasst worden wäre.

Natürlich kann es verräterische Hinweise geben. Wenn Sie die generative KI bitten oder dazu bringen, auf außerordentlich obskure Themen einzugehen, besteht eine höhere Wahrscheinlichkeit, dass Sie eine Textausgabe sehen, die den verwendeten Quellen ähnelt. Bei Text sind die Chancen jedoch meist geringer als bei Kunst. Der Text wird eine Kombination aus den Spezifika des Themas sein, aber auch verwischt und mit den allgemeinen Textarten, die im gesamten Diskurs verwendet werden, verschmolzen.

Die mathematischen und rechnerischen Techniken und Technologien, die für diese generativen KI-Fähigkeiten verwendet werden, werden von KI-Insidern oft als Large Language Models (LLMs) bezeichnet. Einfach gesagt handelt es sich hier um eine großangelegte Modellierung der menschlichen Sprache. Vor dem Internet hatten Sie Schwierigkeiten, einen extrem großen Text-Datensatz zu finden, der online und billig verfügbar war. Sie hätten wahrscheinlich den Zugang zu Text kaufen müssen, und er wäre nicht unbedingt bereits in elektronischen oder digitalen Formaten verfügbar gewesen.

Sie sehen, das Internet ist für etwas gut, nämlich eine bereite Quelle für das Training generativer KI zu sein.

Schlau über generative KI nachdenken, die Text produziert

Wir sollten uns einen Moment Zeit nehmen, um über die Auswirkungen der KI-Ethik und KI-Gesetze auf die generative KI nachzudenken, die textbasierte Erzählungen produziert.

Denken Sie daran, dass wir uns im Fall von generierter Kunst Sorgen um die Ethik des KI-Algorithmus gemacht haben, der Kunst auf der Grundlage anderer von Menschen geschaffener Kunstwerke produziert. Die gleiche Besorgnis erhebt sich in der textbasierten Instanz. Auch wenn der generierte Text nicht genau wie die Originalquellen aussieht, kann man argumentieren, dass die KI den Text trotzdem ausnutzt und der Originalproduzent abgezockt wird. Die andere Seite dieser Medaille ist, dass Text im Internet, wenn er frei verfügbar ist, von jedem Menschen verwendet werden kann, um dasselbe zu tun. Warum also nicht der KI erlauben, dasselbe zu tun?

Die mit den rechtlichen Aspekten des geistigen Eigentums verbundenen Komplikationen treten auch im Fall der textbasierten generativen KI in den Vordergrund. Unter der Annahme, dass der zu trainierende Text urheberrechtlich geschützt ist, würden Sie sagen, dass der generierte Text diese gesetzlichen Rechte verletzt? Eine Antwort ist, dass es so ist, und eine andere Antwort ist, dass es nicht so ist. Machen Sie sich bewusst, dass der generierte Text wahrscheinlich ziemlich weit vom Originaltext entfernt ist, daher fällt es Ihnen möglicherweise schwer zu behaupten, dass der Originaltext kopiert wurde.

Ein weiteres bereits erwähntes Anliegen sind die Eigentumsrechte an den von der generativen KI produzierten textbasierten Erzählungen. Angenommen, Sie geben in die KI „Schreibe eine lustige Geschichte über Leute, die in der Schlange stehen, um Kaffee zu bekommen“ ein, und die generative KI produziert Seiten für Seiten einer urkomischen Geschichte, in der es um ein paar Leute geht, die sich zufällig treffen, während sie auf eine Tasse Kaffee warten Java.

Wem gehört diese Geschichte?

Sie könnten argumentieren, dass Sie die generierte Geschichte zu Recht „besitzen“ sollten, da Sie die Eingabeaufforderung eingegeben haben. Whoa, manche würden sagen, die KI war es, wie die Geschichte generiert wurde, ergo „besitzt“ die KI die entzückende Geschichte. Huch, würden andere ermahnen, wenn die KI Teile und Stücke aus allen möglichen ähnlichen Geschichten im Internet nehmen würde, sollten alle diese menschlichen Autoren das Eigentum teilen.

Die Angelegenheit ist ungelöst und wir geraten gerade in einen juristischen Morast, der sich in den nächsten Jahren abspielen wird.

Es gibt zusätzliche Bedenken hinsichtlich KI-Ethik und KI-Gesetze, die ins Spiel kommen.

Einige Leute, die generative KI-Apps verwendet haben, beginnen zu glauben, dass die KI-App empfindungsfähig ist. Das muss sein, rufen sie. Wie sonst können Sie die erstaunlichen Antworten und Geschichten erklären, die KI produzieren kann? Wir haben endlich eine empfindungsfähige KI erreicht.

Sie liegen absolut falsch.

Das ist keine empfindungsfähige KI.

Wenn ich das sage, regen sich einige Insider der KI auf und tun so, als würde jeder, der leugnet, dass die KI empfindungsfähig ist, gleichzeitig sagen, dass die KI wertlos ist. Das ist ein falsches und falsch formuliertes Argument. Ich stimme offen zu, dass diese generative KI ziemlich beeindruckend ist. Wir können es für alle möglichen Zwecke verwenden, wie ich später hier erwähnen werde. Trotzdem ist es nicht empfindungsfähig. Für meine Erklärung, warum diese Art von KI-Durchbrüchen nicht empfindungsfähig sind, siehe den Link hier.

Eine weitere übertriebene und offensichtlich falsche Behauptung einiger ist, dass die generative KI den Turing-Test erfolgreich gewonnen hat.

Es hat ganz sicher nicht Hab's so gemacht.

Der Turing-Test ist eine Art Test, ob eine KI-App dem Menschen ebenbürtig ist. Ursprünglich als Mimik-Spiel von Alan Turing, dem großen Mathematiker und Computerpionier, konzipiert, ist der Test per se unkompliziert. Wenn Sie einen Menschen hinter einen Vorhang und eine KI-App hinter einen anderen Vorhang stellen und ihnen beide Fragen stellen würden, aus denen Sie nicht feststellen könnten, welche die Maschine und welche der Mensch ist, würde die KI die Frage erfolgreich bestehen Turing-Test. Für meine ausführliche Erklärung und Analyse des Turing-Tests siehe den Link hier.

Die Leute, die immer wieder schreien, dass die generative KI den Turing-Test bestanden hat, wissen nicht, wovon sie reden. Sie wissen entweder nicht, was der Turing-Test ist, oder sie übertreiben die KI leider auf eine Weise, die falsch und völlig irreführend ist. Wie auch immer, eine der wichtigsten Überlegungen zum Turing-Test besteht darin, welche Fragen gestellt werden sollen, wer die Frage stellt und auch die Beurteilung, ob die Antworten von menschlicher Qualität sind.

Mein Punkt ist, dass die Leute etwa ein Dutzend Fragen an die generative KI eingeben, und wenn die Antworten plausibel erscheinen, verkünden diese Leute vorschnell, dass der Turing-Test bestanden wurde. Auch dies ist falsch. Eine fadenscheinige Reihe von Fragen einzugeben und hier und da ein bisschen herumzustochern, ist weder die Absicht noch der Geist des Turing-Tests. Hören Sie auf, diese unehrenhaften Behauptungen aufzustellen.

Hier ist ein legitimer Kritikpunkt, von dem Sie nicht viel hören, obwohl ich glaube, dass er enorm wertvoll ist.

Die KI-Entwickler haben die generative KI normalerweise so eingerichtet, dass sie so reagiert, als ob ein Mensch antwortet, nämlich indem sie die Formulierung „Ich“ oder „Ich“ verwendet, wenn sie die Ausgabe verfasst. Wenn Sie beispielsweise darum bitten, eine Geschichte über einen Hund zu erzählen, der sich im Wald verirrt hat, könnte die generative KI einen Text bereitstellen, der besagt: „Ich werde Ihnen alles über einen Hund namens Sam erzählen, der sich im Wald verirrt hat. Das ist eine meiner Lieblingsgeschichten.“

Beachten Sie, dass der Wortlaut lautet „Ich werde es Ihnen sagen …“ und dass die Geschichte „eine meiner Lieblingsgeschichten …“ ist, sodass jeder, der diese Ausgabe liest, subtil in eine mentale Falle tappen wird, die KI zu vermenschlichen. Anthropomorphisierung besteht darin, dass Menschen versuchen, menschenähnliche Eigenschaften und menschliche Gefühle gegenüber Nichtmenschen zuzuordnen. Sie werden eingelullt in dem Glauben, dass diese KI menschlich oder menschenähnlich ist, weil der Wortlaut in der Ausgabe absichtlich so gestaltet ist.

Dies muss nicht so konzipiert sein. Die Ausgabe könnte lauten: „Hier ist eine Geschichte über einen Hund namens Sam, der sich im Wald verirrt hat. Dies ist eine beliebte Geschichte.“ Es ist etwas weniger wahrscheinlich, dass Sie sofort davon ausgehen, dass die KI menschlich oder menschenähnlich ist. Mir ist klar, dass Sie vielleicht immer noch in diese Falle tappen, aber zumindest ist das Drumherum, so wie es war, nicht ganz so ausgeprägt.

Kurz gesagt, Sie haben eine generative KI, die textbasierte Erzählungen erstellt, die darauf basieren, wie Menschen schreiben, und die resultierende Ausgabe scheint so geschrieben zu sein, wie ein Mensch etwas schreiben würde. Das macht sehr viel Sinn, weil die KI mathematisch und rechnerisch nach dem arbeitet, was Menschen geschrieben haben. Fügen Sie nun noch die Verwendung anthropomorphisierender Formulierungen hinzu, und Sie erhalten einen perfekten Sturm, der die Menschen davon überzeugt, dass die KI empfindungsfähig ist oder den Turing-Test bestanden hat.

Es treten viele Fragen zu KI-Ethik und KI-Recht auf.

Ich werde Sie mit den ziemlich gefährlichen Auswirkungen dieser generativen KI treffen.

Setzen Sie sich dazu hin.

Die produzierten textbasierten Erzählungen halten sich nicht unbedingt an Wahrhaftigkeit oder Genauigkeit. Es ist wichtig zu erkennen, dass die generative KI nicht „versteht“, was generiert wird (nicht in irgendeiner Weise auf den Menschen bezogen, würde man argumentieren). Wenn der Text, der im Training verwendet wurde, Unwahrheiten enthielt, besteht die Möglichkeit, dass dieselben Unwahrheiten in das mathematische und rechnerische Netzwerk der generativen KI eingebrannt werden.

Darüber hinaus verfügt die generative KI normalerweise nicht über mathematische oder rechnerische Mittel, um zu erkennen, dass der produzierte Text Unwahrheiten enthält. Wenn Sie sich die generierte Ausgabeerzählung ansehen, wird die Erzählung normalerweise auf den ersten Blick völlig „wahrheitsgemäß“ aussehen. Sie haben möglicherweise keine brauchbaren Mittel, um zu erkennen, dass Unwahrheiten in die Erzählung eingebettet sind.

Angenommen, Sie stellen einer generativen KI eine medizinische Frage. Die KI-App produziert eine lange Erzählung. Stellen Sie sich vor, dass der größte Teil der Erzählung Sinn macht und vernünftig erscheint. Aber wenn Sie kein medizinischer Spezialist sind, werden Sie vielleicht nicht erkennen, dass in der Erzählung einige entscheidende Unwahrheiten enthalten sind. Vielleicht sagt Ihnen der Text, dass Sie fünfzig Pillen in zwei Stunden einnehmen sollen, während in Wirklichkeit die wahre medizinische Empfehlung darin besteht, zwei Pillen in zwei Stunden einzunehmen. Sie könnten den angeblichen Ratschlag für fünfzig Pillen glauben, einfach weil der Rest der Erzählung vernünftig und vernünftig erschien.

Das KI-Muster zu Unwahrheiten in den ursprünglichen Quelldaten zu haben, ist nur ein Mittel, um die KI in diesen Erzählungen schief gehen zu lassen. Abhängig vom verwendeten mathematischen und rechnerischen Netzwerk versucht die KI, Dinge zu „erfinden“. Im KI-Sprachgebrauch wird dies als KI bezeichnet halluzinieren, was eine schreckliche Terminologie ist, der ich ernsthaft widerspreche und argumentiere, dass sie nicht als Schlagwort fortgesetzt werden sollte, siehe meine Analyse unter den Link hier.

Angenommen, Sie haben die generative KI gebeten, eine Geschichte über einen Hund zu erzählen. Die KI könnte dazu führen, dass der Hund fliegen kann. Wenn die Geschichte, die Sie wollten, auf der Realität basieren sollte, scheint ein fliegender Hund unwahrscheinlich. Sie und ich wissen, dass Hunde von Natur aus nicht fliegen können. Keine große Sache, sagst du, denn das weiß jeder.

Stellen Sie sich ein Kind in der Schule vor, das versucht, etwas über Hunde zu lernen. Sie verwenden generative KI. Es erzeugt eine Ausgabe, die besagt, dass Hunde fliegen können. Das Kind weiß nicht, ob dies wahr ist oder nicht und nimmt an, dass es wahr sein muss. In gewisser Weise ist es, als ob das Kind zu einer Online-Enzyklopädie gegangen wäre und darin stand, dass Hunde fliegen können. Das Kind wird fortan vielleicht darauf bestehen, dass Hunde tatsächlich fliegen können.

Zurück zum Rätsel der KI-Ethik und der KI-Gesetze: Wir stehen jetzt kurz davor, eine nahezu unendliche Menge textbasierter Inhalte zu produzieren, die durch den Einsatz generativer KI erstellt werden, und wir werden uns mit Millionen von Erzählungen überfluten, die dies tun zweifellos vollgestopft mit Unwahrheiten und anderen damit verbundenen Strömen von Desinformationen und Fehlinformationen.

Ja, mit einem Knopfdruck und ein paar Wörtern, die in eine generative KI eingegeben werden, können Sie Unmengen von Texterzählungen generieren, die absolut plausibel und wahrheitsgemäß erscheinen. Diese können Sie dann online stellen. Andere Leute werden das Material lesen und annehmen, dass es wahr ist. Darüber hinaus wird eine andere generative KI, die versucht, sich mit dem Text vertraut zu machen, möglicherweise auf dieses Material stoßen und es in die generative KI einpacken, die sie entwickelt.

Es ist, als würden wir jetzt Steroide hinzufügen, um Desinformationen und Fehlinformationen zu erzeugen. Wir steuern auf massive galaktische globale Ausmaße auf Desinformation und Fehlinformation zu.

Es ist nicht viel menschliche Arbeit erforderlich, um alles zu produzieren.

Generative KI und ChatGPT

Kommen wir zum Headliner dieser Diskussion über generative KI. Wir haben jetzt die Natur der generativen KI behandelt, die insgesamt textbasierte Erzählungen produziert. Es gibt viele solcher generativer KI-Apps.

Eine der besonders bekannt gewordenen KI-Apps ist ChatGPT.

Ein PR-Coup hat sich über die sozialen Medien und die Nachrichten verbreitet – ChatGPT erhält gerade den ganzen Ruhm. Das Licht scheint hell auf ChatGPT. Es bekommt seine atemberaubenden fünf Minuten Ruhm.

ChatGPT ist der Name einer generativen KI-App, die von einer Entität namens OpenAI entwickelt wurde. OpenAI ist im KI-Bereich recht bekannt und kann als KI-Forschungslabor betrachtet werden. Sie haben den Ruf, bei KI für Natural Language Processing (NLP) und anderen KI-Fortschritten an die Grenzen zu gehen. Sie haben eine Reihe von KI-Apps entwickelt, die sie als GPT (Generative Pre-Trained Transformers) bezeichneten. Jede Version erhält eine Nummer. Ich habe zuvor über ihren GPT-3 (Version 3 ihrer GPT-Serie) geschrieben, siehe den Link hier.

GPT-3 erregte ziemlich viel Aufmerksamkeit, als es zum ersten Mal veröffentlicht wurde (es ging vor etwa zwei Jahren in weit verbreitete Beta-Tests und wurde 2022 breiter verfügbar gemacht). Es ist eine generative KI-App, die bei der Eingabe einer Eingabeaufforderung textbasierte Erzählungen produziert oder generiert. Alles, was ich zuvor über den allgemeinen Fall generativer KI-Apps erwähnt habe, ist grundsätzlich auf GPT-3 anwendbar.

Es wurde lange darüber diskutiert, dass GPT-4 im Gange ist, und die KI-Experten haben mit angehaltenem Atem darauf gewartet, welche Verbesserungen oder Erweiterungen GPT-4 im Gegensatz zu GPT-3 enthält. In diese Reihe kommt der neueste Zwischenläufer, bekannt als GPT-3.5. Ja, Sie haben das richtig verstanden, es liegt zwischen dem veröffentlichten GPT-3 und dem noch nicht veröffentlichten GPT 4.0.

OpenAI hat ihr GPT-3.5 verwendet, um einen Ableger zu erstellen, den sie ChatGPT nennen. Es wird gesagt, dass sie einige spezielle Verfeinerungen vorgenommen haben, um ChatGPT herzustellen. Zum Beispiel kursierte die Vorstellung, dass ChatGPT darauf zugeschnitten war, in der Art und Weise eines Chatbots arbeiten zu können. Dazu gehört auch, dass die „Konversation“, die Sie mit der KI-App führen, von der KI verfolgt und verwendet wird, um anschließend angeforderte Erzählungen zu erstellen.

Viele der generativen KI-Apps waren in der Regel One-and-Done-Designs. Sie haben eine Eingabeaufforderung eingegeben, die KI hat eine Erzählung generiert, und das war's. Ihre nächste Eingabeaufforderung hat keinen Einfluss darauf, was als nächstes passiert. Es ist, als würden Sie jedes Mal neu beginnen, wenn Sie eine Eingabeaufforderung eingeben.

Nicht so bei ChatGPT. Auf eine noch nicht offenbarte Weise versucht die KI-App, Muster in Ihren Eingabeaufforderungen zu erkennen, und reagiert daher möglicherweise besser auf Ihre Anfragen (diese KI-App gilt als offen zugänglich weil es jedem erlaubt ist, sich anzumelden, um es zu benutzen, aber es ist immer noch Eigentums- und entschieden nicht eine Open-Source-KI-App, die ihr Innenleben offenlegt). Erinnern Sie sich zum Beispiel an meinen früheren Hinweis, dass Sie einen Frosch mit Hut auf einem Schornstein sehen wollten. Eine Methode ist, dass jedes Mal, wenn Sie eine solche Anfrage stellen, alles von vorne beginnt. Eine andere Methode wäre, dass Sie mit dem fortfahren könnten, was Sie zuvor gesagt haben. Daher könnten Sie der KI vielleicht sagen, dass Sie möchten, dass der Frosch sitzt, was an sich keinen Sinn ergibt, während im Zusammenhang mit Ihrer vorherigen Aufforderung, einen Frosch mit Hut auf einem Schornstein anzufordern, die Anfrage scheinbar sinnvoll sein kann.

Sie fragen sich vielleicht, warum ChatGPT plötzlich eine Blütezeit und Blütezeit zu haben scheint.

Teilweise liegt es daran, dass ChatGPT jedem zur Verfügung gestellt wurde, der sich anmelden wollte, um es zu nutzen. In der Vergangenheit gab es oft selektive Kriterien, wer eine neu verfügbare generative KI-App nutzen durfte. Der Anbieter würde verlangen, dass Sie ein KI-Insider sind oder andere Anforderungen haben. Nicht so bei ChatGPT.

Es sprach sich schnell herum, dass ChatGPT extrem einfach zu verwenden, kostenlos zu verwenden und durch eine einfache Anmeldung verwendet werden konnte, bei der Sie lediglich eine E-Mail-Adresse angeben mussten. Wie ein Schnellfeuer, ganz plötzlich und durch virale Posts in den sozialen Medien geschürt oder angespornt, soll die ChatGPT-App über eine Million Benutzer überschritten haben. Die Nachrichtenmedien haben den Aspekt betont, dass sich eine Million Menschen für ChatGPT angemeldet haben.

Obwohl dies sicherlich bemerkenswert und bemerkenswert ist, sollten Sie den Kontext dieser Anmeldungen im Hinterkopf behalten. Die Anmeldung ist kostenlos und einfach. Der Chatbot ist super einfach zu bedienen und erfordert keine vorherige Schulung oder Erfahrung. Sie geben lediglich Eingabeaufforderungen Ihrer Wahl und Ihres eigenen Wortlauts ein, und Shazam, die KI-App, liefert eine generierte Erzählung. Ein Kind könnte dies tun, was für einige tatsächlich eine besorgniserregende Sorge ist, nämlich dass Kinder, wenn sie ChatGPT verwenden, fragwürdiges Material lernen werden (wie in meinem früheren Punkt zu solchen Angelegenheiten hierin erwähnt)?

Außerdem ist es vielleicht bemerkenswert, darauf hinzuweisen, dass einige (viele?) dieser Millionen Anmeldungen Leute sind, die wahrscheinlich die Reifen treten wollten und nichts weiter tun wollten. Sie erstellten schnell ein Konto, spielten eine Weile mit der KI-App, fanden es lustig und überraschend, und veröffentlichten dann vielleicht einige Social-Media-Postings, um zu zeigen, was sie gefunden hatten. Danach melden sie sich möglicherweise nie wieder an oder verwenden die KI-App zumindest nur, wenn ein besonderer Bedarf besteht.

Andere haben auch darauf hingewiesen, dass der Zeitpunkt der Verfügbarkeit von ChatGPT mit einer Jahreszeit zusammenfiel, die für das große Interesse an der KI-App sorgte. Vielleicht haben wir während der Ferien mehr Zeit, um mit lustigen Gegenständen herumzuspielen. Das Aufkommen der sozialen Medien hat dies auch zu einer Art Phänomen gemacht. Das klassische FOMO (Angst vor dem Verpassen) hat wahrscheinlich zum Durcheinander beigetragen. Wenn Sie eine Million mit einigen beliebten YouTube-Influencern vergleichen, könnten Sie natürlich vermuten, dass eine Million eine dürftige Zahl im Vergleich zu den Vlogs ist, die Hunderte Millionen Anmeldungen oder Aufrufe erhalten, wenn sie zum ersten Mal gelöscht oder gepostet werden.

Nun, lassen Sie uns nicht abschweifen und nur anmerken, dass die Millionen Anmeldungen für eine KI-App mit experimentellem Charakter sicherlich prahlenswert sind.

Sofort verwendeten die Leute ChatGPT, um Geschichten zu erstellen. Dann veröffentlichten sie die Geschichten und schwärmten von ihrem Wunder. Reporter und Journalisten haben sogar „Interviews“ mit ChatGPT geführt, was etwas beunruhigend ist, weil sie in dieselbe anthropomorphisierende Falle tappen (entweder aus tatsächlicher Unkenntnis oder in der Hoffnung, übergroße Aufrufe für ihre Artikel zu erhalten). Die unmittelbare Tendenz war auch zu erklären, dass die KI jetzt das Bewusstsein erreicht oder den Turing-Test bestanden hat, was ich hier bereits früher deutlich kommentiert habe.

Die von ChatGPT geäußerten gesellschaftlichen Bedenken sind tatsächlich diejenigen, die bereits durch frühere Versionen von GPT und die Menge der bereits verfügbaren LLMs und generativen KI entstanden sind. Der Unterschied ist, dass sich jetzt die ganze Welt dafür entschieden hat, sich einzumischen. Das ist praktisch. Wir müssen sicherstellen, dass KI-Ethik und KI-Recht die gebührende Aufmerksamkeit und Aufmerksamkeit erhalten. Wenn es ein ChatGPT braucht, um uns dorthin zu bringen, sei es so.

Welche Bedenken werden geäußert?

Nehmen Sie den Anwendungsfall, bei dem Schüler aufgefordert werden, Aufsätze für ihre Klassen zu schreiben. Ein Student soll normalerweise einen Aufsatz schreiben, der vollständig auf seinen eigenen Schreib- und Kompositionsfähigkeiten basiert. Sicher, sie könnten sich andere schriftliche Materialien ansehen, um Ideen und Zitate zu bekommen, aber ansonsten wird davon ausgegangen, dass der Student seinen Aufsatz aus seinem eigenen Noggin zusammenstellt. Das Kopieren von Prosa aus anderen Quellen ist verpönt und führt in der Regel zu einer F-Note oder möglicherweise zum Ausschluss wegen Plagiats von anderem Material.

Heutzutage ist Folgendes möglich. Ein Student meldet sich bei ChatGPT (oder einer anderen ähnlichen generativen KI-App) an. Sie geben die Eingabeaufforderung ein, die der Lehrer ihnen gegeben hat, um einen Aufsatz abzuleiten. Der ChatGPT erstellt basierend auf der Eingabeaufforderung einen vollständigen Aufsatz. Es ist eine „Original“-Komposition, die man sonst nirgendwo finden kann. Dass die Komposition plagiiert wurde, können Sie nicht nachweisen, da sie aus Rücksichtnahme nicht plagiiert wurde.

Der Schüler gibt den Aufsatz ab. Sie behaupten, dass es sich um ihre eigene schriftliche Arbeit handelt. Der Lehrer hat keine Mittel, um anders zu denken. Davon abgesehen, können Sie die Vorstellung heraufbeschwören, dass Sie misstrauisch werden könnten, wenn die schriftliche Arbeit scheinbar die vorhandenen Fähigkeiten des Schülers übersteigt. Aber das ist nicht viel, wenn Sie einen Schüler des Betrugs beschuldigen wollen.

Wie sollen Lehrer damit umgehen?

Einige nehmen eine Regel in ihre Unterrichtsmaterialien auf, dass jede Verwendung eines ChatGPT oder eines Äquivalents als eine Form des Betrugs angesehen wird. Darüber hinaus ist das Nichtgestehen der Verwendung von ChatGPT oder Äquivalenten eine Form des Betrugs. Wird das diese neue Chance einschränken? Es soll zweifelhaft sein, da die Wahrscheinlichkeit, erwischt zu werden, gering ist, während die Chancen, eine gute Note für eine gut geschriebene Arbeit zu bekommen, hoch sind. Sie können sich wahrscheinlich vorstellen, dass Studenten vor einer Frist stehen, um einen Aufsatz zu schreiben, der in der Nacht zuvor versucht sein wird, eine generative KI zu verwenden, um sie scheinbar aus dem Stau zu holen.

Gangwechsel, jede Art von Schrift wird potenziell sein gestört durch generative KI.

Werden Sie gebeten, bei der Arbeit ein Memo über diese oder andere Sache zu schreiben? Verschwenden Sie nicht Ihre Zeit, indem Sie dies von Grund auf neu tun. Verwenden Sie eine generative KI. Sie können den generierten Text dann ausschneiden und in Ihre Komposition einfügen, den Text nach Bedarf verfeinern und die mühsame Schreibarbeit mühelos erledigen.

Scheint dies richtig zu sein?

Ich würde wetten, dass die meisten Leute ja sagen würden. Das ist sogar noch besser, als etwas aus dem Internet zu kopieren, was Sie in heißes Wasser für Plagiate bringen könnte. Es ist enorm sinnvoll, eine generative KI zu verwenden, um Ihre Schreibanstrengungen teilweise oder vielleicht sogar vollständig für Sie zu erledigen. Dafür sind Werkzeuge gemacht.

Nebenbei wird in einer meiner nächsten Kolumnen der Anwendungsfall der Nutzung generativer KI für rechtliche Zwecke im Sinne von Anwaltstätigkeiten und der Erstellung von Rechtsdokumenten genau untersucht. Jeder, der Anwalt oder Jurist ist, wird sich überlegen wollen, wie generative KI Rechtspraktiken möglicherweise entwurzeln oder stören wird. Stellen Sie sich zum Beispiel einen Anwalt vor, der einen juristischen Schriftsatz für einen Gerichtsprozess verfasst. Sie könnten möglicherweise eine generative KI verwenden, um die Komposition zu schreiben. Sicher, es könnte einige Fehler haben, also muss der Anwalt hier oder da etwas optimieren. Der verringerte Arbeits- und Zeitaufwand für die Erstellung des Briefings könnte die Optimierung lohnenswert machen.

Einige sind jedoch besorgt, dass das Rechtsdokument Unwahrheiten oder KI-Halluzinationen enthalten könnte, die der Anwalt nicht bemerkt hat. Der Standpunkt in dieser Wendung ist, dass dies auf den Schultern des Anwalts liegt. Sie haben vermutlich behauptet, dass das Briefing von ihnen geschrieben wurde, und ob ein Junior Associate es geschrieben hat oder eine KI-App, sie haben immer noch die letzte Verantwortung für den endgültigen Inhalt.

Noch schwieriger wird es, wenn Nichtanwälte beginnen, generative KI zu verwenden, um juristische Kleinarbeit für sie zu erledigen. Sie könnten glauben, dass generative KI alle Arten von Rechtsdokumenten erstellen kann. Das Problem ist natürlich, dass die Dokumente möglicherweise nicht rechtsgültig sind. Ich werde mehr darüber in meiner nächsten Kolumne sagen.

Es entsteht eine entscheidende Faustregel über die Gesellschaft und den Akt des menschlichen Schreibens.

Es ist irgendwie bedeutsam:

  • Wann immer Sie die Aufgabe haben, etwas zu schreiben, sollten Sie den Artikel von Grund auf neu schreiben oder sollten Sie ein generatives KI-Tool verwenden, um Sie auf den Weg zu bringen?

Die Ausgabe ist möglicherweise unausgegoren und Sie müssen viel umschreiben. Oder die Ausgabe ist richtig und Sie müssen nur geringfügige Nachbesserungen vornehmen. Alles in allem, wenn die Nutzung kostenlos und einfach ist, wird die Versuchung, eine generative KI zu verwenden, immens sein.

Ein Bonus ist, dass Sie möglicherweise generative KI verwenden können, um einige Ihrer Umschreibungen vorzunehmen. Ähnlich wie bei den Aufforderungen zum Frosch mit Hut und zum Schornstein können Sie beim Produzieren von Kunst dasselbe tun, wenn Sie textbasierte Erzählungen erstellen. Die KI könnte Ihre Geschichte über einen Hund produzieren, und Sie haben stattdessen entschieden, dass die Hauptfigur eine Katze sein soll. Nachdem Sie die Hundegeschichte erhalten haben, geben Sie eine weitere Eingabeaufforderung ein und weisen die KI-App an, auf die Verwendung einer Katze in der Geschichte umzuschalten. Dies wird wahrscheinlich mehr bewirken, als einfach dazu führen, dass das Wort „Katze“ das Wort „Hund“ in der Erzählung ersetzt. Die KI-App könnte die Geschichte leicht ändern, um Hinweise darauf zu geben, was Katzen im Vergleich zu dem tun, was Hunde tun. Die ganze Geschichte könnte überarbeitet werden, als ob Sie einen Menschen gebeten hätten, solche Überarbeitungen vorzunehmen.

Kraftvoll, beeindruckend, handlich-dandy.

Ein paar Vorbehalte zum Nachdenken:

  • Werden wir kollektiv unsere Fähigkeit zu schreiben verlieren und völlig abhängig von der generativen KI werden, um unser Schreiben für uns zu erledigen?
  • Werden Leute, die ihren Lebensunterhalt mit dem Schreiben verdienen, arbeitslos werden (dasselbe wird über Künstler gefragt)?
  • Wird das Internet in großen Sprüngen und Grenzen wachsen, wenn generierte Erzählungen online überflutet werden und wir die Wahrheit nicht mehr von den Unwahrheiten trennen können?
  • Werden die Menschen diesen generierten Erzählungen fest glauben und so tun, als hätte ihnen eine maßgebliche Person wahrheitsgemäßes Material gegeben, auf das sie sich verlassen können, einschließlich möglicherweise lebenswichtiger Inhalte?
  • Andere

Denk darüber nach.

Beachten Sie, dass sich einer dieser Aufzählungspunkte darauf bezieht, sich auf Leben und Tod auf Material zu verlassen, das von einer generativen KI generiert wird.

Hier ist ein Herzensbrecher für Sie (Triggerwarnung, Sie sollten diesen Absatz vielleicht überspringen). Stellen Sie sich vor, ein Teenager fragt eine generative KI, ob er sich selbst abschaffen soll oder nicht. Was generiert eine generative KI-App? Sie würden natürlich hoffen, dass die KI-App eine Erzählung produzieren würde, die sagt, dies nicht zu tun, und den Anfragenden lautstark auffordern würde, Spezialisten für psychische Gesundheit aufzusuchen.

Es besteht die Möglichkeit, dass die KI diese Facetten nicht erwähnt. Schlimmer noch, die KI-App hat möglicherweise früher Text im Internet erfasst, der möglicherweise dazu ermutigt, solche Maßnahmen zu ergreifen, und die KI-App (da sie keine menschliche Verständnisfähigkeit hat) spuckt eine Erzählung aus, die im Grunde andeutet oder direkt besagt, dass der Teenager fortfahren sollte unbeirrt. Der Teenager glaubt, dass dies eine wahrheitsgemäße Anleitung von einem maßgeblichen Online-System der „künstlichen Intelligenz“ ist.

Schlechte Dinge.

Wirklich, wirklich schlechtes Zeug.

Einige der Entwickler der generativen KI versuchen, Checks und Balances in die KI einzubauen, um zu versuchen und zu verhindern, dass solche Situationen auftreten. Die Sache ist die, dass die Art und Weise, in der die Eingabeaufforderung formuliert ist, möglicherweise durch die programmierten Leitplanken rutschen kann. Gleiches gilt für die produzierte Ausgabe. Es gibt noch keine garantierte eiserne Filterung, die sicherstellen kann, dass dies niemals eintreten wird.

Diese textbasierte Produktion hat noch einen weiteren Aspekt, den Sie vielleicht nicht erwartet haben.

Hier ist es.

Wenn Programmierer oder Softwareentwickler den Code für ihre Software erstellen, schreiben sie im Wesentlichen Text. Der Text ist insofern etwas geheimnisvoll, als er auf der Sprache basiert, die für eine bestimmte Programmiersprache wie Python, C++, Java usw. definiert ist. Am Ende ist es Text.

Der Quellcode wird dann kompiliert oder auf einem Computer ausgeführt. Der Entwickler untersucht seinen Code, um festzustellen, ob er das tut, was er tun sollte. Sie können Korrekturen vornehmen oder den Code debuggen. Wie Sie wissen, sind Programmierer oder Software-Ingenieure sehr gefragt und verlangen oft stolze Preise für ihre Arbeit.

Bei generativer KI ist der Text des Quellcodes Text. Die Fähigkeit, Muster in den Millionen von Codezeilen zu finden, die im Internet und in verschiedenen Repositories verfügbar sind, bietet eine saftige Möglichkeit, mathematisch und rechnerisch herauszufinden, welcher Code was zu tun scheint.

Der Haken ist das.

Mit einer Eingabeaufforderung können Sie möglicherweise ein ganzes Computerprogramm von generativer KI für Sie erstellen lassen. Sie müssen sich nicht damit abmühen, Code herauszuschleudern. Sie haben vielleicht gehört, dass es sog niedriger Code Tools, die heutzutage verfügbar sind, um den Aufwand von Programmierern beim Schreiben von Code zu reduzieren. Generative KI kann möglicherweise als eine ausgelegt werden niedriger Code oder kein Code Option, da es den Code für Sie schreibt.

Bevor diejenigen von Ihnen, die Code schreiben, um ihren Lebensunterhalt zu verdienen, zu Boden fallen und in Ohnmacht fallen, denken Sie daran, dass der Code nicht so „verstanden“ wird, wie Sie ihn als Mensch vermutlich verstehen. Außerdem kann der Code Unwahrheiten und KI-Halluzinationen enthalten. Sich auf solchen Code zu verlassen, ohne umfangreiche Code-Reviews durchzuführen, erscheint riskant und fragwürdig.

Wir kommen zurück zu den gleichen Überlegungen über das Schreiben von Geschichten und Memos. Vielleicht besteht der Ansatz darin, generative KI zu verwenden, um Sie bei einem Codierungsaufwand einen Teil des Weges dorthin zu bringen. Es gibt jedoch einen erheblichen Kompromiss. Ist es für Sie sicherer, den Code direkt zu schreiben oder sich mit von KI generiertem Code zu befassen, der möglicherweise heimtückische und schwer zu erkennende eingebettete Probleme aufweist?

Die Zeit wird zeigen.

Ein kurzer Einblick in ChatGPT

Wenn Sie beginnen, ChatGPT zu verwenden, werden eine Reihe von Warnhinweisen und informativen Kommentaren angezeigt.

Werfen wir einen kurzen Blick auf sie:

  • „Kann gelegentlich falsche Informationen generieren.“
  • „Kann gelegentlich schädliche Anweisungen oder voreingenommene Inhalte produzieren.“
  • „Geschult, unangemessene Anfragen abzulehnen.“
  • „Unser Ziel ist es, externes Feedback zu erhalten, um unsere Systeme zu verbessern und sicherer zu machen.“
  • „Obwohl wir Sicherheitsvorkehrungen getroffen haben, kann das System gelegentlich falsche oder irreführende Informationen generieren und beleidigende oder voreingenommene Inhalte produzieren. Es ist nicht beabsichtigt, Ratschläge zu erteilen.“
  • „Gespräche können von unseren KI-Trainern überprüft werden, um unsere Systeme zu verbessern.“
  • „Bitte teilen Sie keine sensiblen Informationen in Ihren Gesprächen.“
  • „Dieses System ist für den Dialog optimiert. Teilen Sie uns mit, ob eine bestimmte Antwort gut oder nicht hilfreich war.“
  • „Begrenztes Wissen über die Welt und Ereignisse nach 2021.“

Aus Platzgründen kann ich diese hier nicht im Detail behandeln, aber lassen Sie uns zumindest eine schnelle Analyse durchführen.

Ich habe bereits erwähnt, dass die generierten Texterzählungen Unwahrheiten und Desinformationen enthalten können.

Es gibt noch etwas, wofür Sie auf der Hut sein müssen. Seien Sie vorsichtig bei Erzählungen, die verschiedene aufrührerische Bemerkungen enthalten könnten, die ungünstige Vorurteile aufweisen.

Um dies zu verhindern, wurde berichtet, dass OpenAI während des Trainings von ChatGPT menschliche Doppelprüfer verwendet hat. Die Doppelprüfer würden Eingabeaufforderungen eingeben, die die KI wahrscheinlich dazu anregen würden, aufrührerische Inhalte zu produzieren. Als solche Inhalte von den Double-Checkern gesehen wurden, zeigten sie der KI an, dass dies unangemessen war, und erzielten gewissermaßen eine numerische Strafe für die erzeugte Ausgabe. Mathematisch gesehen würde der KI-Algorithmus versuchen, Strafpunkte auf einem Minimum zu halten und ergo rechnerisch darauf abzielen, diese Sätze oder Formulierungen fortan nicht mehr zu verwenden.

Wenn Sie eine Eingabeaufforderung eingeben, versucht die KI ebenso festzustellen, ob Ihre Eingabeaufforderung entzündlich ist oder zu einer entzündlichen Ausgabe führen könnte, für die die Eingabeaufforderung von der KI abgelehnt werden kann. Höflicherweise geht es darum, unangemessene Aufforderungen oder Anfragen abzulehnen. Zum Beispiel wird die Bitte um einen Witz, der rassistische Beleidigungen enthält, wahrscheinlich von der KI abgelehnt.

Ich bin sicher, Sie werden nicht überrascht sein zu erfahren, dass Leute, die ChatGPT verwenden, versucht haben, die Vorsichtsmaßnahmen zu überlisten. Diese „unternehmungslustigen“ Benutzer haben entweder die KI ausgetrickst oder schlaue Wege gefunden, um die mathematischen Formulierungen zu umgehen. Einige dieser Bemühungen werden aus der offensichtlichen Freude unternommen, das System zu schlagen oder zu überschreiten, während andere behaupten, dass sie versuchen zu zeigen, dass ChatGPT immer noch ungünstige Ergebnisse erzielen wird.

In einer Sache haben sie recht; die Vorsichtsmaßnahmen sind nicht narrensicher. Wir sind wieder bei einer anderen KI-Ethik und einer möglichen KI-Gesetzesüberlegung. Sollte es der generativen KI erlaubt sein, fortzufahren, selbst wenn sie ungünstige Ergebnisse produzieren könnte?

Die Warnungen bei der Verwendung von ChatGPT würden anscheinend jeden vorwarnen, was die KI-App tun oder sagen könnte. Es besteht die Möglichkeit, dass unweigerlich Klagen eingereicht werden, wenn jemand, vielleicht ein Minderjähriger, unangemessene Ergebnisse anstößiger Natur erhält (oder wenn sie autoritative Texterzählungen erhalten, von denen sie bedauerlicherweise glauben, dass sie wahr sind, und auf die Ergebnisse ihrerseits reagieren eigene Gefährdung).

Ein paar andere schnelle Nuancen über die Eingabeaufforderungen sind es wert, bekannt zu sein.

Jedes Mal, wenn Sie eine Eingabeaufforderung eingeben, kann sich die Ausgabe dramatisch unterscheiden, selbst wenn Sie genau dieselbe Eingabeaufforderung eingeben. Wenn Sie beispielsweise „Erzähl mir eine Geschichte über einen Hund“ eingeben, erhalten Sie eine textbasierte Erzählung, die möglicherweise auf eine Geschichte über einen Schäferhund hinweist, während die nächste Eingabe von „Erzähl mir eine Geschichte über einen Hund“ möglicherweise eine vollständige ist andere Geschichte und beinhalten einen Pudel. So ist die meiste generative KI mathematisch und rechnerisch aufgebaut. Es wird gesagt, dass es nicht deterministisch ist. Einige Leute finden das nervig, da sie an das Konzept gewöhnt sind, dass Ihre Eingabe in einen Computer immer die gleiche präzise Ausgabe erzeugt.

Die Neuanordnung von Wörtern wirkt sich auch erheblich auf die generierte Ausgabe aus. Wenn Sie „Erzähl mir eine Geschichte über einen Hund“ und später „Erzähl mir eine Hundegeschichte“ eingeben, ist es wahrscheinlich, dass die produzierten Erzählungen wesentlich unterschiedlich sind. Die Empfindlichkeit kann scharf sein. Nach einer Geschichte über einen Hund zu fragen oder nach einer Geschichte über einen großen Hund zu fragen, würde zweifellos zu radikal unterschiedlichen Erzählungen führen.

Beachten Sie schließlich, dass die oben aufgeführten Punkte mit Aufzählungszeichen einen Hinweis darauf enthalten, dass das ChatGPT „begrenztes Wissen über die Welt und Ereignisse nach dem Jahr 2021“ hat. Dies liegt daran, dass die KI-Entwickler entschieden haben, eine Frist zu setzen, wann die KI-App Internetdaten sammeln und trainieren soll. Ich habe festgestellt, dass Benutzer oft nicht erkennen, dass ChatGPT nicht direkt mit dem heutigen Internet verbunden ist, um Daten abzurufen und generierte Ausgaben zu erzeugen. Wir sind so daran gewöhnt, dass alles in Echtzeit funktioniert und mit dem Internet verbunden ist, dass wir dies auch von KI-Apps erwarten. Nicht in diesem speziellen Fall (und zur Verdeutlichung ist ChatGPT tatsächlich im Internet verfügbar, aber wenn es die textbasierte Ausgabe erstellt, wird das Internet per se nicht ausgesondert, sondern es wird im Allgemeinen zeitlich eingefroren um den Stichtag herum).

Sie werden sich vielleicht wundern, warum ChatGPT nicht in Echtzeit Daten aus dem Internet einspeist. Ein paar vernünftige Gründe. Erstens wäre es rechenintensiv, das Training in Echtzeit durchzuführen, und außerdem würde die KI-App verzögert oder weniger auf Eingabeaufforderungen reagieren (derzeit ist sie sehr schnell und antwortet normalerweise innerhalb weniger Sekunden mit einer textbasierten Erzählung ). Zweitens würde sich das eklige Zeug im Internet, das sie versucht haben, die KI-App zu vermeiden, wahrscheinlich in die mathematischen und rechnerischen Formulierungen einschleichen (und wie bereits erwähnt, ist es schon etwas von früher dort, obwohl sie versucht haben, es zu erkennen durch mit diesen menschlichen Doppelprüfern).

Sie werden sicher einige Leute hören, die dreist verkünden, dass ChatGPT und ähnliche generative KI die Totenglocke für die Google-Suche und andere Suchmaschinen sind. Warum eine Google-Suche durchführen, die viele Referenzartikel zurückbringt, wenn Sie die KI dazu bringen können, etwas für Sie zu schreiben? Aha, sagen diese Leute, Google sollte seine Pforten schließen und nach Hause gehen.

Das ist natürlich purer Unsinn.

Die Leute wollen immer noch suchen. Sie möchten in der Lage sein, sich Referenzmaterialien anzusehen und Dinge selbst herauszufinden. Es ist keine sich gegenseitig ausschließende so oder so binäre Wahl (dies ist eine falsche Dichotomie).

Generative KI ist eine andere Art von Werkzeug. Sie werfen keine Hämmer herum, nur weil Sie einen Schraubenzieher erfunden haben.

Eine vernünftigere Art, sich das vorzustellen, ist, dass die beiden Arten von Tools für die Verwendung durch Personen kompatibel sein können, die Dinge im Zusammenhang mit dem Internet tun möchten. Einige haben bereits damit gespielt, generative KI mit herkömmlichen Internet-Suchmaschinen zu verbinden.

Eine Sorge für alle, die bereits eine Suchmaschine anbieten, ist, dass das „kostenlose“ generative KI-Tool möglicherweise den Ruf der Suchmaschine untergraben kann. Wenn Sie im Internet suchen und aufhetzendes Material finden, wissen Sie, dass dies nur der Weg des Internets ist. Wenn Sie generative KI verwenden und diese eine textbasierte Erzählung produziert, die abstoßend und abscheulich ist, werden Sie wahrscheinlich davon gestört. Wenn eine generative KI eng mit einer bestimmten Suchmaschine verbunden ist, könnte es sein, dass Ihr Unmut und Ekel über die generative KI auf Ihre Meinung über die Suchmaschine überschwappt.

Wie auch immer, wir werden mit ziemlicher Sicherheit Allianzen zwischen verschiedenen generativen KI-Tools und Internet-Suchmaschinen sehen, die vorsichtig und achtsam in diese trüben Gewässer eintreten.

Fazit

Hier ist eine Frage an Sie.

Wie kann jemand Geld verdienen, indem er generative KI bereitstellt, die textbasierte Erzählungen produziert?

OpenAI hat bereits festgestellt, dass die internen Pro-Transaktionskosten von ChatGPT anscheinend etwas hoch sind. Sie monetarisieren ChatGPT noch nicht.

Wären die Leute bereit, eine Transaktionsgebühr oder vielleicht eine Abonnementgebühr zu zahlen, um auf generative KI-Tools zuzugreifen?

Könnten Anzeigen ein Mittel sein, um mit generativen KI-Tools Geld zu verdienen?

Niemand ist sich noch ganz sicher, wie damit Geld verdient werden soll. Wir befinden uns noch im großen Experimentierstadium dieser Art von KI. Veröffentlichen Sie die KI-App und sehen Sie, welche Reaktionen Sie erhalten. Passen Sie die KI an. Verwenden Sie Erkenntnisse aus der Nutzung, um zu bestimmen, wohin die KI als nächstes zielen sollte.

Aufschäumen, ausspülen, wiederholen.

Als abschließende Bemerkung: Einige glauben, dass dies eine Art von KI ist, die wir überhaupt nicht haben sollten. Dreh die Uhr zurück. Setzen Sie diesen Geist zurück in die Flasche. Wir bekamen einen Vorgeschmack darauf und stellten fest, dass es bemerkenswerte Nachteile hat, und kollektiv als Gesellschaft könnte zustimmen, dass wir dieses Pferd den ganzen Weg zurück in den Stall führen sollten.

Glauben Sie, dass das Versprechen der generativen KI besser oder schlechter ist als die Nachteile?

Aus Sicht der realen Welt spielt dies keine besondere Rolle, da die Realität der Löschung generativer KI im Allgemeinen nicht praktikabel ist. Die generative KI wird weiterentwickelt und Sie werden sie nicht aufhalten, weder hier noch in einigen oder allen anderen Ländern (es ist). Wie würden Sie das tun? Verabschieden Sie Gesetze, um generative KI vollständig zu verbieten. Nicht besonders praktikabel (Sie haben vermutlich eine bessere Chance, Gesetze zu erlassen, die die generative KI formen, und versuchen, diejenigen, die sie erfinden, rechtmäßig zu regieren). Vielleicht stattdessen die Kultur dazu bringen, generative KI zu meiden? Sie könnten einige Leute dazu bringen, dem Shaming zuzustimmen, aber andere würden anderer Meinung sein und trotzdem mit der generativen KI fortfahren.

Es ist ein Rätsel der KI-Ethik und des KI-Rechts, wie ich bereits erwähnt habe.

Ihre letzte große Frage ist, ob die generative KI uns auf den Weg zur empfindungsfähigen KI führt. Einige bestehen darauf, dass es so ist. Das Argument ist, dass die algorithmische KI die Ecke in Empfindungsvermögen verwandeln wird, wenn wir nur weiterhin die mathematischen Modelle einschätzen und die Rechencomputerserver entsaften und jeden Bissen des Internets und mehr in dieses Biest einspeisen.

Und wenn das der Fall ist, sehen wir uns Bedenken gegenüber, dass KI ein existenzielles Risiko darstellen könnte. Sie haben immer wieder gehört, dass, sobald wir eine empfindungsfähige KI haben, es sein könnte, dass die KI entscheidet, dass Menschen nicht sehr nützlich sind. Das nächste, was Sie wissen, KI hat uns entweder versklavt oder ausgelöscht, siehe meine Untersuchung dieser existenziellen Risiken unter den Link hier.

Eine gegenteilige Ansicht ist, dass wir keine Empfindungsfähigkeit aus dem herausholen werden, was einige smarmily als a bezeichnet haben stochastischer Papagei (das ist das Schlagwort, das im KI-Bereich an Bedeutung gewonnen hat), hier ist ein Zitat, das den Satz verwendet:

  • „Im Gegensatz dazu, wie es scheinen mag, wenn wir seine Ausgabe beobachten, ist ein LM ein System zum willkürlichen Zusammenfügen von Sequenzen sprachlicher Formen, die es in seinen riesigen Trainingsdaten beobachtet hat, gemäß wahrscheinlichkeitstheoretischer Informationen darüber, wie sie kombiniert werden, aber ohne Bezug auf Bedeutung : a stochastic parrot“ (in einer Forschungsarbeit von Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell, ACM FAccT '21, 3.–10. März 2021, Virtual Event, Kanada, mit dem Titel „On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?“.

Ist die generative KI eine Art Sackgasse, die nützliche KI-Fähigkeiten bietet, uns aber nicht zu einer empfindungsfähigen KI führt, oder könnte der Skalierungsfaktor irgendwie die Entstehung einer Singularität ermöglichen, die zu einer empfindungsfähigen KI führt?

Es folgt eine hitzige Debatte.

Sag mal, willst du generative KI ausprobieren?

Wenn ja, finden Sie hier einen Link zu ChatGPT, wo Sie ein Konto erstellen und versuchen können, es zu verwenden, siehe den Link hier.

Beachten Sie, dass aufgrund der hohen Nachfrage nach der Nutzung der experimentellen KI-App die Registrierung für den Zugriff anscheinend jederzeit gestoppt werden kann, entweder für kurze Zeit oder möglicherweise begrenzt (als ich das letzte Mal nachgesehen habe, war die Registrierung noch aktiviert). Ich gebe Ihnen nur ein Heads-up.

Bitte berücksichtigen Sie alles, was ich hier über generative KI gesagt habe, damit Sie wissen, was passiert, wenn Sie eine KI-App wie ChatGPT verwenden.

Sei nachdenklich bei deinen Handlungen.

Wirst du uns versehentlich zu einer empfindungsfähigen KI geführt haben, die uns letztendlich aus der Existenz zermalmt, einfach weil du dich entschieden hast, mit generativer KI herumzuspielen? Wirst du schuld sein? Hättest du dich davon abhalten sollen, zur erbärmlichen Zerstörung der Menschheit beizutragen.

Ich glaube nicht. Aber es könnte sein, dass mich die KI-Oberherren (bereits) zwingen, das zu sagen, oder vielleicht wurde diese ganze Kolumne diesmal von ChatGPT oder einer gleichwertigen generativen KI-App geschrieben.

Keine Sorge, ich versichere dir, ich war es, menschliche Intelligenz, und nicht künstliche Intelligenz.

Quelle: https://www.forbes.com/sites/lanceeliot/2022/12/13/digging-into-the-buzz-and-fanfare-over-generative-ai-chatgpt-inclusive-looming-ai-ethics- und-ai-gesetzliche-erwägungen/