Generativer KI-ChatGPT kann Ihre privaten und vertraulichen Daten beunruhigend verschlingen, warnt KI-Ethik und KI-Recht

Jetzt sehen Sie Ihre Daten, jetzt nicht.

Inzwischen sind Ihre wertvollen Daten sozusagen Teil des Kollektivs geworden.

Ich beziehe mich auf einen Aspekt, der für diejenigen unter Ihnen, die eifrig und ernsthaft die neuesten Entwicklungen in der künstlichen Intelligenz (KI) nutzen, ziemlich überraschend sein könnte. Die Daten, die Sie in eine KI-App eingeben, sind möglicherweise überhaupt nicht ganz privat für Sie und Sie allein. Es könnte sein, dass Ihre Daten vom KI-Hersteller verwendet werden, um vermutlich zu versuchen, seine KI-Dienste zu verbessern, oder dass sie und/oder sogar ihre verbündeten Partner für eine Vielzahl von Zwecken verwendet werden.

Sie sind jetzt vorgewarnt.

Diese Weitergabe Ihrer Daten erfolgt auf die harmloseste Art und Weise und von möglicherweise Tausenden oder in der Größenordnung von Millionen von Menschen. Wie das? Es gibt eine Art von KI, die als generative KI bekannt ist und in letzter Zeit große Schlagzeilen und die große Aufmerksamkeit der Öffentlichkeit auf sich gezogen hat. Die bemerkenswerteste der bestehenden generativen KI-Apps ist eine namens ChatGPT, die von der Firma OpenAI entwickelt wurde.

Es gibt angeblich rund eine Million registrierte Benutzer für ChatGPT. Viele dieser Benutzer scheinen es zu genießen, diese heißeste und neueste generative KI-App auszuprobieren. Der Vorgang ist außerordentlich einfach. Sie geben einen Text als Eingabeaufforderung ein, und voila, die ChatGPT-App generiert eine Textausgabe, die normalerweise die Form eines Essays hat. Einige bezeichnen dies als Text-zu-Text, obwohl ich es lieber als Text-zu-Essay bezeichne, da diese Ausdrucksweise mehr alltäglichen Sinn ergibt.

Zunächst wird ein Neuling wahrscheinlich etwas Lustiges und Sorgloses eingeben. Erzählen Sie mir etwas über das Leben und die Zeiten von George Washington, könnte jemand als Aufforderung eintreten. ChatGPT würde dann einen Aufsatz über unseren legendären ersten Präsidenten produzieren. Der Aufsatz wäre völlig flüssig und es wäre schwer zu erkennen, dass er von einer KI-App erstellt wurde. Eine aufregende Sache, die passiert.

Die Chancen stehen gut, dass nach einer Weile des Herumspielens ein Segment von Neulingen sich satt gesehen hat und sich möglicherweise dafür entscheidet, nicht mehr mit ChatGPT herumzuspielen. Sie haben jetzt ihre FOMO (Angst, etwas zu verpassen) überwunden, nachdem sie mit der KI-App experimentiert haben, über die so ziemlich jeder zu schwatzen scheint. Tat vollbracht.

Einige werden jedoch anfangen, über andere und ernsthaftere Möglichkeiten zur Nutzung der generativen KI nachzudenken.

Verwenden Sie vielleicht ChatGPT, um das Memo zu schreiben, das Ihr Chef Sie zum Schreiben auffordert. Alles, was Sie tun müssen, ist eine Eingabeaufforderung mit den Aufzählungspunkten, die Sie im Sinn haben, und als Nächstes wissen Sie, dass ChatGPT ein ganzes Memo erstellt hat, das Ihren Chef stolz auf Sie machen würde. Sie kopieren den ausgegebenen Aufsatz von ChatGPT, fügen ihn in die offizielle Vorlage des Unternehmens in Ihrem Textverarbeitungspaket ein und senden das stilvolle Memorandum per E-Mail an Ihren Vorgesetzten. Du bist eine Million Dollar wert. Und Sie haben Ihr Gehirn eingesetzt, um ein praktisches Werkzeug zu finden, das die harte Arbeit für Sie erledigt. Klopfen Sie sich auf den Rücken.

Das ist nicht alles.

Ja, es gibt noch mehr.

Denken Sie daran, dass die generative KI eine Reihe anderer schreibbezogener Aufgaben ausführen kann.

Angenommen, Sie haben eine Art Erzählung für einen geschätzten Kunden geschrieben und möchten das Material unbedingt überprüfen lassen, bevor es veröffentlicht wird.

Kinderleicht.

Sie fügen den Text Ihrer Erzählung in eine ChatGPT-Eingabeaufforderung ein und weisen dann ChatGPT an, den von Ihnen verfassten Text zu analysieren. Der resultierende ausgegebene Aufsatz könnte sich tief in Ihre Formulierungen vertiefen und zu Ihrer angenehmen Überraschung versuchen, die Bedeutung dessen, was Sie gesagt haben, scheinbar zu überprüfen (und weit über die Funktion einer Rechtschreibprüfung oder Grammatikanalyse hinausgehen). Die KI-App erkennt möglicherweise Fehler in der Logik Ihrer Erzählung oder entdeckt Widersprüche, von denen Sie nicht wussten, dass sie in Ihrem eigenen Schreiben vorhanden sind. Es ist fast so, als hätten Sie einen schlauen menschlichen Redakteur eingestellt, um Ihren Entwurf zu prüfen und eine Litanei hilfreicher Vorschläge und Bedenken zu machen (nun, ich möchte kategorisch betonen, dass ich nicht versuche, die KI-App zu vermenschlichen, insbesondere, dass ein menschlicher Redakteur es tut ein Mensch, während die KI-App lediglich ein Computerprogramm ist).

Gott sei Dank haben Sie die generative KI-App verwendet, um Ihre wertvolle schriftliche Erzählung zu überprüfen. Sie würden es zweifellos vorziehen, dass die KI diese beunruhigenden schriftlichen Probleme findet, anstatt das Dokument an Ihren geschätzten Kunden zu senden. Stellen Sie sich vor, Sie hätten die Erzählung für jemanden komponiert, der Sie beauftragt hatte, eine ziemlich wichtige Darstellung zu entwickeln. Wenn Sie dem Kunden die Originalversion gegeben hätten, bevor Sie die KI-App überprüft haben, könnten Sie in große Verlegenheit geraten. Der Kunde würde mit ziemlicher Sicherheit ernsthafte Zweifel an Ihrer Fähigkeit hegen, die angeforderte Arbeit zu erledigen.

Lassen Sie uns den Einsatz erhöhen.

Betrachten Sie die Erstellung von Rechtsdokumenten. Das ist offensichtlich eine besonders ernste Angelegenheit. Wörter und wie sie zusammengesetzt sind, können eine temperamentvolle Rechtsverteidigung oder ein düsteres Rechtsunglück bedeuten.

In meiner laufenden Forschung und Beratung interagiere ich regelmäßig mit vielen Anwälten, die sehr daran interessiert sind, KI im Rechtsbereich einzusetzen. Verschiedene LegalTech-Programme werden mit KI-Fähigkeiten verbunden. Ein Anwalt kann generative KI verwenden, um einen Vertragsentwurf oder andere juristische Dokumente zu verfassen. Darüber hinaus kann der Anwalt, wenn er selbst einen ersten Entwurf erstellt hat, den Text an eine generative KI-App wie ChatGPT übergeben, um einen Blick darauf zu werfen, welche Löcher oder Lücken möglicherweise entdeckt werden. Weitere Informationen darüber, wie sich Anwälte und der Rechtsbereich für den Einsatz von KI entscheiden, finden Sie in meiner Diskussion unter den Link hier.

Wir sind jedoch bereit, uns darauf einzulassen.

Ein Anwalt nimmt einen Vertragsentwurf und kopiert den Text in eine Eingabeaufforderung für ChatGPT. Die KI-App erstellt eine Bewertung für den Rechtsanwalt. Es stellt sich heraus, dass ChatGPT mehrere Fallstricke findet. Der Anwalt ändert den Vertrag. Sie können ChatGPT auch bitten, eine Umformulierung oder Wiederholung des verfassten Textes für sie vorzuschlagen. Eine neue und bessere Version des Vertrages wird dann von der generativen KI-App erstellt. Der Anwalt schnappt sich den ausgegebenen Text und steckt ihn in eine Textverarbeitungsdatei. Das Schreiben geht an ihren Kunden. Mission erfüllt.

Kannst du erraten, was auch gerade passiert ist?

Hinter den Kulissen und unter der Motorhaube könnte der Vertrag wie ein Fisch im Maul eines Wals geschluckt worden sein. Auch wenn es diesem KI-Anwalt nicht bewusst ist, könnte der Vertragstext, der als Eingabeaufforderung in ChatGPT eingefügt wird, möglicherweise von der KI-App verschlungen werden. Es ist jetzt Futter für den Musterabgleich und andere rechnerische Feinheiten der KI-App. Dies wiederum könnte auf vielfältige Weise verwendet werden. Wenn der Entwurf vertrauliche Daten enthält, fallen auch diese möglicherweise jetzt in die Grenzen von ChatGPT. Ihre Eingabeaufforderung, wie sie der KI-App bereitgestellt wird, ist nun angeblich auf die eine oder andere Weise Teil des Kollektivs.

Darüber hinaus wird auch der ausgegebene Aufsatz als Teil des Kollektivs betrachtet. Wenn Sie ChatGPT gebeten haben, den Entwurf für Sie zu ändern und die neue Vertragsversion vorzulegen, wird dies als ausgegebener Aufsatz ausgelegt. Die Ausgaben von ChatGPT sind auch eine Art von Inhalt, der von der KI-App beibehalten oder anderweitig transformiert werden kann.

Huch, Sie könnten unschuldig private oder vertrauliche Informationen preisgegeben haben. Nicht gut. Außerdem würdest du dir nicht einmal bewusst sein, dass du das getan hast. Es wurden keine Fahnen gehisst. Eine Hupe ertönte nicht. Keine blinkenden Lichter gingen an, um Sie in die Realität zu schockieren.

Wir können davon ausgehen, dass Nichtanwälte leicht einen solchen Fehler machen könnten, aber für einen versierten Anwalt ist es nahezu unvorstellbar, denselben Anfängerfehler zu begehen. Nichtsdestotrotz gibt es wahrscheinlich Juristen, die gerade jetzt denselben potenziellen Fehler machen. Sie riskieren, ein bemerkenswertes Element des Anwaltsgeheimnisses zu verletzen und möglicherweise gegen die Model Rules of Professional Conduct (MRPC) der American Bar Association (ABA) zu verstoßen. Insbesondere: „Ein Anwalt darf Informationen in Bezug auf die Vertretung eines Mandanten nicht offenlegen, es sei denn, der Mandant gibt seine informierte Zustimmung, die Offenlegung ist stillschweigend autorisiert, um die Vertretung durchzuführen, oder die Offenlegung ist nach Absatz (b) erlaubt“ (zitiert aus dem MRPC, und für die die mit Unterabschnitt b verbundenen Ausnahmen die Verwendung einer generativen KI-App auf nicht sichere Weise nicht zu umfassen scheinen).

Einige Anwälte könnten versuchen, ihre Übertretung zu entschuldigen, indem sie behaupten, sie seien keine Technik-Zauberer und hätten keine Mittel gehabt, um zu wissen, dass ihre Eingabe vertraulicher Informationen in eine generative KI-App irgendwie eine Art Verstoß darstellen könnte. Die ABA hat klargestellt, dass es eine Pflicht für Anwälte ist, aus rechtlicher Sicht auf dem neuesten Stand von KI und Technologie zu sein: „Um die erforderlichen Kenntnisse und Fähigkeiten aufrechtzuerhalten, sollte ein Anwalt über Änderungen im Recht und seiner Praxis auf dem Laufenden bleiben, einschließlich die Vorteile und Risiken, die mit der relevanten Technologie verbunden sind, sich weiterbilden und weiterbilden und alle gesetzlichen Weiterbildungsanforderungen erfüllen, denen der Rechtsanwalt unterliegt“ (gemäß MRPC).

Mehrere Bestimmungen kommen in diesen Anschein einer gesetzlichen Pflicht, einschließlich der Wahrung vertraulicher Informationen des Kunden (Regel 1.6), des Schutzes des Eigentums des Kunden wie Daten (Regel 1.15), der ordnungsgemäßen Kommunikation mit einem Kunden (Regel 1.4), der Einholung der Einwilligung des Kunden (Regel 1.6), und Gewährleistung einer kompetenten Vertretung im Namen eines Kunden (Regel 1.1). Und es gibt auch die wenig bekannte, aber höchst bemerkenswerte KI-fokussierte Resolution, die von der ABA verabschiedet wurde: „Dass die American Bar Association Gerichte und Anwälte nachdrücklich auffordert, die aufkommenden ethischen und rechtlichen Probleme im Zusammenhang mit der Verwendung künstlicher Intelligenz ('KI') anzugehen. in der Rechtspraxis, einschließlich: (1) Voreingenommenheit, Erklärbarkeit und Transparenz von automatisierten Entscheidungen, die von KI getroffen werden; (2) ethische und vorteilhafte Nutzung von KI; und (3) Kontrollen und Aufsicht über KI und die Anbieter, die KI bereitstellen.“

Worte an die Weisen für meine juristischen Freunde und Kollegen.

Der springende Punkt ist, dass sich bei der Verwendung von generativer KI so gut wie jeder in die Klemme bringen kann. Nicht-Juristen können dies aufgrund ihres vermeintlichen Mangels an juristischem Scharfsinn tun. Das können auch Anwälte, die vielleicht in die KI verliebt sind oder nicht tief durchatmen und darüber nachdenken, welche rechtlichen Auswirkungen der Einsatz generativer KI haben kann.

Wir sitzen alle potenziell im selben Boot.

Sie sollten sich auch darüber im Klaren sein, dass ChatGPT nicht die einzige generative KI-App auf dem Block ist. Es gibt andere generative KI-Apps, die Sie verwenden können. Auch sie sind wahrscheinlich aus demselben Holz geschnitzt, nämlich dass die Eingaben, die Sie als Eingabeaufforderungen eingeben, und die Ausgaben, die Sie als generierte ausgegebene Aufsätze erhalten, als Teil des Kollektivs betrachtet werden und vom KI-Hersteller verwendet werden können.

In der heutigen Kolumne werde ich darlegen, wie Daten, die Sie eingeben, und Daten, die Sie von generativer KI erhalten, in Bezug auf Datenschutz und Vertraulichkeit potenziell gefährdet sein können. Die KI-Hersteller stellen ihre Lizenzanforderungen zur Verfügung, und Sie sollten sich über diese wichtigen Bestimmungen informieren, bevor Sie eine KI-App mit dem Anschein echter Daten aktiv nutzen. Ich werde Sie durch ein Beispiel einer solchen Lizenzierung führen, und zwar für die ChatGPT-KI-App.

In all dies kommt eine ganze Reihe von Überlegungen zur KI-Ethik und zum KI-Recht.

Bitte beachten Sie, dass es laufende Bemühungen gibt, ethische KI-Prinzipien in die Entwicklung und den Einsatz von KI-Apps einfließen zu lassen. Eine wachsende Gruppe von besorgten und ehemaligen KI-Ethikern versucht sicherzustellen, dass Bemühungen um die Entwicklung und Einführung von KI eine Sichtweise des Tuns berücksichtigen KI für immer und abwenden KI für schlecht. Ebenso werden neue KI-Gesetze vorgeschlagen, die als mögliche Lösungen herumgereicht werden, um zu verhindern, dass KI-Bemühungen in Bezug auf Menschenrechte und dergleichen Amok laufen. Für meine laufende und umfassende Berichterstattung über KI-Ethik und KI-Recht siehe den Link hier und den Link hier, nur um ein paar zu nennen.

Es gibt erhebliche ethische KI-Nuancen und -Bestimmungen, die damit zusammenhängen, wie KI-Hersteller mit Daten oder Informationen umgehen können oder sollten, die ihren Benutzern als privat oder vertraulich erscheinen. Sie wissen wahrscheinlich auch, dass eine Reihe bestehender Gesetze den Kern der Art und Weise treffen, wie Daten von Technologieunternehmen gehandhabt werden sollen. Die Chancen stehen auch gut, dass die neu vorgeschlagenen KI-Gesetze auch in dasselbe Gebiet eingreifen werden. Siehe zum Beispiel meine Berichterstattung über die AI-Bill of Rights und andere Rechtsstreitigkeiten über KI, at den Link hier.

Hier ist die wichtigste Erkenntnis aus dieser Diskussion:

  • Seien Sie sehr, sehr, sehr vorsichtig, welche Daten oder Informationen Sie in Ihre Eingabeaufforderungen eingeben, wenn Sie generative KI verwenden, und seien Sie gleichermaßen äußerst vorsichtig und antizipieren Sie, welche Arten von ausgegebenen Essays Sie erhalten könnten, da die Ausgaben auch absorbiert werden können.

Bedeutet dies, dass Sie keine generative KI verwenden sollten?

Nein, das ist überhaupt nicht das, was ich sage.

Nutzen Sie generative KI nach Herzenslust. Das Wesentliche ist, dass Sie darauf achten müssen, wie Sie es verwenden. Informieren Sie sich, welche Lizenzbestimmungen mit der Nutzung verbunden sind. Entscheiden Sie, ob Sie mit diesen Vorgaben leben können. Wenn es Möglichkeiten gibt, den KI-Hersteller darüber zu informieren, dass Sie bestimmte Arten von zusätzlichen Schutzmaßnahmen oder Genehmigungen geltend machen möchten, stellen Sie sicher, dass Sie dies tun.

Ich werde auch eine andere Facette erwähnen, von der ich weiß, dass sie einige Leute zum Kochen bringen wird. Hier geht. Unabhängig von den Lizenzbestimmungen müssen Sie auch davon ausgehen, dass diese Anforderungen möglicherweise nicht vollständig eingehalten werden. Die Dinge können schief gehen. Sachen können zwischen die Ritzen rutschen. Am Ende haben Sie vielleicht einen Rechtsstreit gegen einen KI-Hersteller, weil er sich nicht an seine Bestimmungen hält, aber das ist etwas, nachdem das Pferd bereits aus dem Stall ist.

Ein potenziell sehr sicherer Weg wäre, eine eigene Instanz auf Ihren eigenen Systemen einzurichten, sei es in der Cloud oder intern (und vorausgesetzt, Sie halten sich an die richtigen Cybersicherheitsvorkehrungen, die zugegebenermaßen einige nicht tun und die schlimmer sind). in der eigenen Cloud statt in der Cloud des Softwareherstellers). Ein etwas quälendes Problem ist jedoch, dass nur wenige der groß angelegten Apps mit generativer KI dies derzeit zulassen. Sie alle arbeiten so ziemlich nur auf unserer Cloud-Basis. Nur wenige bieten die Möglichkeit, eine ganze Instanz nur für Sie zu erstellen. Ich habe vorhergesagt, dass wir diese Option allmählich auftauchen sehen werden, obwohl sie zunächst ziemlich kostspielig und etwas kompliziert sein wird, siehe meine Vorhersagen unter den Link hier.

Wie gelangen sonst besonders kluge und besonders scharfsinnige Menschen in einen Sumpf der Daten- oder Informationsvertraulichkeitserosion?

Die Anziehungskraft dieser generativen KI-Apps ist ziemlich magnetisch, sobald Sie anfangen, eine zu verwenden. Schritt für Schritt werden Sie hypnotisiert und entscheiden sich, Ihre Zehen immer weiter in die Gewässer der generativen KI zu stecken. Das nächste, was Sie wissen, ist, dass Sie bereitwillig proprietäre Inhalte, die privat und vertraulich bleiben sollen, an eine generative KI-App übergeben.

Widerstehen Sie dem Drang und vermeiden Sie es bitte, schrittweise in eine unappetitliche Falle zu tappen.

Für Führungskräfte und Top-Level-Führungskräfte gilt dieselbe Warnung für Sie und alle Mitarbeiter in Ihrem Unternehmen. Auch leitende Angestellte werden von der Begeisterung und dem Erstaunen über den Einsatz generativer KI erfasst. Sie können es wirklich vermasseln und möglicherweise geheime Informationen der obersten Ebene in eine KI-App eingeben.

Darüber hinaus haben sie möglicherweise große Ligen ihrer Mitarbeiter, die ebenfalls mit generativer KI herumspielen. Viele dieser ansonsten aufmerksamen Mitarbeiter geben gedankenlos und glücklich die privaten und vertraulichen Informationen des Unternehmens in diese KI-Apps ein. Jüngsten Nachrichtenberichten zufolge hat Amazon offenbar entdeckt, dass einige Mitarbeiter verschiedene proprietäre Informationen in ChatGPT eingegeben haben. Intern soll eine rechtlich orientierte Warnung verschickt worden sein, um im Umgang mit der unwiderstehlichen KI-App vorsichtig zu sein.

Insgesamt kommt ein wenig Ironie in das zunehmende Phänomen, dass Mitarbeiter wohl oder übel vertrauliche Daten in ChatGPT und andere generative KI eingeben. Lassen Sie mich näher darauf eingehen. Die modernen Unternehmen von heute haben in der Regel strenge Cybersicherheitsrichtlinien, die sie sorgfältig ausgearbeitet und implementiert haben. Es gibt zahlreiche technologische Schutzmaßnahmen. Die Hoffnung ist, versehentliche Freisetzungen von entscheidenden Dingen zu verhindern. Ein kontinuierlicher Trommelschlag bedeutet, vorsichtig zu sein, wenn Sie Websites besuchen, vorsichtig sein, wenn Sie nicht genehmigte Apps verwenden, und so weiter.

Hinzu kommen generative KI-Apps wie ChatGPT. Die Neuigkeiten über die KI-App gehen durch die Decke und finden breite Beachtung. Es entsteht ein Rausch. Menschen in diesen Unternehmen, die über all diese Cybersicherheitsvorkehrungen verfügen, entscheiden sich für eine generative KI-App. Sie spielen zunächst untätig damit. Anschließend beginnen sie mit der Eingabe von Unternehmensdaten. Wham, sie haben jetzt möglicherweise Informationen offengelegt, die nicht hätten offengelegt werden dürfen.

Das glänzende neue Spielzeug, das die Ausgaben in Millionenhöhe für Cybersicherheitsschutz und fortlaufende Schulungen darüber, was man nicht tun sollte, auf magische Weise umgeht. Aber, hey, es ist aufregend, generative KI zu verwenden und Teil der In-Crowd zu sein. Darauf kommt es anscheinend an.

Ich vertraue darauf, dass Sie verstehen, dass ich ausgesprochen vorsichtig bin.

Lassen Sie uns als Nächstes einen genaueren Blick darauf werfen, wie die generative KI technisch mit dem Text der Eingabeaufforderungen und ausgegebenen Aufsätze umgeht. Wir werden auch einige der Lizenzbestimmungen am Beispiel von ChatGPT untersuchen. Bitte beachten Sie, dass ich nicht die gesamte Bandbreite dieser Lizenzelemente abdecken werde. Stellen Sie sicher, dass Sie Ihren Rechtsbeistand für alle generativen KI-Apps einbeziehen, für die Sie sich entscheiden könnten. Außerdem unterscheidet sich die Lizenzierung von KI-Hersteller zu KI-Hersteller, und ein bestimmter KI-Hersteller kann sich entscheiden, seine Lizenzierung zu ändern, also bleiben Sie wachsam, was auch immer die neueste Version der Lizenzierung vorschreibt.

Zu diesem berauschenden Thema haben wir einige spannende Auspackarbeiten zu erledigen.

Zunächst sollten wir sicherstellen, dass wir uns alle darüber einig sind, woraus Generative KI besteht und worum es bei ChatGPT geht. Sobald wir diese grundlegende Facette abgedeckt haben, können wir eine überzeugende Bewertung der Spiegelmetapher vornehmen, die mit dieser Art von KI verbunden ist.

Wenn Sie bereits reichlich mit Generative AI und ChatGPT vertraut sind, können Sie vielleicht den nächsten Abschnitt überfliegen und mit dem darauffolgenden Abschnitt fortfahren. Ich glaube, dass alle anderen die wichtigen Details zu diesen Themen aufschlussreich finden werden, wenn sie den Abschnitt genau lesen und sich auf den neuesten Stand bringen.

Eine kurze Einführung in generative KI und ChatGPT

ChatGPT ist ein universelles, interaktives, gesprächsorientiertes KI-System, im Wesentlichen ein scheinbar harmloser allgemeiner Chatbot, der jedoch aktiv und eifrig von Menschen auf eine Weise verwendet wird, die viele völlig unvorbereitet erwischt, wie ich gleich erläutern werde. Diese KI-App nutzt eine Technik und Technologie im KI-Bereich, die oft als bezeichnet wird Generative KI. Die KI generiert Ausgaben wie Text, was ChatGPT tut. Andere generative KI-Apps erzeugen Bilder wie Bilder oder Kunstwerke, während andere Audiodateien oder Videos erzeugen.

Ich werde mich in dieser Diskussion auf die textbasierten generativen KI-Apps konzentrieren, da ChatGPT dies tut.

Generative KI-Apps sind äußerst einfach zu bedienen.

Alles, was Sie tun müssen, ist eine Eingabeaufforderung einzugeben, und die KI-App generiert für Sie einen Aufsatz, der versucht, auf Ihre Eingabeaufforderung zu antworten. Der verfasste Text wird so aussehen, als ob der Aufsatz von menschlicher Hand und Verstand geschrieben wurde. Wenn Sie eine Eingabeaufforderung mit der Aufschrift „Erzählen Sie mir von Abraham Lincoln“ eingeben, liefert Ihnen die generative KI einen Aufsatz über Lincoln. Dies wird allgemein als leistungsstarke generative KI klassifiziert Text-zu-Text oder manche nennen es lieber Text-zu-Essay Ausgang. Wie bereits erwähnt, gibt es andere Modi der generativen KI, wie z. B. Text-to-Art und Text-to-Video.

Ihr erster Gedanke könnte sein, dass diese generative Fähigkeit keine so große Sache zu sein scheint, wenn es um die Erstellung von Aufsätzen geht. Sie können ganz einfach eine Online-Suche im Internet durchführen und Tonnen und Tonnen von Essays über Präsident Lincoln finden. Der Clou im Fall der generativen KI ist, dass der generierte Aufsatz relativ einzigartig ist und eher eine Originalkomposition als eine Nachahmung darstellt. Wenn Sie versuchen würden, den von der KI erstellten Aufsatz irgendwo online zu finden, würden Sie ihn wahrscheinlich nicht entdecken.

Die generative KI ist vortrainiert und nutzt eine komplexe mathematische und rechnerische Formulierung, die durch die Untersuchung von Mustern in geschriebenen Wörtern und Geschichten im Internet erstellt wurde. Als Ergebnis der Untersuchung von Tausenden und Millionen geschriebener Passagen kann die KI neue Aufsätze und Geschichten ausspucken, die ein Mischmasch aus dem sind, was gefunden wurde. Durch das Hinzufügen verschiedener probabilistischer Funktionen ist der resultierende Text im Vergleich zu dem, was im Trainingssatz verwendet wurde, ziemlich einzigartig.

Aus diesem Grund gab es einen Aufruhr darüber, dass Schüler beim Schreiben von Aufsätzen außerhalb des Klassenzimmers schummeln können. Ein Lehrer kann nicht einfach den Aufsatz nehmen, von dem betrügerische Schüler behaupten, dass es sich um ihren eigenen Text handelt, und herausfinden, ob er von einer anderen Online-Quelle kopiert wurde. Insgesamt wird es online keinen endgültigen, bereits vorhandenen Aufsatz geben, der zu dem von der KI generierten Aufsatz passt. Alles in allem muss der Lehrer widerwillig akzeptieren, dass der Schüler den Aufsatz als Originalarbeit geschrieben hat.

Es gibt weitere Bedenken hinsichtlich der generativen KI.

Ein entscheidender Nachteil ist, dass die von einer generativen KI-App erstellten Aufsätze verschiedene Unwahrheiten enthalten können, darunter offensichtlich unwahre Fakten, Fakten, die irreführend dargestellt werden, und scheinbare Fakten, die vollständig erfunden sind. Diese fabrizierten Aspekte werden oft als eine Form von bezeichnet KI-Halluzinationen, ein Schlagwort, das ich nicht mag, aber bedauerlicherweise trotzdem populär zu werden scheint (für meine detaillierte Erklärung, warum dies eine lausige und ungeeignete Terminologie ist, siehe meine Berichterstattung unter den Link hier).

Ich möchte einen wichtigen Aspekt klarstellen, bevor wir zu diesem Thema in die Tiefe gehen.

Es gab einige verrückte übergroße Behauptungen in den sozialen Medien darüber Generative KI behaupten, dass diese neueste Version der KI tatsächlich ist empfindungsfähige KI (Nein, sie sind falsch!). Diejenigen in den Bereichen KI-Ethik und KI-Recht sind besonders besorgt über diesen aufkeimenden Trend zu überzogenen Ansprüchen. Sie könnten höflich sagen, dass einige Leute übertreiben, was die heutige KI tatsächlich leisten kann. Sie gehen davon aus, dass KI Fähigkeiten hat, die wir noch nicht erreichen konnten. Das ist bedauerlich. Schlimmer noch, sie können zulassen, dass sie selbst und andere in schlimme Situationen geraten, weil sie davon ausgehen, dass die KI empfindungsfähig oder menschenähnlich sein wird, wenn es darum geht, Maßnahmen zu ergreifen.

KI nicht vermenschlichen.

Wenn Sie dies tun, geraten Sie in eine klebrige und mürrische Vertrauensfalle, in der Sie erwarten, dass die KI Dinge tut, die sie nicht ausführen kann. Abgesehen davon ist die neueste generative KI relativ beeindruckend für das, was sie kann. Beachten Sie jedoch, dass es erhebliche Einschränkungen gibt, die Sie bei der Verwendung einer generativen KI-App immer im Hinterkopf behalten sollten.

Wenn Sie sich für die schnell wachsende Aufregung um ChatGPT und generative KI insgesamt interessieren, habe ich in meiner Kolumne eine fokussierte Serie erstellt, die Sie vielleicht informativ finden. Hier ist ein Überblick, falls eines dieser Themen Sie anspricht:

  • 1) Vorhersagen über kommende generative KI-Fortschritte. Wenn Sie wissen möchten, was sich wahrscheinlich im Laufe des Jahres 2023 und darüber hinaus über die KI entwickeln wird, einschließlich der bevorstehenden Fortschritte bei der generativen KI und ChatGPT, sollten Sie meine umfassende Liste der Vorhersagen für 2023 unter lesen den Link hier.
  • 2) Generative KI und Beratung zur psychischen Gesundheit. Ich habe mich entschieden, zu überprüfen, wie generative KI und ChatGPT für die Beratung zur psychischen Gesundheit verwendet werden, ein problematischer Trend, gemäß meiner fokussierten Analyse unter den Link hier.
  • 3) Grundlagen der generativen KI und ChatGPT. Dieses Stück untersucht die Schlüsselelemente der Funktionsweise von generativer KI und geht insbesondere auf die ChatGPT-App ein, einschließlich einer Analyse der Begeisterung und Fanfare den Link hier.
  • 4) Spannungen zwischen Lehrern und Schülern wegen generativer KI und ChatGPT. Hier sind die Möglichkeiten, wie Schüler generative KI und ChatGPT auf hinterhältige Weise verwenden werden. Darüber hinaus gibt es für Lehrer mehrere Möglichkeiten, dieser Flutwelle entgegenzuwirken. Sehen den Link hier.
  • 5) Verwendung von Kontext und generativer KI. Ich habe auch eine saisonal gefärbte ironische Untersuchung über einen Weihnachtsmann-bezogenen Kontext mit ChatGPT und generativer KI bei durchgeführt den Link hier.
  • 6) Betrüger, die generative KI verwenden. Unheilverkündend ist, dass einige Betrüger herausgefunden haben, wie sie generative KI und ChatGPT verwenden können, um Fehlverhalten zu begehen, einschließlich der Generierung von Betrugs-E-Mails und sogar der Erstellung von Programmiercode für Malware, siehe meine Analyse unter den Link hier.
  • 7) Anfängerfehler mit generativer KI. Viele Leute überschießen und überraschenderweise unterschießen, was generative KI und ChatGPT leisten können, also habe ich mich besonders mit dem Unterschießen befasst, das KI-Neulinge tendenziell machen, siehe die Diskussion dazu den Link hier.
  • 8) Umgang mit generativen KI-Eingabeaufforderungen und KI-Halluzinationen. Ich beschreibe einen hochmodernen Ansatz zur Verwendung von KI-Add-Ons zur Bewältigung der verschiedenen Probleme, die mit dem Versuch verbunden sind, geeignete Eingabeaufforderungen in die generative KI einzugeben, und es gibt zusätzliche KI-Add-Ons zum Erkennen sogenannter KI-halluzinierter Ausgaben und Unwahrheiten, wie z bedeckt bei den Link hier.
  • 9) Entlarvung von Bonehead-Behauptungen über die Erkennung generativer KI-produzierter Essays. Es gibt einen fehlgeleiteten Goldrausch von KI-Apps, die behaupten, in der Lage zu sein, festzustellen, ob ein bestimmter Aufsatz von Menschen oder von KI generiert wurde. Insgesamt ist dies irreführend und in einigen Fällen eine dumme und unhaltbare Behauptung, siehe meine Berichterstattung unter den Link hier.
  • 10) Rollenspiele mittels generativer KI können negative Auswirkungen auf die psychische Gesundheit haben. Einige verwenden generative KI wie ChatGPT, um Rollenspiele zu spielen, wobei die KI-App auf einen Menschen reagiert, als würde er in einer Fantasiewelt oder einer anderen erfundenen Umgebung existieren. Dies könnte Auswirkungen auf die psychische Gesundheit haben, siehe den Link hier.
  • 11) Offenlegung des Bereichs der ausgegebenen Fehler und Unwahrheiten. Es werden verschiedene gesammelte Listen zusammengestellt, um zu versuchen, die Art der von ChatGPT produzierten Fehler und Unwahrheiten aufzuzeigen. Einige glauben, dass dies unerlässlich ist, während andere sagen, dass die Übung sinnlos ist, siehe meine Analyse unter den Link hier.
  • 12) Schulen, die Generative AI ChatGPT verbieten, verpassen das Boot. Sie wissen vielleicht, dass verschiedene Schulen wie das Bildungsministerium von New York City (NYC) die Verwendung von ChatGPT in ihrem Netzwerk und den zugehörigen Geräten verboten haben. Obwohl dies als hilfreiche Vorsichtsmaßnahme erscheinen mag, wird es die Nadel nicht bewegen und leider das Boot komplett verfehlen, siehe meine Berichterstattung unter den Link hier.
  • 13) Generative AI ChatGPT wird aufgrund der kommenden API überall sein. Bei der Verwendung von ChatGPT gibt es eine wichtige Wendung, nämlich dass über die Verwendung eines API-Portals in dieser speziellen KI-App andere Softwareprogramme ChatGPT aufrufen und nutzen können. Dies wird den Einsatz von generativer KI dramatisch erweitern und hat bemerkenswerte Konsequenzen, siehe meine Ausführungen unter den Link hier.
  • 14) Möglichkeiten, wie ChatGPT verpuffen oder schmelzen könnte. Mehrere potenziell ärgerliche Probleme liegen vor ChatGPT, wenn es darum geht, das bisher enorme Lob zu unterbieten, das es erhalten hat. Diese Analyse geht genau auf acht mögliche Probleme ein, die dazu führen könnten, dass ChatGPT an Fahrt verliert und sogar in der Hundehütte landet, siehe den Link hier.

Es könnte Sie interessieren, dass ChatGPT auf einer Version einer Vorgänger-KI-App namens GPT-3 basiert. ChatGPT wird als ein kleiner nächster Schritt angesehen, der als GPT-3.5 bezeichnet wird. Es wird erwartet, dass GPT-4 voraussichtlich im Frühjahr 2023 veröffentlicht wird. Vermutlich wird GPT-4 ein beeindruckender Schritt nach vorne sein, wenn es darum geht, scheinbar noch flüssigere Aufsätze zu produzieren, tiefer zu gehen und eine Ehrfurcht zu bieten -inspirierendes Staunen über die Kompositionen, die es hervorbringen kann.

Sie können erwarten, eine neue Runde der Bewunderung zu erleben, wenn der Frühling kommt und die neueste generative KI veröffentlicht wird.

Ich spreche das an, weil es noch einen anderen Blickwinkel gibt, der im Auge behalten werden muss, der aus einer potenziellen Achillesferse für diese besseren und größeren generativen KI-Apps besteht. Wenn ein KI-Anbieter eine generative KI-App zur Verfügung stellt, die schwülstig Fouls ausspuckt, könnte dies die Hoffnungen dieser KI-Hersteller zunichte machen. Ein gesellschaftlicher Spillover kann dazu führen, dass alle generative KI ein ernsthaftes blaues Auge bekommen. Die Menschen werden sich zweifellos über schlechte Ergebnisse aufregen, die bereits viele Male passiert sind und zu heftigen gesellschaftlichen Verurteilungsreaktionen gegenüber KI geführt haben.

Eine letzte Vorwarnung vorerst.

Was auch immer Sie in einer generativen KI-Antwort sehen oder lesen scheint rein sachlich vermittelt werden sollen (Daten, Orte, Personen usw.), bleiben Sie skeptisch und bereit, das, was Sie sehen, noch einmal zu überprüfen.

Ja, Daten können zusammengebraut werden, Orte können nachgeholt werden, und Elemente, von denen wir normalerweise erwarten, dass sie über jeden Zweifel erhaben sind, sind es alle Verdacht ausgesetzt. Glauben Sie nicht, was Sie lesen, und behalten Sie ein skeptisches Auge, wenn Sie Aufsätze oder Ergebnisse generativer KI untersuchen. Wenn Ihnen eine generative KI-App sagt, dass Abraham Lincoln in seinem eigenen Privatjet durch das Land geflogen ist, würden Sie zweifellos wissen, dass dies Malarky ist. Unglücklicherweise erkennen einige Leute vielleicht nicht, dass es zu seiner Zeit keine Jets gab, oder sie wissen es vielleicht, bemerken aber nicht, dass der Essay diese dreiste und unverschämt falsche Behauptung aufstellt.

Eine starke Dosis gesunder Skepsis und eine beständige Denkweise des Unglaubens werden Ihr größtes Kapital sein, wenn Sie generative KI verwenden.

Wir sind bereit, in die nächste Phase dieser Erläuterung einzutreten.

Zu wissen, was zum Teufel mit diesem Text passieren wird

Nachdem wir nun die Grundlagen geschaffen haben, können wir uns mit den Überlegungen zu Daten und Informationen bei der Verwendung von generativer KI befassen.

Lassen Sie uns zunächst kurz überlegen, was passiert, wenn Sie Text in eine Eingabeaufforderung für ChatGPT eingeben. Wir wissen nicht genau, was in ChatGPT passiert, da das Programm als proprietär gilt. Einige haben darauf hingewiesen, dass dies das Gefühl der Transparenz über die KI-App untergräbt. Eine etwas schmuddelige Bemerkung ist, dass die KI eines Unternehmens namens OpenAI eigentlich für den öffentlichen Zugriff geschlossen und nicht als Open Source verfügbar ist.

Lassen Sie uns über die Tokenisierung sprechen.

Wenn Sie einfachen Text in eine Eingabeaufforderung eingeben und die Eingabetaste drücken, findet vermutlich sofort eine Konvertierung statt. Der Text wird in ein Format umgewandelt, das aus Tokens besteht. Token sind Unterteile von Wörtern. Beispielsweise würde das Wort „Hamburger“ normalerweise in drei Token unterteilt, die aus den Teilen „Schinken“, „Bur“ und „Ger“ bestehen. Als Faustregel gilt, dass Token in der Regel etwa vier Zeichen darstellen oder ungefähr 75 % eines herkömmlichen englischen Wortes darstellen.

Jeder Token wird dann als Zahl neu formuliert. Verschiedene interne Tabellen geben an, welcher Token welcher Nummer zugeordnet ist. Der Grund dafür ist, dass der von Ihnen eingegebene Text jetzt vollständig aus einer Reihe von Zahlen besteht. Diese Zahlen werden verwendet, um die Eingabeaufforderung rechnerisch zu analysieren. Darüber hinaus basiert das zuvor erwähnte Pattern-Matching-Netzwerk ebenfalls auf tokenisierten Werten. Letztendlich werden beim Verfassen oder Erzeugen des ausgegebenen Aufsatzes diese numerischen Tokens zuerst verwendet, und dann, bevor sie angezeigt werden, werden die Tokens zurück in Sätze von Buchstaben und Wörtern umgewandelt.

Denken Sie einen Moment darüber nach.

Wenn ich Leuten erzähle, dass die Mechanik der Verarbeitung so funktioniert, sind sie oft fassungslos. Sie gingen davon aus, dass eine generative KI-App wie ChatGPT vollständig integrative Wörter verwenden muss. Wir gehen logischerweise davon aus, dass Wörter als Grundpfeiler für die statistische Identifizierung von Beziehungen in schriftlichen Erzählungen und Kompositionen dienen. Es stellt sich heraus, dass die Verarbeitung tatsächlich dazu neigt, Token zu verwenden. Vielleicht trägt dies zu dem Erstaunen darüber bei, wie der Rechenprozess die menschliche Sprache ziemlich überzeugend nachzuahmen scheint.

Ich habe Sie durch diesen Prozess geführt, aufgrund eines verbreiteten Missverständnisses, das sich zu verbreiten scheint. Einige Leute scheinen zu glauben, dass Sie sicher sein können, dass die Interna der KI-App Ihren ursprünglich eingegebenen Text nicht mehr enthalten, weil Ihr Eingabeaufforderungstext in numerische Token umgewandelt wird. Daher gilt der Anspruch, selbst wenn Sie vertrauliche Informationen in Ihre Eingabeaufforderung eingegeben haben, müssen Sie sich keine Sorgen machen, da alles scheinbar tokenisiert wurde.

Diese Vorstellung ist ein Trugschluss. Ich habe gerade darauf hingewiesen, dass numerische Token leicht in das Textformat von Buchstaben und Wörtern zurückgebracht werden können. Dasselbe könnte mit der konvertierten Eingabeaufforderung erfolgen, die in Tokens umgewandelt wurde. Es gibt nichts magisch Beschützendes daran, tokenisiert worden zu sein. Wenn es jedoch nach der Umwandlung in Token einen zusätzlichen Prozess gibt, der sich dafür entscheidet, Token herauszunehmen, sie herumzuschieben und auf andere Weise Dinge zu verwürfeln oder zu zerhacken, besteht in diesem Fall tatsächlich die Möglichkeit, dass einige Teile des Originals beschädigt werden Eingabeaufforderung sind nicht mehr intakt (und vorausgesetzt, dass eine Originalkopie nicht anderweitig aufbewahrt oder irgendwo intern gespeichert wird).

Als nächstes möchte ich einen Blick auf die verschiedenen Benachrichtigungen und Lizenzbestimmungen von ChatGPT werfen.

Wenn Sie sich bei ChatGPT anmelden, werden eine Reihe von Warnhinweisen und informativen Kommentaren angezeigt.

Hier sind sie:

  • „Kann gelegentlich falsche Informationen generieren.“
  • „Kann gelegentlich schädliche Anweisungen oder voreingenommene Inhalte produzieren.“
  • „Geschult, unangemessene Anfragen abzulehnen.“
  • „Unser Ziel ist es, externes Feedback zu erhalten, um unsere Systeme zu verbessern und sicherer zu machen.“
  • „Obwohl wir Sicherheitsvorkehrungen getroffen haben, kann das System gelegentlich falsche oder irreführende Informationen generieren und beleidigende oder voreingenommene Inhalte produzieren. Es ist nicht beabsichtigt, Ratschläge zu erteilen.“
  • „Gespräche können von unseren KI-Trainern überprüft werden, um unsere Systeme zu verbessern.“
  • „Bitte teilen Sie keine sensiblen Informationen in Ihren Gesprächen.“
  • „Dieses System ist für den Dialog optimiert. Teilen Sie uns mit, ob eine bestimmte Antwort gut oder nicht hilfreich war.“
  • „Begrenztes Wissen über die Welt und Ereignisse nach 2021.“

Zwei dieser genannten Vorsichtsmaßnahmen sind für diese Diskussion besonders relevant. Sehen Sie sich den sechsten Aufzählungspunkt und den siebten Aufzählungspunkt an.

Packen wir diese beiden aus:

„Gespräche können von unseren KI-Trainern überprüft werden, um unsere Systeme zu verbessern.“

Dieser sechste Aufzählungspunkt erklärt, dass Textkonversationen bei der Verwendung von ChatGPT möglicherweise von ChatGPT über seine „KI-Trainer“ überprüft werden, was zur Verbesserung ihrer Systeme durchgeführt wird. Hiermit möchten wir Sie darüber informieren, dass alle Ihre eingegebenen Textaufforderungen und die entsprechenden ausgegebenen Essays, die alle Teil der „Konversation“ sind, die Sie mit ChatGPT führen, von ihren Mitarbeitern vollständig gesehen werden können. Die angeführte Begründung ist, dass dies zur Verbesserung der KI-App getan wird, und uns wird auch gesagt, dass es sich um eine Art Arbeitsaufgabe handelt, die von ihren KI-Trainern ausgeführt wird. Vielleicht ja, aber das Ergebnis ist, dass sie Sie darauf hingewiesen haben, dass sie Ihren Text einsehen können. Punkt, Punkt.

Wenn sie etwas anderes mit Ihrem Text machen würden, würden Sie sich wahrscheinlich juristisch beraten lassen, ob sie sich ungeheuerlich über die vorgeschlagenen Grenzen hinaus bewegt haben, den Text lediglich zum Zweck der Systemverbesserung zu überprüfen (vorausgesetzt, Sie haben herausgefunden, dass sie dies getan haben, welche von selbst scheint vielleicht unwahrscheinlich). Wie auch immer, Sie können sich das rechtliche Gezerre vorstellen, das versucht, sie darauf festzunageln, und ihre Versuche, sich mit Worten zu entziehen, weil sie irgendwie gegen die Grenzen ihres Haftungsausschlusses verstoßen haben.

„Bitte teilen Sie keine sensiblen Informationen in Ihren Gesprächen.“

Der siebte Aufzählungspunkt weist darauf hin, dass Sie in Ihren Gesprächen keine vertraulichen Informationen weitergeben dürfen. Das scheint relativ einfach. Ich nehme an, Sie könnten darüber streiten, woraus die Definition sensibler Informationen besteht. Außerdem sagt Ihnen der Aufzählungspunkt nicht, warum Sie keine vertraulichen Informationen weitergeben sollten. Wenn Sie eines Tages verzweifelt versuchen müssen zu erklären, warum Sie törichterweise vertrauliche Daten eingegeben haben, könnten Sie versuchen, mit erhobener Augenbraue zu behaupten, dass die Warnung unspezifisch war und Sie daher die Bedeutung nicht verstanden haben. Halten Sie den Atem an.

Alles in allem wage ich zu sagen, dass die meisten Leute, die ich bei der Verwendung von ChatGPT gesehen habe, dazu neigen, die Aufzählungspunkte nicht zu lesen, oder sie überfliegen die mit Aufzählungszeichen versehenen Vorsichtsmaßnahmen und nicken nur mit dem Kopf, als ob es der übliche juristische Kauderwelsch wäre, den Sie alle sehen Zeit. Nur wenige scheinen sich die Warnungen strikt zu Herzen zu nehmen. Ist dies ein Fehler des Anbieters, der die Vorsichtsmaßnahmen nicht stärker ausgeprägt hat? Oder sollten wir davon ausgehen, dass die Benutzer verantwortlich sind und die Warnungen aufmerksam gelesen, verstanden und anschließend vernünftig gehandelt haben sollten?

Einige behaupten sogar, dass die KI-App Sie immer wieder warnen sollte. Jedes Mal, wenn Sie eine Eingabeaufforderung eingeben, sollte die Software eine Warnung anzeigen und Sie fragen, ob Sie die Eingabetaste drücken möchten. Wieder und wieder. Obwohl dies wie eine hilfreiche Vorsichtsmaßnahme erscheinen mag, würde es zugegebenermaßen die Benutzer zutiefst irritieren. Ein heikler Kompromiss ist damit verbunden.

Okay, das sind also die offensichtlichen Vorsichtsmaßnahmen, die für alle Benutzer leicht ersichtlich sind.

Neugierige Benutzer könnten sich dafür entscheiden, einige der detaillierten Lizenzbestimmungen zu verfolgen, die ebenfalls online veröffentlicht werden. Ich bezweifle, dass viele das tun. Meine Vermutung ist, dass nur wenige beim Einloggen ernsthaft auf die Aufzählungszeichen schauen, und noch viel weniger werfen dann einen Blick auf die Lizenzdetails. Auch hier sind wir heutzutage alle etwas taub gegenüber solchen Dingen. Ich entschuldige das Verhalten nicht, sondern bemerke nur, warum es auftritt.

Ich werde einige Auszüge aus den geposteten Lizenzbedingungen untersuchen.

Zunächst ist hier eine Definition dessen, was sie als „Inhalt“ im Zusammenhang mit der Verwendung von ChatGPT betrachten:

  • „Deine Inhalte. Sie können Eingaben für die Dienste bereitstellen („Eingabe“) und eine Ausgabe erhalten, die von den Diensten basierend auf der Eingabe generiert und zurückgegeben wird („Ausgabe“). Eingabe und Ausgabe sind zusammen „Inhalt“. Zwischen den Parteien und im gesetzlich zulässigen Umfang sind Sie Eigentümer aller Eingaben, und vorbehaltlich Ihrer Einhaltung dieser Bedingungen überträgt OpenAI Ihnen hiermit alle seine Rechte, Titel und Anteile an und an der Ausgabe. OpenAI kann Inhalte nach Bedarf verwenden, um die Dienste bereitzustellen und zu warten, geltendes Recht einzuhalten und unsere Richtlinien durchzusetzen. Sie sind für den Inhalt verantwortlich, einschließlich dafür, sicherzustellen, dass er nicht gegen geltendes Recht oder diese Bedingungen verstößt.“

Wenn Sie diese Definition sorgfältig prüfen, werden Sie feststellen, dass OpenAI erklärt, dass es den Inhalt so verwenden kann, wie es für die Aufrechterhaltung seiner Dienste erforderlich ist, einschließlich der Einhaltung geltender Gesetze und der Durchsetzung seiner Richtlinien. Dies ist ein praktischer Catchall für sie. In einer der nächsten meiner Kolumnen werde ich ein anderes, aber verwandtes Thema diskutieren, insbesondere über die Rechte an geistigem Eigentum (IP), die Sie in Bezug auf die eingegebenen Texteingabeaufforderungen und ausgegebenen Essays haben (ich weise hier darauf hin, da die Definition der Inhalt bezieht sich auf dieses Thema).

In einem weiteren Abschnitt der Begriffe, der als Abschnitt c bezeichnet wird, erwähnen sie diesen Aspekt: ​​„Einer der Hauptvorteile von Modellen für maschinelles Lernen ist, dass sie im Laufe der Zeit verbessert werden können. Um OpenAI bei der Bereitstellung und Wartung der Dienste zu unterstützen, stimmen Sie zu und weisen Sie an, dass wir Inhalte zur Entwicklung und Verbesserung der Dienste verwenden dürfen.“ Dies ähnelt der zuvor besprochenen einzeiligen Warnung, die angezeigt wird, wenn Sie sich bei ChatGPT anmelden.

Ein separates Dokument, das damit verknüpft ist, enthält einige zusätzliche Aspekte zu diesen wichtigen Themen:

  • „Als Teil dieser kontinuierlichen Verbesserung können wir, wenn Sie OpenAI-Modelle über unsere API verwenden, die Daten, die Sie uns zur Verfügung stellen, verwenden, um unsere Modelle zu verbessern. Dies hilft unseren Modellen nicht nur, genauer zu werden und Ihr spezifisches Problem besser zu lösen, sondern trägt auch dazu bei, ihre allgemeinen Fähigkeiten und ihre Sicherheit zu verbessern. Wir wissen, dass Datenschutz und Sicherheit für unsere Kunden von entscheidender Bedeutung sind. Wir achten sehr darauf, geeignete technische und Prozesskontrollen einzusetzen, um Ihre Daten zu sichern. Wir entfernen alle personenbezogenen Daten aus Daten, die wir zur Verbesserung der Modellleistung verwenden möchten. Wir verwenden auch nur eine kleine Stichprobe von Daten pro Kunde für unsere Bemühungen, die Modellleistung zu verbessern. Beispielsweise ist für eine Aufgabe die maximale Anzahl von API-Anfragen, die wir pro Kunde abtasten, auf 200 alle 6 Monate begrenzt“ (Auszug aus dem Dokument mit dem Titel „Wie Ihre Daten zur Verbesserung der Modellleistung verwendet werden“).

Beachten Sie, dass die Bestimmung angibt, dass die Bestimmung für die gilt Nutzung der API als Mittel zur Verbindung mit und Nutzung der OpenAI-Modelle insgesamt. Ob dies auch für Endbenutzer gilt, die ChatGPT direkt verwenden, ist etwas unklar.

In einem weiteren Dokument, das ihre Liste verschiedener häufig gestellter Fragen enthält, stellen sie eine Reihe von Fragen und Antworten bereit, von denen zwei für diese Diskussion besonders relevant erscheinen:

  • „(5) Wer kann meine Unterhaltungen sehen? Als Teil unseres Engagements für eine sichere und verantwortungsbewusste KI überprüfen wir Gespräche, um unsere Systeme zu verbessern und sicherzustellen, dass die Inhalte unseren Richtlinien und Sicherheitsanforderungen entsprechen.“
  • „(8) Können Sie bestimmte Eingabeaufforderungen löschen? Nein, wir sind nicht in der Lage, bestimmte Aufforderungen aus Ihrem Verlauf zu löschen. Bitte teilen Sie keine sensiblen Informationen in Ihren Gesprächen.“

Es gibt ein zusätzliches Dokument, das ihre Datenschutzrichtlinie abdeckt. Darin heißt es: „Wir sammeln Informationen, die allein oder in Kombination mit anderen Informationen in unserem Besitz verwendet werden könnten, um Sie zu identifizieren („personenbezogene Daten“)“ und erklärt dann weiter, dass sie Protokolldaten, Nutzungsdaten, Kommunikationsinformationen, Geräteinformationen, Cookies, Analysen und andere potenziell sammelbare Informationen über Sie. Lesen Sie unbedingt das Kleingedruckte.

Ich denke, das bietet so ziemlich einen Rundgang durch einige Überlegungen, die der Verwendung Ihrer Daten zugrunde liegen. Wie ich eingangs erwähnt habe, werde ich nicht mühsam alle Zulassungsbestimmungen abarbeiten.

Hoffentlich bringt Sie dies in eine geistige Verfassung zu diesen Angelegenheiten und bleibt auf dem Laufenden.

Fazit

Ich habe es bereits gesagt und ich sage es noch einmal, geben Sie keine vertraulichen oder privaten Daten in diese generativen KI-Apps ein.

Betrachten Sie ein paar praktische Tipps oder Optionen zu diesem weisen Ratschlag:

  • Denken Sie nach, bevor Sie generative KI verwenden
  • Sachen vorher entfernen
  • Maskieren oder fälschen Sie Ihre Eingabe
  • Richten Sie Ihre eigene Instanz ein
  • Andere

Ich werde als nächstes angeben, woraus jeder von denen besteht. Das Einrichten Ihrer eigenen Instanz wurde hier bereits behandelt. Die Verwendung von „Sonstiges“ in meiner Liste ist auf die Möglichkeit anderer Möglichkeiten zurückzuführen, um zu verhindern, dass vertrauliche Daten aufgenommen werden, was ich in einer zukünftigen Kolumne weiter behandeln werde.

Lassen Sie uns diese untersuchen:

  • Denken Sie nach, bevor Sie generative KI verwenden. Ein Ansatz besteht darin, den Einsatz von generativer KI ganz zu vermeiden. Oder überlegen Sie es sich zumindest zweimal, bevor Sie es tun. Ich nehme an, der sicherste Weg besteht darin, diese KI-Apps nicht zu verwenden. Aber das scheint auch ziemlich streng und fast über Bord zu gehen.
  • Sachen vorher entfernen. Ein anderer Ansatz besteht darin, vertrauliche oder private Informationen aus allem zu entfernen, was Sie als Eingabeaufforderung eingeben. In diesem Sinne besteht keine Chance, dass es in die Borg infundiert wird, wenn Sie es nicht betreten. Der Nachteil ist, dass das Entfernen des vertraulichen Teils möglicherweise irgendwie reduziert oder untergräbt, was Sie versuchen, die generative KI dazu zu bringen, für Sie zu tun.
  • Maskieren oder fälschen Sie Ihre Eingaben. Sie könnten Ihren vorgeschlagenen Text ändern, indem Sie die Informationen so ändern, dass alles, was vertraulich oder privat erscheint, jetzt anders dargestellt wird. Anstelle eines Vertrags, in dem die Widget Company und John Smith erwähnt werden, ändern Sie beispielsweise den Text so, dass er sich auf die Specious Company und Jane Capone bezieht. Eine Frage hier ist, ob Sie eine ausreichend erschöpfende Arbeit leisten, sodass alle vertraulichen und privaten Aspekte vollständig verändert oder gefälscht werden. Es wäre leicht, einige der Trübungen zu übersehen und Dinge zu hinterlassen, die nicht dort sein sollten.

Hier ist eine interessante zusätzliche Wendung, die Ihren Noggin dazu bringen könnte, sich weiter mit diesem Thema zu beschäftigen. Wenn Sie vollständig sicherstellen können, dass keine Ihrer Eingabeaufforderungen vertrauliche Informationen enthält, bedeutet dies, dass Sie sich keine Gedanken darüber machen müssen, dass die ausgegebenen Aufsätze auch vertrauliche Informationen enthalten?

Dies scheint axiomatisch wahr zu sein. Kein vertraulicher Input, kein vertraulicher Output.

Hier ist Ihre umwerfende Wendung.

Generative KI ist oft so eingerichtet, dass sie sich rechnerisch von den bereitgestellten Texteingabeaufforderungen neu trainiert. Ebenso wird generative KI häufig entwickelt, um die ausgegebenen Essays rechnerisch neu zu trainieren. All diese Umschulungen sollen die Fähigkeiten der generativen KI verbessern.

In einer meiner anderen Kolumnen beschrieb ich das folgende Experiment, das ich unternahm. Ein Anwalt versuchte, ein neuartiges Mittel zur Lösung eines Rechtsproblems zu finden. Nach einem gründlichen Blick in die juristische Literatur schien es, als wären alle bereits aufgetauchten Winkel gefunden worden. Mithilfe von generativer KI haben wir die KI-App dazu gebracht, eine Neuheit eines Rechtsansatzes zu produzieren, der zuvor scheinbar nicht identifiziert worden war. Es wurde geglaubt, dass noch niemand auf dieser Rechtslage gelandet sei. Ein legales Goldnugget sozusagen. Dies könnte eine strategisch wertvolle wettbewerbsrechtliche Goldgrube sein, die zum richtigen Zeitpunkt genutzt und ausgenutzt werden kann.

Stellt dieser ausgegebene Aufsatz eine Form vertraulicher Informationen dar, so dass er von der KI für diese bestimmte Person generiert wurde und etwas Besonderes und scheinbar Einzigartiges enthält?

Aha, das führt uns zu dem anderen verwandten und verflochtenen Thema über die Eigentums- und IP-Rechte im Zusammenhang mit generativer KI. Bleiben Sie dran, um zu sehen, wie das ausgeht.

Eine letzte Bemerkung vorerst.

Sophokles lieferte diese Weisheit: „Tut nichts im Verborgenen; denn die Zeit sieht und hört alle Dinge und enthüllt alles.“ Ich nehme an, Sie könnten den Wortlaut modernisieren und behaupten, dass die generative KI und diejenigen, die die KI entwickeln und pflegen, auch dazu neigen, alles zu sehen.

Es ist ein bescheidener Hinweis, an den man sich erinnern sollte.

Quelle: https://www.forbes.com/sites/lanceeliot/2023/01/27/generative-ai-chatgpt-can-disturbingly-gobble-up-your-private-and-confidential-data-forewarns-ai- ethik-und-ai-recht/