Generativer KI-ChatGPT wird überall sein, sobald das API-Portal bald geöffnet wird, was die KI-Ethik und das KI-Gesetz verblüfft

Lass den Kraken frei!

Sie sind zweifellos mit diesem berühmten Schlagwort vertraut, das insbesondere von Schauspieler Liam Neeson in ausgesprochen wurde Der Kampf der Titanen als er befiehlt, dass das legendäre Seeungeheuer freigelassen wird, mit dem Ziel, immenses Chaos und übergroße Zerstörung anzurichten. Die Linie wurde endlos wiederholt und brachte alle möglichen Memes hervor. Trotz der verschiedenen Parodien spüren die meisten Menschen immer noch zumindest instinktiv, dass die Bemerkung etwas von einer schattenhaften und gefährlichen Entstehung vorhersagt, die entfesselt werden wird.

Vielleicht lässt sich das gleiche Gefühl heutzutage auf die künstliche Intelligenz (KI) übertragen.

Lassen Sie mich näher darauf eingehen.

Eine kürzliche Ankündigung deutete darauf hin, dass eine inzwischen überaus berühmte KI-App namens ChatGPT, die von der Organisation OpenAI hergestellt wird, bald für den Zugriff durch andere Programme verfügbar gemacht werden soll. Das sind große Neuigkeiten. Ich sage das, obwohl nur wenige der regulären Medien die Ankündigung aufgegriffen haben. Abgesehen von flüchtigen Erwähnungen wird die volle Wirkung dieses bevorstehenden Zugriffs ziemlich bedeutend sein.

Warum das so ist, erkläre ich in der heutigen Kolumne. Sie können sich entsprechend vorbereiten.

Einige glauben felsenfest, dass dies dem Entfesseln des Kraken gleicht, nämlich dass alle möglichen schlimmen Dinge auftauchen werden. Andere sehen darin die Bereitstellung einer entscheidenden Ressource, die Tonnen anderer Apps durch die Nutzung der großartigen Fähigkeiten von ChatGPT verbessern kann. Es ist entweder die schlimmste Zeit oder die beste aller Zeiten. Wir betrachten hier beide Seiten der Debatte und Sie können selbst entscheiden, in welchem ​​Lager Sie landen.

In all dies kommt eine ganze Reihe von Überlegungen zur KI-Ethik und zum KI-Recht.

Bitte beachten Sie, dass es laufende Bemühungen gibt, ethische KI-Prinzipien in die Entwicklung und den Einsatz von KI-Apps einfließen zu lassen. Eine wachsende Gruppe von besorgten und ehemaligen KI-Ethikern versucht sicherzustellen, dass Bemühungen um die Entwicklung und Einführung von KI eine Sichtweise des Tuns berücksichtigen KI für immer und abwenden KI für schlecht. Ebenso werden neue KI-Gesetze vorgeschlagen, die als mögliche Lösungen herumgereicht werden, um zu verhindern, dass KI-Bemühungen in Bezug auf Menschenrechte und dergleichen Amok laufen. Für meine laufende und umfassende Berichterstattung über KI-Ethik und KI-Recht siehe den Link hier und den Link hier, nur um ein paar zu nennen.

Es gab wachsende Bedenken, dass ChatGPT und andere ähnliche KI-Apps eine hässliche Schattenseite haben, mit der wir vielleicht nicht fertig sind. Zum Beispiel haben Sie vielleicht gehört, dass Schüler in Schulen möglicherweise schummeln können, wenn es darum geht, zugewiesene Aufsätze über die Verwendung von ChatGPT zu schreiben. Die KI erledigt das ganze Schreiben für sie. In der Zwischenzeit kann der Student den Aufsatz scheinbar ungeschoren abgeben, als ob er das Schreiben aus eigener Kraft geschrieben hätte. Nicht das, was wir vermutlich von KI für die Menschheit erwarten.

Ein paar wichtige Grundlagen könnten hilfreich sein, um die Voraussetzungen dafür zu schaffen, worum es hier geht.

ChatGPT ist eine Art von KI, die allgemein als bezeichnet wird Generative KI. Diese trendigen generativen KI-Apps ermöglichen es Ihnen, eine kurze Eingabeaufforderung einzugeben und die App Ausgaben für Sie generieren zu lassen. Im Fall von ChatGPT ist die Ausgabe Text. Sie geben also eine Texteingabeaufforderung ein und die ChatGPT-App erstellt Text für Sie. Ich neige dazu, dies als einen bestimmten Untertyp der generativen KI zu beschreiben, der darauf ausgerichtet ist, Text-zu-Essay-Ausgaben zu generieren (es gibt andere Untertypen wie Text-zu-Bilder, Text-zu-Video usw.).

Der KI-Hersteller von ChatGPT hat angedeutet, dass bald eine API (Application Programming Interface) für die KI-App verfügbar sein wird. Kurz gesagt, eine API ist ein Mittel, das es anderen Programmen ermöglicht, fortzufahren und ein Programm zu verwenden, das ein Portal in der gegebenen Anwendung verfügbar macht. Das bedeutet, dass praktisch jedes andere Programm auf diesem Planeten möglicherweise die Nutzung von ChatGPT nutzen kann (na ja, wie lizenziert und nach Genehmigung durch den KI-Hersteller von ChatGPT, wie hier gleich weiter diskutiert wird).

Das Fazit ist, dass die Verwendung und Verwendung von ChatGPT potenziell durch die Decke schießen könnte.

Während es heute eine beeindruckende Anzahl von Anmeldungen gibt, an denen Personen beteiligt sind, die auf einem Krankengymnastik Grundlage ChatGPT verwenden kann, das vom KI-Hersteller auf eine Million Benutzer begrenzt wird, wird dies wahrscheinlich nur ein Tropfen auf den heißen Stein dessen sein, was noch kommen wird.

Stellen Sie fest, dass diese bestehenden Millionen Anmeldungen aus einem Teil bestehen, der ChatGPT für einen einmaligen Spaß verwendet hat, und nachdem der Nervenkitzel nachgelassen hat, haben sie es seitdem nicht mehr verwendet. Viele wurden vermutlich von der KI-App als virale Reaktion auf soziale Medien angezogen. Kurz gesagt, wenn alle anderen es nutzen wollten, wollten sie es auch tun. Nach einigen anfänglichen Experimenten mit der generativen KI waren sie zufrieden, dass sie ihre FOMO (Angst, etwas zu verpassen) abgewendet hatten.

Um es deutlich zu machen, ich behaupte nicht, dass die Leute ChatGPT nicht verwenden. Sie sind. Diejenigen, die sich angemeldet haben, stellen zunehmend fest, dass die KI-App überlastet ist. Viele, viele Leute nutzen die App. Von Zeit zu Zeit bekommt man ein paar geschickt komponierte traurige Hinweise, dass das System ausgelastet ist und man es später noch einmal versuchen sollte. Auf der Straße heißt es, dass die bestehende Infrastruktur für ChatGPT sich anstrengt, um mit den begeisterten Fans fertig zu werden, die die KI-App verwenden.

Und obwohl es nicht zu verachten ist, eine Million potenzieller Benutzer zu haben, wird die Zahl wahrscheinlich um ein Vielfaches in den Schatten gestellt, sobald die API verfügbar ist. Entwickler anderer Programme, die heute nichts mit generativer KI zu tun haben, werden auf den Zug der generativen KI aufspringen wollen. Sie werden ihr Programm mit ChatGPT verbinden wollen. Sie hoffen von ganzem Herzen, dass dies ihr bestehendes Programm in die Stratosphäre der Popularität katapultieren wird.

Denk darüber so. Nehmen Sie an, dass alle Arten von Softwareunternehmen, die heute Programme erstellen, die viele Millionen Benutzer erreichen, die oft insgesamt mehrere zehn und hundert Millionen Benutzer erreichen, sich dafür entscheiden, ihre jeweiligen Programme mit ChatGPT zu koppeln. Dies deutet darauf hin, dass das Volumen der Benutzer, die ChatGPT verwenden, in die Höhe schnellen könnte.

Der Kraken wird freigelassen.

Warum sollten sich verschiedene Softwareunternehmen mit ChatGPT koppeln wollen, fragen Sie sich vielleicht?

Eine einfache Antwort ist, dass sie genauso gut den erstaunlichen Rückenwind ausnutzen könnten, der ChatGPT vorwärts und nach oben treibt. Einige werden dies aus vernünftigen und übertriebenen Gründen tun. Andere werden dies nur tun, um zu versuchen, ihren eigenen Anschein von fünfzehn Minuten Ruhm zu erlangen.

Ich mag es, die Paarungen zu ChatGPT so zu schichten, dass sie aus zwei Hauptabsichten bestehen:

  • Echte Kopplung mit ChatGPT
  • Gefälschtes Pairing mit ChatGPT

Im ersten Fall besteht die Vorstellung, dass es eine gute Grundlage für die Kopplung mit ChatGPT gibt. Die Macher eines bestimmten Programms sind in der Lage, die greifbaren und funktionalen Vorteile, die sich aus einer Kopplung ihres Programms mit ChatGPT ergeben, gut zu artikulieren. Wir können alle in einer vernünftigen Verfassung erkennen, dass die Paarung eine himmlische Übereinstimmung ist.

Für den anderen Fall, bestehend aus dem, was ich als Fälschung bezeichne, werden einige versuchen, sich auf flüchtiger oder wackeliger Basis mit ChatGPT zu paaren. Der Business Case besteht aus nichts besonders Substanziellem. Die Paarung ist ein verzweifelter Versuch, die Schwänze von ChatGPT zu reiten. Jede vernünftige Inspektion würde zeigen, dass die Paarung von geringem Wert ist. Nun, ob Sie denken, dass dies eine richtige oder falsche Form der Paarung ist, hängt etwas in der Luft. Man könnte argumentieren, dass eine bestimmte Kopplung mit ChatGPT, selbst wenn die Kopplung nichts anderes bewirkt, als die Nutzung zu steigern, und keinen anderen funktionalen Zusatzwert hat, vermutlich immer noch eine Kopplung wert ist.

Ein kleiner Nachteil werden diejenigen sein, die die Paarung falsch darstellen und die Leute glauben machen, dass etwas Bemerkenswertes passiert, wenn es wirklich nicht der Fall ist. Wir können sicher erwarten, dass einige dies versuchen werden. Diejenigen in der KI-Ethik sind sehr besorgt über die Verwendung von Schlangenöl, die aus dem Holzwerk kommen wird. Es besteht auch die Möglichkeit, dass wir, wenn dies außer Kontrolle gerät, neue KI-bezogene Gesetze sehen werden, die zur Ausarbeitung und Verabschiedung angeregt werden.

Lassen Sie uns genauer untersuchen, was echte Paarungen ausmacht und was auch gefälschte Paarungen ausmacht.

Zunächst sollten wir sicherstellen, dass wir uns alle darüber einig sind, woraus Generative KI besteht und worum es bei ChatGPT geht. Sobald wir diese grundlegende Facette abgedeckt haben, können wir eine überzeugende Einschätzung darüber vornehmen, wie die API in ChatGPT die Dinge radikal verändern wird.

Wenn Sie bereits reichlich mit Generative AI und ChatGPT vertraut sind, können Sie vielleicht den nächsten Abschnitt überfliegen und mit dem darauffolgenden Abschnitt fortfahren. Ich glaube, dass alle anderen die wichtigen Details zu diesen Themen aufschlussreich finden werden, wenn sie den Abschnitt genau lesen und sich auf den neuesten Stand bringen.

Eine kurze Einführung in generative KI und ChatGPT

ChatGPT ist ein universelles, interaktives, gesprächsorientiertes KI-System, im Wesentlichen ein scheinbar harmloser allgemeiner Chatbot, der jedoch aktiv und eifrig von Menschen auf eine Weise verwendet wird, die viele völlig unvorbereitet erwischt, wie ich gleich erläutern werde. Diese KI-App nutzt eine Technik und Technologie im KI-Bereich, die oft als bezeichnet wird Generative KI. Die KI generiert Ausgaben wie Text, was ChatGPT tut. Andere generative KI-Apps erzeugen Bilder wie Bilder oder Kunstwerke, während andere Audiodateien oder Videos erzeugen.

Ich werde mich in dieser Diskussion auf die textbasierten generativen KI-Apps konzentrieren, da ChatGPT dies tut.

Generative KI-Apps sind äußerst einfach zu bedienen.

Alles, was Sie tun müssen, ist eine Eingabeaufforderung einzugeben, und die KI-App generiert für Sie einen Aufsatz, der versucht, auf Ihre Eingabeaufforderung zu antworten. Der verfasste Text wird so aussehen, als ob der Aufsatz von menschlicher Hand und Verstand geschrieben wurde. Wenn Sie eine Eingabeaufforderung mit der Aufschrift „Erzählen Sie mir von Abraham Lincoln“ eingeben, liefert Ihnen die generative KI einen Aufsatz über Lincoln. Dies wird allgemein als leistungsstarke generative KI klassifiziert Text-zu-Text oder manche nennen es lieber Text-zu-Essay Ausgang. Wie bereits erwähnt, gibt es andere Modi der generativen KI, wie z. B. Text-to-Art und Text-to-Video.

Ihr erster Gedanke könnte sein, dass diese generative Fähigkeit keine so große Sache zu sein scheint, wenn es um die Erstellung von Aufsätzen geht. Sie können ganz einfach eine Online-Suche im Internet durchführen und Tonnen und Tonnen von Essays über Präsident Lincoln finden. Der Clou im Fall der generativen KI ist, dass der generierte Aufsatz relativ einzigartig ist und eher eine Originalkomposition als eine Nachahmung darstellt. Wenn Sie versuchen würden, den von der KI erstellten Aufsatz irgendwo online zu finden, würden Sie ihn wahrscheinlich nicht entdecken.

Die generative KI ist vortrainiert und nutzt eine komplexe mathematische und rechnerische Formulierung, die durch die Untersuchung von Mustern in geschriebenen Wörtern und Geschichten im Internet erstellt wurde. Als Ergebnis der Untersuchung von Tausenden und Millionen geschriebener Passagen kann die KI neue Aufsätze und Geschichten ausspucken, die ein Mischmasch aus dem sind, was gefunden wurde. Durch das Hinzufügen verschiedener probabilistischer Funktionen ist der resultierende Text im Vergleich zu dem, was im Trainingssatz verwendet wurde, ziemlich einzigartig.

Aus diesem Grund gab es einen Aufruhr darüber, dass Schüler beim Schreiben von Aufsätzen außerhalb des Klassenzimmers schummeln können. Ein Lehrer kann nicht einfach den Aufsatz nehmen, von dem betrügerische Schüler behaupten, dass es sich um ihren eigenen Text handelt, und herausfinden, ob er von einer anderen Online-Quelle kopiert wurde. Insgesamt wird es online keinen endgültigen, bereits vorhandenen Aufsatz geben, der zu dem von der KI generierten Aufsatz passt. Alles in allem muss der Lehrer widerwillig akzeptieren, dass der Schüler den Aufsatz als Originalarbeit geschrieben hat.

Es gibt weitere Bedenken hinsichtlich der generativen KI.

Ein entscheidender Nachteil ist, dass die von einer generativen KI-App erstellten Aufsätze verschiedene Unwahrheiten enthalten können, darunter offensichtlich unwahre Fakten, Fakten, die irreführend dargestellt werden, und scheinbare Fakten, die vollständig erfunden sind. Diese fabrizierten Aspekte werden oft als eine Form von bezeichnet KI-Halluzinationen, ein Schlagwort, das ich nicht mag, aber bedauerlicherweise trotzdem populär zu werden scheint (für meine detaillierte Erklärung, warum dies eine lausige und ungeeignete Terminologie ist, siehe meine Berichterstattung unter den Link hier).

Ich möchte einen wichtigen Aspekt klarstellen, bevor wir zu diesem Thema in die Tiefe gehen.

Es gab einige verrückte übergroße Behauptungen in den sozialen Medien darüber Generative KI behaupten, dass diese neueste Version der KI tatsächlich ist empfindungsfähige KI (Nein, sie sind falsch!). Diejenigen in den Bereichen KI-Ethik und KI-Recht sind besonders besorgt über diesen aufkeimenden Trend zu überzogenen Ansprüchen. Sie könnten höflich sagen, dass einige Leute übertreiben, was die heutige KI tatsächlich leisten kann. Sie gehen davon aus, dass KI Fähigkeiten hat, die wir noch nicht erreichen konnten. Das ist bedauerlich. Schlimmer noch, sie können zulassen, dass sie selbst und andere in schlimme Situationen geraten, weil sie davon ausgehen, dass die KI empfindungsfähig oder menschenähnlich sein wird, wenn es darum geht, Maßnahmen zu ergreifen.

KI nicht vermenschlichen.

Wenn Sie dies tun, geraten Sie in eine klebrige und mürrische Vertrauensfalle, in der Sie erwarten, dass die KI Dinge tut, die sie nicht ausführen kann. Abgesehen davon ist die neueste generative KI relativ beeindruckend für das, was sie kann. Beachten Sie jedoch, dass es erhebliche Einschränkungen gibt, die Sie bei der Verwendung einer generativen KI-App immer im Hinterkopf behalten sollten.

Wenn Sie sich für die schnell wachsende Aufregung um ChatGPT und generative KI insgesamt interessieren, habe ich in meiner Kolumne eine fokussierte Serie erstellt, die Sie vielleicht informativ finden. Hier ist ein Überblick, falls eines dieser Themen Sie anspricht:

  • 1) Vorhersagen über kommende generative KI-Fortschritte. Wenn Sie wissen möchten, was sich wahrscheinlich im Laufe des Jahres 2023 und darüber hinaus über die KI entwickeln wird, einschließlich der bevorstehenden Fortschritte bei der generativen KI und ChatGPT, sollten Sie meine umfassende Liste der Vorhersagen für 2023 unter lesen den Link hier.
  • 2) Generative KI und Beratung zur psychischen Gesundheit. Ich habe mich entschieden, zu überprüfen, wie generative KI und ChatGPT für die Beratung zur psychischen Gesundheit verwendet werden, ein problematischer Trend, gemäß meiner fokussierten Analyse unter den Link hier.
  • 3) Grundlagen der generativen KI und ChatGPT. Dieses Stück untersucht die Schlüsselelemente der Funktionsweise von generativer KI und geht insbesondere auf die ChatGPT-App ein, einschließlich einer Analyse der Begeisterung und Fanfare den Link hier.
  • 4) Spannungen zwischen Lehrern und Schülern wegen generativer KI und ChatGPT. Hier sind die Möglichkeiten, wie Schüler generative KI und ChatGPT auf hinterhältige Weise verwenden werden. Darüber hinaus gibt es hier Möglichkeiten für Lehrer, mit dieser Flutwelle fertig zu werden. Sehen den Link hier.
  • 5) Verwendung von Kontext und generativer KI. Ich habe auch eine saisonal gefärbte ironische Untersuchung über einen Weihnachtsmann-bezogenen Kontext mit ChatGPT und generativer KI bei durchgeführt den Link hier.
  • 6) Betrüger, die generative KI verwenden. Unheilverkündend ist, dass einige Betrüger herausgefunden haben, wie sie generative KI und ChatGPT verwenden können, um Fehlverhalten zu begehen, einschließlich der Generierung von Betrugs-E-Mails und sogar der Erstellung von Programmiercode für Malware, siehe meine Analyse unter den Link hier.
  • 7) Anfängerfehler mit generativer KI. Viele Leute überschießen und überraschenderweise unterschießen, was generative KI und ChatGPT leisten können, also habe ich mich besonders mit dem Unterschießen befasst, das KI-Neulinge tendenziell machen, siehe die Diskussion dazu den Link hier.
  • 8) Umgang mit generativen KI-Eingabeaufforderungen und KI-Halluzinationen. Ich beschreibe einen hochmodernen Ansatz zur Verwendung von KI-Add-Ons zur Bewältigung der verschiedenen Probleme, die mit dem Versuch verbunden sind, geeignete Eingabeaufforderungen in die generative KI einzugeben, und es gibt zusätzliche KI-Add-Ons zum Erkennen sogenannter KI-halluzinierter Ausgaben und Unwahrheiten, wie z bedeckt bei den Link hier.
  • 9) Entlarvung von Bonehead-Behauptungen über die Erkennung generativer KI-produzierter Essays. Es gibt einen fehlgeleiteten Goldrausch von KI-Apps, die behaupten, in der Lage zu sein, festzustellen, ob ein bestimmter Aufsatz von Menschen oder von KI generiert wurde. Insgesamt ist dies irreführend und in einigen Fällen eine dumme und unhaltbare Behauptung, siehe meine Berichterstattung unter den Link hier.
  • 10) Rollenspiele mittels generativer KI können negative Auswirkungen auf die psychische Gesundheit haben. Einige verwenden generative KI wie ChatGPT, um Rollenspiele zu spielen, wobei die KI-App auf einen Menschen reagiert, als würde er in einer Fantasiewelt oder einer anderen erfundenen Umgebung existieren. Dies könnte Auswirkungen auf die psychische Gesundheit haben, siehe den Link hier.
  • 11) Offenlegung des Bereichs der ausgegebenen Fehler und Unwahrheiten. Es werden verschiedene gesammelte Listen zusammengestellt, um zu versuchen, die Art der von ChatGPT produzierten Fehler und Unwahrheiten aufzuzeigen. Einige glauben, dass dies unerlässlich ist, während andere sagen, dass die Übung sinnlos ist, siehe meine Analyse unter den Link hier.
  • 12) Schulen, die Generative AI ChatGPT verbieten, verpassen das Boot. Sie wissen vielleicht, dass verschiedene Schulen wie das Bildungsministerium von New York City (NYC) die Verwendung von ChatGPT in ihrem Netzwerk und den zugehörigen Geräten verboten haben. Obwohl dies als hilfreiche Vorsichtsmaßnahme erscheinen mag, wird es die Nadel nicht bewegen und leider das Boot komplett verfehlen, siehe meine Berichterstattung unter den Link hier.

Es könnte Sie interessieren, dass ChatGPT auf einer Version einer Vorgänger-KI-App namens GPT-3 basiert. ChatGPT wird als ein kleiner nächster Schritt angesehen, der als GPT-3.5 bezeichnet wird. Es wird erwartet, dass GPT-4 voraussichtlich im Frühjahr 2023 veröffentlicht wird. Vermutlich wird GPT-4 ein beeindruckender Schritt nach vorne sein, wenn es darum geht, scheinbar noch flüssigere Aufsätze zu produzieren, tiefer zu gehen und eine Ehrfurcht zu bieten -inspirierendes Staunen über die Kompositionen, die es hervorbringen kann.

Sie können erwarten, eine neue Runde der Bewunderung zu erleben, wenn der Frühling kommt und die neueste generative KI veröffentlicht wird.

Ich spreche das an, weil es noch einen anderen Blickwinkel gibt, der im Auge behalten werden muss, der aus einer potenziellen Achillesferse für diese besseren und größeren generativen KI-Apps besteht. Wenn ein KI-Anbieter eine generative KI-App zur Verfügung stellt, die schwülstig Fouls ausspuckt, könnte dies die Hoffnungen dieser KI-Hersteller zunichte machen. Ein gesellschaftlicher Spillover kann dazu führen, dass alle generative KI ein ernsthaftes blaues Auge bekommen. Die Menschen werden sich zweifellos über schlechte Ergebnisse aufregen, die bereits viele Male passiert sind und zu heftigen gesellschaftlichen Verurteilungsreaktionen gegenüber KI geführt haben.

Eine letzte Vorwarnung vorerst.

Was auch immer Sie in einer generativen KI-Antwort sehen oder lesen scheint rein sachlich vermittelt werden sollen (Daten, Orte, Personen usw.), bleiben Sie skeptisch und bereit, das, was Sie sehen, noch einmal zu überprüfen.

Ja, Daten können zusammengebraut werden, Orte können nachgeholt werden, und Elemente, von denen wir normalerweise erwarten, dass sie über jeden Zweifel erhaben sind, sind es alle Verdacht ausgesetzt. Glauben Sie nicht, was Sie lesen, und behalten Sie ein skeptisches Auge, wenn Sie Aufsätze oder Ergebnisse generativer KI untersuchen. Wenn Ihnen eine generative KI-App sagt, dass Abraham Lincoln in seinem eigenen Privatjet durch das Land geflogen ist, würden Sie zweifellos wissen, dass dies Malarky ist. Unglücklicherweise erkennen einige Leute vielleicht nicht, dass es zu seiner Zeit keine Jets gab, oder sie wissen es vielleicht, bemerken aber nicht, dass der Essay diese dreiste und unverschämt falsche Behauptung aufstellt.

Eine starke Dosis gesunder Skepsis und eine beständige Denkweise des Unglaubens werden Ihr größtes Kapital sein, wenn Sie generative KI verwenden.

Wir sind bereit, in die nächste Phase dieser Erläuterung einzutreten.

Entfesselung der Bestie

Nachdem wir nun die Grundlagen geschaffen haben, können wir uns mit den geschäftlichen und gesellschaftlichen Auswirkungen der ChatGPT-API-Aspekte befassen.

Kürzlich wurde von Microsoft in Verbindung mit OpenAI eine Ankündigung über die bevorstehende Verfügbarkeit von ChatGPT auf der Azure-Cloud-Plattform von Microsoft gemacht (per Online-Posting mit dem Titel „General Availability of Azure OpenAI Service Expands Access to Large, Advanced AI Models with Added Enterprise Benefits“, 16. Januar 2023):

  • „Große Sprachmodelle werden schnell zu einer unverzichtbaren Plattform für Menschen, um innovativ zu sein, KI zur Lösung großer Probleme einzusetzen und sich vorzustellen, was möglich ist. Wir freuen uns, heute die allgemeine Verfügbarkeit des Azure OpenAI-Dienstes als Teil des anhaltenden Engagements von Microsoft für die Demokratisierung der KI und der laufenden Partnerschaft mit OpenAI bekannt zu geben. Da der Azure OpenAI Service jetzt allgemein verfügbar ist, können mehr Unternehmen den Zugriff auf die fortschrittlichsten KI-Modelle der Welt beantragen – einschließlich GPT-3.5, Codex und DALL•E 2 – unterstützt durch die bewährten Funktionen der Enterprise-Klasse und die KI-optimierte Infrastruktur von Microsoft Azure, um hochmoderne Anwendungen zu erstellen. Kunden werden auch in Kürze über Azure OpenAI Service auf ChatGPT zugreifen können – eine optimierte Version von GPT-3.5, die trainiert wurde und Inferenzen auf der Azure-KI-Infrastruktur ausführt.“

Sie haben in dieser Erklärung vielleicht bemerkt, dass andere verschiedene KI-Apps, die von OpenAI entwickelt wurden, ebenfalls verfügbar sein werden. Tatsächlich sind einige dieser KI-Apps bereits seit geraumer Zeit zugänglich, wie in der jüngsten obigen Erklärung weiter erwähnt: „Wir haben den Azure OpenAI-Dienst im November 2021 eingeführt, um Kunden zu ermöglichen, die Leistungsfähigkeit von groß angelegten generativen KI-Modellen zu nutzen Das Unternehmen verspricht, dass Kunden von unserer Azure Cloud- und Computing-Infrastruktur erwarten – Sicherheit, Zuverlässigkeit, Compliance, Datenschutz und integrierte Responsible AI-Funktionen“ (ebenda).

Ich habe bereits erwähnt, dass sowohl die KI-Ethik als auch das KI-Recht versuchen, das auszugleichen KI für immer Wünsche mit Potenzial KI für schlecht das kann schon mal vorkommen. Innerhalb des KI-Bereichs ist eine Bewegung in Richtung Haben im Gange Verantwortliche KI oder manchmal als vertrauenswürdige KI oder menschenzentrierte KI geprägt, siehe meine Berichterstattung unter den Link hier. Alle KI-Hersteller werden aufgefordert, ihre KI zu entwickeln und einzusetzen KI für immer und versuchen, diese offen einzuschränken oder abzumildern KI für schlecht das könnte sich ergeben.

Dies ist eine große Aufgabe.

Jedenfalls ging die vorgenannte Verlautbarung auf die Responsible-AI-Überlegungen ein:

  • „Als Branchenführer erkennen wir an, dass jede Innovation in der KI verantwortungsbewusst erfolgen muss. Dies wird mit leistungsstarken, neuen Technologien wie generativen Modellen noch wichtiger. Wir haben einen iterativen Ansatz für große Modelle gewählt und eng mit unserem Partner OpenAI und unseren Kunden zusammengearbeitet, um Anwendungsfälle sorgfältig zu bewerten, zu lernen und potenzielle Risiken anzugehen. Darüber hinaus haben wir unsere eigenen Leitplanken für den Azure OpenAI-Dienst implementiert, die mit unseren Grundsätzen für verantwortungsbewusste KI übereinstimmen. Als Teil unseres Limited Access Framework müssen Entwickler den Zugriff beantragen und ihren beabsichtigten Anwendungsfall oder ihre beabsichtigte Anwendung beschreiben, bevor sie Zugriff auf den Dienst erhalten. Inhaltsfilter, die speziell dafür entwickelt wurden, missbräuchliche, hasserfüllte und anstößige Inhalte zu erkennen, überwachen ständig die Eingaben, die für den Dienst bereitgestellt werden, sowie die generierten Inhalte. Im Falle eines bestätigten Richtlinienverstoßes können wir den Entwickler bitten, unverzüglich Maßnahmen zu ergreifen, um weiteren Missbrauch zu verhindern“ (ebenda).

Der springende Punkt bei dieser verantwortungsbewussten KI-Perspektive ist, dass durch das Erfordernis einer formellen Anfrage für den Zugriff auf ChatGPT auf einer Programm-API-Basis die Möglichkeit besteht, die unappetitlichen Einreichungen auszusortieren. Wenn bei der Auswahl, welche anderen Firmen und ihre Programme auf ChatGPT zugreifen können, mit angemessener Sorgfalt vorgegangen wird, besteht vielleicht eine kämpferische Chance, den vollen Zorn eines freigelassenen Kraken zu verhindern.

Vielleicht ja vielleicht nein.

Einige Experten ringen die Hände, dass die Möglichkeiten, Geld zu verdienen, wenn die Verwendung der ChatGPT-API zugelassen wird, die Gegengewichtsvorstellung belasten werden, das Biest vernünftig und sicher im Zaum halten zu wollen. Wird die Prüfung im Vorfeld wirklich sorgfältig genug sein? Könnten wir stattdessen sehen, dass ein lockerer, wackeliger Genehmigungsprozess auftritt, wenn das Volumen der Anfragen außer Kontrolle gerät? Einige befürchten, dass erst, wenn die Katze aus dem Sack ist, wirklich eine verspätete, umfassendere Überprüfung erfolgen könnte, obwohl bis dahin der Schaden bereits angerichtet sein wird.

Nun, Sie können zumindest gebührend anerkennen, dass ein Überprüfungsprozess erforderlich ist. Es gibt einige generative KI-Apps, denen entweder ein kohärenter Überprüfungsprozess fehlt oder die nur skizzenhaft und flüchtig sind. Darüber hinaus gibt es Open-Source-Versionen der generativen KI, die im Allgemeinen von fast jedem verwendet werden können, der dies möchte, obwohl ein gewisses Maß an Lizenzbeschränkungen befolgt werden sollte (der Versuch, dies durchzusetzen, ist schwieriger, als es scheinen mag).

Werfen wir einen kurzen Blick auf die bestehenden Regeln zur Beschränkung des Zugriffs auf den Azure OpenAI-Dienst, um zu sehen, was andere Softwarehersteller tun müssen, um sich möglicherweise mit ChatGPT zu verbinden. Gemäß den online veröffentlichten Microsoft-Richtlinien (letzte Veröffentlichung als 14. Dezember 2022 angegeben):

  • „Im Rahmen des Engagements von Microsoft für verantwortungsvolle KI entwerfen und veröffentlichen wir den Azure OpenAI-Dienst mit der Absicht, die Rechte des Einzelnen und der Gesellschaft zu schützen und eine transparente Mensch-Computer-Interaktion zu fördern. Aus diesem Grund schränken wir derzeit den Zugriff und die Nutzung von Azure OpenAI ein, einschließlich der Einschränkung des Zugriffs auf die Möglichkeit, Inhaltsfilter zu ändern und die Missbrauchsüberwachung zu ändern. Azure OpenAI erfordert eine Registrierung und ist derzeit nur für verwaltete Kunden und Partner verfügbar, die mit Microsoft-Kontoteams zusammenarbeiten. Kunden, die Azure OpenAI verwenden möchten, müssen ein Registrierungsformular einreichen, sowohl für den anfänglichen Zugang zum Experimentieren als auch für die Genehmigung, vom Experimentieren in die Produktion zu wechseln.“
  • „Für Experimente bestätigen Kunden, dass sie den Dienst nur für die beabsichtigten Zwecke nutzen, die zum Zeitpunkt der Registrierung angegeben wurden, und verpflichten sich, eine menschliche Aufsicht, strenge technische Grenzen für Eingaben und Ausgaben, Feedback-Kanäle und gründliche Tests einzubeziehen. Für die Produktion erklären die Kunden, wie diese implementiert wurden, um das Risiko zu mindern. Kunden, die Inhaltsfilter ändern und die Missbrauchsüberwachung ändern möchten, nachdem sie sich in den Dienst eingeloggt haben, unterliegen zusätzlichen Szenariobeschränkungen und müssen sich hier registrieren.“
  • „Der Zugriff auf den Azure OpenAI-Dienst unterliegt dem alleinigen Ermessen von Microsoft, basierend auf Berechtigungskriterien und einem Überprüfungsprozess, und Kunden müssen bestätigen, dass sie die Azure-Nutzungsbedingungen für den Azure OpenAI-Dienst gelesen haben und ihnen zustimmen. Microsoft kann von Kunden verlangen, diese Informationen erneut zu überprüfen. Der Azure OpenAI-Dienst wird Kunden gemäß den Bedingungen zur Verfügung gestellt, die ihr Abonnement für Microsoft Azure-Dienste regeln, einschließlich des Abschnitts „Azure OpenAI“ der Microsoft-Produktbedingungen. Bitte lesen Sie diese Bedingungen sorgfältig durch, da sie wichtige Bedingungen und Verpflichtungen enthalten, die Ihre Nutzung des Azure OpenAI-Dienstes regeln.“

Das ist auf der Microsoft-Seite der Dinge.

OpenAI hat auch seine Nutzungsrichtlinien, die mit seiner API verbunden sind:

  • „Wir möchten, dass jeder unsere API sicher und verantwortungsvoll nutzen kann. Zu diesem Zweck haben wir Anwendungsfall- und Inhaltsrichtlinien erstellt. Indem Sie ihnen folgen, helfen Sie uns sicherzustellen, dass unsere Technologie zum Guten eingesetzt wird. Wenn wir feststellen, dass Ihr Produkt diesen Richtlinien nicht entspricht, werden wir Sie bitten, die erforderlichen Änderungen vorzunehmen. Wenn Sie sich nicht daran halten, können wir weitere Maßnahmen ergreifen, einschließlich der Kündigung Ihres Kontos.“
  • „Wir verbieten Bauprodukte, die auf die folgenden Anwendungsfälle abzielen:“
  • „— Illegale oder schädliche Industrien“
  • „— Missbrauch personenbezogener Daten“
  • „— Förderung von Unehrlichkeit“
  • „— Benutzer täuschen oder manipulieren“
  • „— Versuchen, die Politik zu beeinflussen“
  • „Die folgenden Anwendungsfälle bergen ein größeres Risiko für potenzielle Schäden: Strafjustiz, Strafverfolgung, Rechtswesen, staatliche und öffentliche Dienste, Gesundheitswesen, Therapie, Wellness, Coaching, Finanzen, Nachrichten. Für diese Anwendungsfälle müssen Sie:“
  • „1) Testen Sie unsere Modelle gründlich auf Genauigkeit in Ihrem Anwendungsfall und seien Sie gegenüber Ihren Benutzern transparent über Einschränkungen.“
  • „2) Stellen Sie sicher, dass Ihr Team über Fachkenntnisse verfügt und die relevanten Gesetze versteht/befolgt.“
  • „Wir gestatten Ihnen oder Endbenutzern Ihrer Anwendung auch nicht, die folgenden Arten von Inhalten zu generieren:“
  • "- Hassen"
  • "- Belästigung"
  • "- Gewalt"
  • "- Selbstbeschädigung"
  • „— Sexuell“
  • „— Politisch“
  • "- Spam"
  • "- Täuschung"
  • „— Malware“

Eine große Frage wird sein, ob diese Ideale eingehalten werden können, wenn es einen glühenden Ansturm von Anfragen gibt, sich mit ChatGPT zu verbinden. Vielleicht gibt es einen überwältigenden Tsunami von Anfragen. Die menschliche Arbeit, jeden einzelnen zu untersuchen und sorgfältig zu prüfen, könnte kostspielig und schwierig zu handhaben sein. Wird der Wunsch, angemessen restriktiv zu sein, angesichts der immensen Nachfrage nach Zugang unbeabsichtigt verwässert?

Wie der berühmte Witz sagt, können die besten Pläne manchmal beim ersten Kontakt mit zahlreichen Kräften zunichte gemacht werden.

Es gibt auch viel Spielraum bei der Auslegung der genannten Regeln. Wie wir im Allgemeinen über die Zunahme von Desinformation und Fehlinformationen gesehen haben, kann der Versuch, die Spreu vom Weizen zu trennen, eine ziemliche Herausforderung sein. Wie kann festgestellt werden, ob generierte Inhalte die Bestimmungen, nicht hasserfüllt, politisch, irreführend und dergleichen zu sein, einhalten oder verletzen?

Eine drohende Schwierigkeit könnte sein, dass, wenn die ChatGPT-API einem Softwarehersteller zur Verfügung gestellt wird, der sein Programm mit ChatGPT koppelt, und die resultierende Ausgabe eindeutig gegen die angegebenen Regeln verstößt, wird das Pferd dann bereits aus dem Stall sein? Einige vermuten, dass die Wahrscheinlichkeit eines Reputationsschadens für alle beteiligten Parteien hoch ist. Ob dies überwunden werden kann, indem die API einfach für diesen bestimmten Täter deaktiviert wird, ist unklar. Der Schaden könnte gewissermaßen bestehen bleiben und das Fass insgesamt verderben. Allen Ankömmlingen wird reichlich Schuld zugeschoben.

Schichtung der API-Paarungen

Ich habe bereits angemerkt, dass die Paarungen mit ChatGPT bequem in zwei Hauptzwecke eingeteilt werden können:

  • Echte Kopplung mit ChatGPT
  • Gefälschtes Pairing mit ChatGPT

Lassen Sie uns zuerst die echten oder echten Paarungen untersuchen.

Als Hintergrund ist die Art und Weise, wie dies geschieht, ziemlich einfach. Die ChatGPT-App ermöglicht es anderen Programmen, die App aufzurufen. Typischerweise besteht dies beispielsweise aus einem Programm namens Widget, das eine Eingabeaufforderung im Textformat an ChatGPT übergibt, und nachdem ChatGPT seine Arbeit erledigt hat, wird ein Aufsatz oder Text an das Programm Widget zurückgegeben. Das ist fast so, als würde eine Person dasselbe tun, obwohl wir diese Aktionen von einem Programm ausführen lassen, anstatt dass eine Person dies tut.

Angenommen, jemand entwickelt ein Programm, das im Internet sucht. Das Programm fragt einen Benutzer, wonach er suchen möchte. Das Programm stellt dem Benutzer dann eine Auflistung verschiedener Suchtreffer oder Funde bereit, die hoffentlich relevante Websites basierend auf der Benutzeranfrage präsentieren.

Stellen Sie sich vor, dass die Firma, die dieses Websuchprogramm herstellt, ihre App aufpolieren möchte.

Sie fordern Zugriff auf die ChatGPT-API an. Angenommen, sie erledigen den gesamten Papierkram und werden schließlich genehmigt. Ihr Programm, das Websuchen durchführt, müsste dann so modifiziert werden, dass es über die API einen Aufruf an die ChatGPT-App enthält. Angenommen, sie entscheiden sich dafür, diese Mods zu erstellen.

So könnte das dann insgesamt funktionieren. Wenn ein Benutzer eine Abfrage für eine Websuche in das Kernprogramm eingibt, führt dieses Programm nicht nur eine herkömmliche Suche im Web durch, sondern leitet die Abfrage auch über die API an ChatGPT weiter. ChatGPT verarbeitet dann den Text und gibt einen resultierenden Aufsatz an das Kernprogramm zurück. Das Kernprogramm der Websuche präsentiert dem Benutzer nun zwei Facetten, nämlich die Ergebnisse der Websuche und den zusätzlich ausgegebenen Aufsatz von ChatGPT.

Eine Person, die dieses Kernprogramm verwendet, wird nicht unbedingt wissen, dass ChatGPT im Backend verwendet wurde. Es kann innerhalb der Grenzen des Kernprogramms passieren und der Benutzer ist sich glücklicherweise nicht bewusst, dass ChatGPT beteiligt war. Andererseits könnte das Kernprogramm entwickelt werden, um den Benutzer darüber zu informieren, dass ChatGPT verwendet wird. Dies hängt normalerweise davon ab, ob die Macher des Kernprogramms offenlegen wollen, dass die andere App, in diesem Fall ChatGPT, verwendet wurde. Bei einigen Anordnungen besteht der Hersteller des aufgerufenen Programms darauf, dass das API-aufrufende Programm Benutzer wissen lassen muss, dass das andere Programm verwendet wird. Es hängt alles von den Präferenzen und Lizenzbestimmungen ab.

Für echte Paarungen sind hier die üblichen Vorgehensweisen:

  • 1) Direkter Durchgang zu ChatGPT
  • 2) Add-on zur Erweiterung von ChatGPT
  • 3) Allied-App, die mit ChatGPT übereinstimmt
  • 4) Voll integrative Immersion mit ChatGPT

Kurz gesagt, im ersten aufgeführten Ansatz besteht die Idee darin, dass ich ein Programm entwickeln könnte, das lediglich ein Frontend für ChatGPT ist, und als solches übergibt mein Programm lediglich den Text an ChatGPT und erhält den Text von ChatGPT zurück. Ich stelle mein Programm allen zur Verfügung, die ChatGPT verwenden möchten und sich sonst nicht dafür angemeldet haben. Dies ist ein Ansatz.

Zweitens könnte ich ein Programm entwickeln, das als Add-on zu ChatGPT dient. Wenn ChatGPT beispielsweise einen Aufsatz generiert, kann dieser Unwahrheiten enthalten. Angenommen, ich erstelle ein Programm, das die ChatGPT-Ausgabe untersucht und versucht, nach Unwahrheiten zu suchen. Ich stelle mein Programm so zur Verfügung, dass Leute einen Text-Prompt in mein Programm eingeben, das dann den Prompt an ChatGPT sendet. ChatGPT produziert einen Aufsatz, der auf mein Programm zurückkommt. Bevor mein Programm Ihnen den Aufsatz zeigt, überprüft es den Aufsatz und versucht, Unwahrheiten zu markieren oder zu entfernen. Sie sehen dann den resultierenden Aufsatz, nachdem mein Programm das Screening durchgeführt hat.

Der dritte Ansatz besteht darin, eine verwandte App zu haben, die im Sinne von ChatGPT übereinstimmt. Angenommen, ich entwickle ein Programm, das Menschen beim kreativen Schreiben hilft. Mein Programm bietet vorgefertigte Tipps und Vorschläge zum kreativen Schreiben. Das Programm spornt oder spornt den Benutzer lediglich dazu an. In der Zwischenzeit möchte ich dem Benutzer zeigen können, woraus kreatives Schreiben besteht. Daher richte ich eine API mit ChatGPT ein. Mein Programm nimmt dann eine Eingabeaufforderung des Benutzers und ruft ChatGPT auf, um einen Blub eines Essays bereitzustellen, der kreatives Schreiben demonstrieren könnte. Dies könnte iterativ erfolgen und ChatGPT dabei mehrmals aufrufen.

Im Fall des vierten aufgeführten Ansatzes ist ChatGPT vollständig in ein anderes Programm oder eine Gruppe von Programmen integriert. Wenn ich beispielsweise eine Textverarbeitungs-App und eine Tabellenkalkulations-App hätte, möchte ich vielleicht ChatGPT in diese Apps integrieren. Sie würden sozusagen Hand in Hand funktionieren. Ich werde in einer kommenden Kolumne über die Möglichkeit berichten, dass Microsoft ChatGPT in seine Office-Produktivitätssuite integrieren könnte, also halten Sie Ausschau nach dieser kommenden Analyse.

Das sind dann die Schlüsselwege, auf denen eine echte Paarung stattfinden kann.

Betrachten wir als nächstes einige der gefälschten Paarungen.

Hier sind einige allgemeine gefälschte Paarungen, auf die Sie achten sollten:

  • Gimmickry Pairing mit ChatGPT – nutzt ChatGPT am Rande, hauptsächlich für die Show und um Werbung ohne Mehrwert zu machen
  • Verlockende Versprechungen über die ChatGPT-Kopplung – Der Softwareanbieter behauptet, dass er gerade dabei ist, sich mit ChatGPT zu paaren und versucht, im Rampenlicht zu stehen, obwohl die Realität ist, dass er dies nicht tun wird und eine klassische Kopffälschung vornimmt und ein falsches Versprechen abgibt
  • Imitate, die behaupten, ChatGPT-ähnlich zu sein – Anstatt mit ChatGPT zu koppeln, verwenden einige Softwareanbieter etwas anderes, was in Ordnung ist, aber sie werden versuchen, implizieren, dass es sich um ChatGPT handelt, wenn dies nicht der Fall ist, in der Hoffnung, einige der Nachwirkungen von ChatGPT zu erhalten
  • Andere – Viele weitere ausgeklügelte und hinterhältige Schemata sind denkbar

Es wird zweifellos eine Menge Spielereien über all dies geben. Es wird ein fester Bestandteil der Veröffentlichung des Kraken sein.

Fazit

Erlauben Sie mir, einige Schraubenschlüssel und andere Hindernisse in diese Angelegenheit zu werfen.

Was ist mit den Kosten?

Derzeit tun diejenigen, die sich für die Nutzung von ChatGPT angemeldet haben, dies kostenlos. Ich habe zuvor angemerkt, dass irgendwann eine direkte Monetarisierung erforderlich sein wird. Dies kann dazu führen, dass eine Transaktionsgebühr erhoben wird oder vielleicht ein Abonnement bezahlt wird. Eine andere Möglichkeit ist, dass Anzeigen verwendet werden, um den Teig einzubringen, wobei jedes Mal, wenn Sie ChatGPT verwenden, eine Anzeige erscheint. Usw.

Diejenigen, die sich für eine Kopplung mit ChatGPT über die API entscheiden, sollten ernsthaft über die damit verbundenen potenziellen Kosten nachdenken. Es fallen wahrscheinlich Kosten für die Nutzung der Microsoft Azure-Cloud für die Ausführung der ChatGPT-App an. Für OpenAI fallen zwangsläufig Kosten an, um die ChatGPT-API zu verwenden und die KI-App aufzurufen. Einem Softwareanbieter entstehen auch eigene interne Kosten, z. B. für die Änderung bestehender Programme zur Verwendung der API oder die Neuentwicklung von Programmen rund um die Kopplung mit ChatGPT. Stellen Sie sich sowohl Anschaffungskosten als auch laufende Wartungskosten vor.

Das Wesentliche ist, dass diese Kostenschichtung den Goldrausch zur Nutzung der ChatGPT-API bis zu einem gewissen Grad mildern wird. Softwareanbieter sollten vermutlich eine umsichtige ROI-Berechnung (Return on Investment) durchführen. Wird alles, was sie durch die Erweiterung ihres Programms durch die Verwendung von ChatGPT verdienen können, genügend zusätzliche Gelder einbringen, um die Kosten auszugleichen?

Nicht jeder wird zwangsläufig so kostenbewusst sein. Wenn Sie tiefe Taschen haben und glauben, dass Ihre Verwendung von ChatGPT Ihr Programm in den bekanntesten oder anerkanntesten Bereich von Apps katapultieren wird, könnten Sie entscheiden, dass sich die Kosten jetzt lohnen. Erstellen Sie einen Namen für Ihre App, indem Sie auf den Rockschößen von ChatGPT reiten. Später, sobald Ihr Programm beliebt ist oder anderweitig Geld verdient, gleichen Sie entweder den früheren fehlenden Gewinn aus oder schreiben ihn als die Kosten ab, die erforderlich sind, um in die große Runde zu kommen.

Ein kleines Startup, das von einer Venture Capital (VC)-Firma unterstützt wird, könnte bereit sein, einen Teil seiner Seed-Investition abzugeben, um mit der ChatGPT-API gekoppelt zu werden. Ruhm könnte sofort entstehen. Fortune mag noch ein langer Weg sein, aber darum geht es später. Schnappen Sie sich das Rampenlicht, wenn der Fang gut ist, wie sie sagen.

Man kann davon ausgehen, dass es gemeinnützige und soziale Unternehmen geben wird, die sich dafür entscheiden werden, auch hier die Reifen zu treten. Angenommen, eine gemeinnützige Firma identifiziert eine vorteilhafte Verwendung des Aufrufs der ChatGPT-API, die scheinbar ihre altruistischen oder gesellschaftlich vorteilhaften Ziele unterstützt. Vielleicht sammeln sie dafür Geld über eine Online-Spendenkampagne. Vielleicht versuchen sie, mit den Anbietern einen Deal abzuschließen, sodass sie einen Nominalbetrag zahlen oder die Nutzung kostenlos erhalten.

Die Zeit wird zeigen.

Der letzte Hinweis, den ich Ihnen hinterlassen werde, ist der Risikofaktor.

Ich möchte nicht übermäßig niedergeschlagen wirken, aber ich habe bereits erwähnt, dass die Ausgaben von ChatGPT Unwahrheiten enthalten und andere potenzielle Nachteile haben können. Die Sache ist die, wenn ein Softwareanbieter, der eine App erstellt, in die Verwendung der ChatGPT-API eingemischt wird, läuft er Gefahr, säuerliche und mürrische Ergebnisse zu erzielen, mit denen er rechnen sollte. Nicht den Kopf in den Sand stecken.

Die Probleme entstehen, dass diese Ausgaben die App beeinträchtigen könnten, die sich dafür entscheidet, sie zu verwenden. In diesem Sinne könnte Ihre App, die zunächst auf dem Ruhm von ChatGPT reitet, auch gegen eine Mauer pflügt werden, wenn man sich auf die über ChatGPT bereitgestellten Ausgaben verlässt. Vielleicht werden die Ausgaben den Benutzern präsentiert und dies verursacht einen entsetzlichen Aufruhr. Sie lassen ihre Angst an Ihnen und Ihrer App aus.

Im Gegenzug versuchen Sie, mit dem Finger auf ChatGPT zu zeigen. Bringt dich das aus dem Rätsel? Sobald es einmal stinkt, breitet es sich aus und nur wenige bleiben verschont. In diesem Sinne könnte es sein, dass durch eine breitere Nutzung von ChatGPT das Bewusstsein für die Foul-Outputs bekannter wird. So könnte sich komischerweise oder ironischerweise die erweiterte Nutzung von ChatGPT durch die API ins eigene Knie schießen.

Ich möchte meine Bemerkungen nicht mit einem traurigen Gesicht abschließen, also versuchen wir, in ein fröhliches Gesicht zu wechseln.

Wenn alle angestrebten Grenzen und Einschränkungen sorgfältig und vernünftig befolgt und strikt eingehalten werden, kann das Anzapfen von ChatGPT über die API eine gute Sache sein. Die Chancen stehen auch gut, dass dies andere generative KI-Apps weiter zum Handeln anspornen wird. Die steigende Flut könnte alle Boote steigen lassen.

Das wirkt optimistisch.

Sie wissen vielleicht, dass Zeus angeblich die Kontrolle über den Kraken hatte. Sophokles, der antike griechische Dramatiker, sagte Folgendes über Zeus: „Die Würfel des Zeus fallen immer glücklich.“

Vielleicht wird dasselbe darüber gesagt, wie die generative KI unweigerlich landen wird, hoffen wir es zumindest.

Quelle: https://www.forbes.com/sites/lanceeliot/2023/01/22/generative-ai-chatgpt-is-going-to-be-everywhere-once-the-api-portal-gets-soon- geöffnete-verblüffende-ai-ethik-und-ai-recht/