Kann es Elon Musk gelingen, einen generativen KI-ChatGPT-Knockoff „TruthGPT“ zu entwickeln, der jederzeit stoisch wahrheitsgemäß wäre, fragt KI-Ethik und KI-Recht

Es klopft an der Kabinentür.

Sollen wir die Tür öffnen?

Filme suggerieren normalerweise, dass wir uns von unserer Neugier nicht überwältigen lassen sollten, nämlich auf keinen Fall die Tür öffnen sollten. Nun, davon abgesehen, die Entscheidung, die Tür geschlossen zu lassen, scheint keine würdige Geschichte zu sein. Es scheint, als würden wir von Aufregung und dem Unbekannten angezogen.

Also, lasst uns weitermachen und die Tür öffnen.

In diesem speziellen Fall beziehe ich mich auf einige aufkommende Gerüchte im Bereich der künstlichen Intelligenz (KI), die entweder gute Zeiten oder die schlimmsten Zeiten für uns alle ankündigen. Die Situation bringt möglicherweise die Zukunft der KI mit sich. Und man könnte ergo feierlich spekulieren, dass die Zukunft der KI insgesamt ziemlich dramatische Auswirkungen hat, einschließlich der angeblichen Gestaltung der Zukunft der Gesellschaft und des Schicksals der Menschheit.

Das ist der Deal.

Jüngsten Nachrichtenberichten zufolge hat Elon Musk, der zeitweise reichste Mensch der Welt, nach erstklassigen KI-Forschern gesucht, die an Bord eines neuen KI-Projekts kommen, das er im Sinn hat. Verschiedene KI-Entwickler und KI-Wissenschaftler werden leise angesprochen. Das Klopfen an ihrer Tür verspricht offenbar viel versprechende und potenziell lukrative Neuigkeiten.

Die angebliche Essenz der noch zu veröffentlichenden KI-Initiative soll eine Kopie des weit verbreiteten und äußerst beliebten ChatGPT sein, das bereits im November von OpenAI veröffentlicht wurde. Sie haben mit ziemlicher Sicherheit schon von Schlagzeilen über ChatGPT gehört oder diese gesehen. Ich werde gleich mehr darüber erklären, was ChatGPT ist. Sie sollten auch wissen, dass ChatGPT ein Beispiel für eine Art von KI ist, die als bekannt ist Generative KI. Heutzutage gibt es viele generative KI-Apps. ChatGPT ist zufällig eines mit dem höchsten öffentlichen Profil und anscheinend allen bekannt, sogar vielleicht denen, die irgendwie in einer Höhle leben.

Hier ist ein Beispiel für die Berichterstattung über diese halbgeheime, sich schnell entwickelnde Saga:

  • „Elon Musk hat sich in den letzten Wochen an Forscher für künstliche Intelligenz gewandt, um ein neues Forschungslabor zu gründen, um eine Alternative zu ChatGPT, dem hochkarätigen Chatbot des Startups OpenAI, zu entwickeln, so zwei Personen mit direkter Kenntnis der Bemühungen und eine dritte Person, die informiert wurde auf die Gespräche“ (Die Informationen, „Fighting ‚Woke AI‘, Musk Recruits Team to Develop OpenAI Rival“, Jon Victor und Jessica E. Lessin, 27. Februar 2023).

Ihr erster Gedanke könnte sein, dass, wenn Elon Musk eine Nachahmung von ChatGPT herstellen möchte, das an ihm liegt und wie er sein Geld ausgeben möchte. Viel Glück. Er wird einfach etwas zu den bereits existierenden und wachsenden Brocken generativer KI-Apps hinzufügen. Vielleicht macht er ein zusätzliches Vermögen mit seiner eigenen selbst entwickelten Version von ChatGPT. Oder vielleicht wird es ein großes Geschwätz und die winzige Delle in seinem massiven Vermögen durch die bescheiden kostspielige Verfolgung wird einem Rundungsfehler in der Buchhaltungsabteilung ähnlich sein.

Anstelle eines kräftigen Klopfens an der Tür ist dies vermutlich eher ein bescheidenes Tap-Tap-Tapping an der Tür.

Machen Sie sich bereit für die Wendung.

Der Glaube ist, dass Elon Musk die Basis der heutigen generativen KI-Apps aufrütteln und einige entscheidende Aspekte ihrer Funktionsweise und ihrer Produktion wiederherstellen möchte. Wie ich hier in Kürze erläutern werde, besteht ein weit verbreiteter und ehrlicher Zweifel an der gegenwärtigen generativen KI darin, dass sie Fehler, Unwahrheiten und sogenannte KI-Halluzinationen erzeugen kann. Jeder, der generative KI verwendet hat, ist zweifellos auf diese beunruhigenden Probleme gestoßen. Anscheinend hofft Elon Musk, diese Art von Anomalien und problematischen Neigungen einzudämmen und möglicherweise irgendwie zu beseitigen.

Dies scheint ein nachweislich erstrebenswerter und ehrenwerter Anspruch zu sein. Bitte wissen Sie in der Tat, dass fast oder vielleicht kann ich sagen, dass alle generativen KI-Entwickler mächtig danach streben, die Wahrscheinlichkeit von ausgegebenen Fehlern, Unwahrheiten und KI-Halluzinationen zu verringern. Es würde Ihnen schwer fallen, eine vernünftige Seele zu finden, die darauf besteht, dass wir diese Fehler, Unwahrheiten und KI-Halluzinationen in der generativen KI verwurzelt halten müssen.

Ohne eine zu pauschalisierende Aussage zu machen, besteht ziemlich allgemeine Übereinstimmung darüber, dass die Krankheiten der generativen KI, die die Produktion von Fehlern, Unwahrheiten und KI-Halluzinationen beinhalten, entschieden, beharrlich und energisch angegangen werden müssen. Ziel ist es, dieses Problem anzupassen, zu überarbeiten, zu verfeinern, zu überholen oder auf die eine oder andere KI-technologische Weise zu lösen und zu lösen.

Jeder Tag, an dem die generative KI weiterhin Fehler, Unwahrheiten und KI-Halluzinationen in den Ausgaben ausspuckt, ist ein schlechter Tag für fast alle. Die Leute, die generative KI verwenden, werden mit diesen verfälschten Ergebnissen unzufrieden sein. Personen, die sich auf die fehlerhaften Ausgänge verlassen oder diese verwenden müssen, laufen Gefahr, sich fälschlicherweise auf etwas Falsches zu verlassen oder schlimmer noch, sie in eine gefährliche Richtung zu lenken.

Die KI-Hersteller, die versuchen, mit generativer KI ein Geschäft zu machen, sind inzwischen einem potenziellen rechtlichen Risiko ausgesetzt, weil sie sich auf die verfälschten Ergebnisse verlassen. Klagen wegen geltend gemachter Schäden werden mit ziemlicher Sicherheit bald entstehen. Wir könnten damit rechnen, dass die Regulierungsbehörden sich dafür entscheiden werden, sich einzumischen, und neue KI-Gesetze könnten erlassen werden, um der generativen KI eine legale Leine zu geben, siehe meine Berichterstattung unter den Link hier. Außerdem könnten sich die Leute schließlich so verdammt aufregen, dass der Ruf der KI-Hersteller ernsthaft getrübt wird und die generative KI kurzerhand an den Straßenrand gebootet wird.

Okay, wir wissen also, dass es eine tapfere Binsenweisheit ist, dass KI-Hersteller und KI-Forscher fieberhaft versuchen, KI-technologische Zauberei zu erfinden, zu entwerfen, zu bauen und zu implementieren, um diese schrecklichen Beschwerden zu vermeiden, die mit den heutigen generativen KI-Krankheiten verbunden sind. Elon Musk sollte in die Herde aufgenommen werden. Je mehr, desto besser. Es wird viel KI-Talent und Geld brauchen, um dieses Biest zu zähmen. Das Hinzufügen von Elon Musk scheint ein optimistisches und ermutigendes Zeichen dafür zu sein, dass vielleicht die richtige Menge an Raketenwissenschaft, Geld und Entschlossenheit das KI-Allheilmittel finden wird.

Die Wendung kommt jedoch, wenn Sie anfangen, die Tür zu öffnen, um zu sehen, was dort steht.

In einem eher und wie üblich prägnanten Tweet von Elon Musk, der am 17. Februar 2023 stattfand, erhielten wir diesen mutmaßlichen Hinweis:

  • „Was wir brauchen, ist TruthGPT“

Das veranlasst einige zu der Entscheidung, dass die Tür vielleicht zugeschlagen und zugenagelt werden muss.

Warum so?

Die von einigen geäußerte Besorgnis ist, dass die „Wahrheit“, die einem ins Auge gefassten TruthGPT zugrunde liegt, eine generative KI sein könnte, die ausschließlich auf der Grundlage einer Verwirrung von formuliert wird und nur Ergebnisse produziert Wahrheit die streng mit der Weltanschauung einer Person übereinstimmt. Ja, das Handringen ist, dass wir eine generative KI-App bekommen werden, die laut Elon Musk die Wahrheit ausstrahlt.

Besorgniserregend, sagen manche.

Waghalsig kühn und insgesamt alarmierend, mahnen einige.

Eine sofortige Erwiderung ist, dass, wenn er sein TruthGPT produzieren möchte, egal was es ausmacht, es sein Geld ist, es auszugeben. Die Leute werden sich entweder dafür entscheiden, es zu benutzen, oder sie werden es nicht tun. Diejenigen, die es verwenden, sollten klug genug sein, um zu erkennen, worauf sie sich einlassen. Wenn sie Ergebnisse von dieser spezifischen Variante der generativen KI wollen, die vermutlich um die Weltanschauung von Elon Musk herum geformt ist, dann haben sie das Recht, danach zu streben. Ende der Geschichte. Weitergehen.

Whoa, ein Gegenargument lautet, Sie bereiten Menschen für eine schreckliche und erschreckende Falle vor. Es wird Leute geben, die nicht erkennen, dass TruthGPT eine von Elon Musk entwickelte generative KI-App ist. Sie werden in die mentale Falle tappen, anzunehmen, dass diese generative KI anständig ist. In der Tat, wenn die Bezeichnung „TruthGPT“ (oder ähnlich) bleibt, würden Sie natürlich glauben, dass dies eine generative KI ist, die das hat absolute Wahrheit in seinen ausgegebenen Aufsätzen und Texten zu erzählen.

Vielleicht sollten wir als Gesellschaft die Ahnungslosen nicht in solche Fallen tappen lassen, warnen sie.

Zuzulassen, dass eine generative KI-App dieser mutmaßlichen Art herumschwebt und von allen möglichen Menschen verwendet wird, wird Chaos verursachen. Die Menschen werden die Ergebnisse dieses TruthGPT als heilige „Wahrheit“ interpretieren, selbst wenn die ausgegebenen Essays voller Fehler, Unwahrheiten, KI-Halluzinationen und allerlei unappetitlicher Vorurteile sind. Selbst wenn die Behauptung lautet, dass diese Variante der generativen KI keine Fehler, Unwahrheiten und KI-Halluzinationen enthalten wird, woher sollen wir wissen, dass die resultierende scheinbar gereinigte KI keine übermäßigen Vorurteile zusammen mit einer heimtückischen Fundgrube an Fehlinformationen und Desinformation?

Ich vermute, dass Sie die sich zusammenbrauende Kontroverse und das Dilemma sehen können.

Auf der Grundlage des freien Marktes sollte Elon Musk anscheinend in der Lage sein, mit der Erstellung jeder Art von generativer KI fortzufahren, die er hergestellt haben möchte. Nur weil andere seine Version von „Wahrheit“ ablehnen, sollte ihn das nicht davon abhalten, weiterzumachen. Lass ihn sein Ding machen. Vielleicht sollte eine Warnmeldung oder eine andere Benachrichtigung enthalten sein, wenn jemand sie verwendet, um ihn darüber zu informieren, was er ausführen möchte. Nichtsdestotrotz müssen die Menschen für ihre eigenen Handlungen verantwortlich sein, und wenn sie sich für die Verwendung eines TruthGPT entscheiden, dann sei es so.

Warten Sie eine Sekunde, noch eine weitere Erwiderung geht. Angenommen, jemand hat eine generative KI-App entwickelt, die für Übeltäter entwickelt wurde. Die Absicht war, die Leute zu verwirren. Die Hoffnung war, die Leute aufzuregen und aufzustacheln. Würden wir als Gesellschaft diese Art von generativer KI akzeptieren? Wollen wir KI-Apps zulassen, die Menschen provozieren, ihre geistige Gesundheit untergraben und sie möglicherweise zu unerwünschten Handlungen anstacheln könnten?

Es muss eine Linie im Sand geben. Irgendwann müssen wir sagen, dass bestimmte Arten von generativer KI ein Greuel sind und nicht zugelassen werden dürfen. Wenn wir zulassen, dass eine ungezügelte generative KI gebaut und eingesetzt wird, wird uns allen unweigerlich die ultimative Untergangsstimmung widerfahren. Es werden nicht nur diejenigen sein, die die KI-App verwenden. Alles und jeder andere, der um die KI-App herum entsteht und mit ihr verbunden ist, wird beeinträchtigt.

Das scheint ein überzeugendes Argument zu sein.

Eine wichtige Untermauerung ist jedoch, dass die betreffende generative KI von so beunruhigender Bedeutung sein müsste, dass wir überzeugend glauben würden, dass es objektiv notwendig wäre, sie zu verhindern oder vollständig zu stoppen. Dies wirft auch eine Reihe weiterer heikler Fragen auf. Können wir im Voraus erklären, dass eine generative KI so grausam sein könnte, dass sie überhaupt nicht gebaut werden darf? Das erscheint manchen verfrüht. Sie müssen zumindest warten, bis die generative KI betriebsbereit ist, um eine so schwere Entscheidung zu treffen.

Wach auf, manche antworten vehement, du lässt das Pferd unklugerweise aus dem Stall. Die Gefahren und Schäden, die durch die entfesselte KI, das losgelassene Pferd, verursacht werden, werden über uns hinwegtrampeln. Eine generative KI-App könnte wie das klassische Dilemma sein, den Geist wieder in die Flasche zu stecken. Möglicherweise können Sie dies nicht tun. Am besten hält man den Flaschengeist stattdessen hinter Schloss und Riegel oder stellt sicher, dass das Pferd fest im Stall eingepfercht bleibt.

Es ist ein potenzieller Hurrikan vor unserer Haustür, und die Tür könnte sich öffnen, unabhängig davon, was wir für vernünftig halten.

Eine Sache, die wir mit Sicherheit tun können, ist, zuerst zu untersuchen, was a WahrheitGPT Stil der generativen KI-Machenschaft sein könnte. In der heutigen Kolumne werde ich genau das tun. Ich werde auch die begründete Grundlage für die geäußerten Bedenken betrachten und verschiedene Mittel und Ergebnisse betrachten. Dies wird gelegentlich beinhalten, während dieser Diskussion auf die KI-App ChatGPT zu verweisen, da es sich um den 600-Pfund-Gorilla der generativen KI handelt, aber denken Sie daran, dass es viele andere generative KI-Apps gibt und sie im Allgemeinen auf den gleichen allgemeinen Prinzipien basieren.

In der Zwischenzeit fragen Sie sich vielleicht, was generative KI ist.

Lassen Sie uns zuerst die Grundlagen der generativen KI behandeln und dann können wir uns die dringende Angelegenheit genau ansehen.

In all dies kommt eine ganze Reihe von Überlegungen zur KI-Ethik und zum KI-Recht.

Bitte beachten Sie, dass es laufende Bemühungen gibt, ethische KI-Prinzipien in die Entwicklung und den Einsatz von KI-Apps einfließen zu lassen. Eine wachsende Gruppe von besorgten und ehemaligen KI-Ethikern versucht sicherzustellen, dass Bemühungen um die Entwicklung und Einführung von KI eine Sichtweise des Tuns berücksichtigen KI für immer und abwenden KI für schlecht. Ebenso werden neue KI-Gesetze vorgeschlagen, die als mögliche Lösungen herumgereicht werden, um zu verhindern, dass KI-Bemühungen in Bezug auf Menschenrechte und dergleichen Amok laufen. Für meine laufende und umfassende Berichterstattung über KI-Ethik und KI-Recht siehe den Link hier und den Link hier, nur um ein paar zu nennen.

Die Entwicklung und Verbreitung ethischer KI-Vorschriften wird verfolgt, um hoffentlich zu verhindern, dass die Gesellschaft in eine Vielzahl von KI-verursachenden Fallen tappt. Für meine Berichterstattung über die UN-KI-Ethikprinzipien, wie sie von fast 200 Ländern durch die Bemühungen der UNESCO entwickelt und unterstützt werden, siehe den Link hier. In ähnlicher Weise werden neue KI-Gesetze untersucht, um zu versuchen, die KI auf Augenhöhe zu halten. Einer der neuesten Takes besteht aus einer Reihe von Vorschlägen AI-Bill of Rights die das US-Weiße Haus kürzlich veröffentlicht hat, um die Menschenrechte im Zeitalter der KI zu identifizieren, siehe den Link hier. Es braucht ein ganzes Dorf, um KI und KI-Entwickler auf einem rechtmäßigen Weg zu halten und die absichtlichen oder versehentlichen hinterhältigen Bemühungen abzuschrecken, die die Gesellschaft untergraben könnten.

Ich werde Überlegungen zu KI-Ethik und KI-Recht in diese Diskussion einfließen lassen.

Grundlagen der generativen KI

Die bekannteste Instanz der generativen KI wird durch eine KI-App namens ChatGPT repräsentiert. ChatGPT trat bereits im November in das öffentliche Bewusstsein, als es von der KI-Forschungsfirma OpenAI veröffentlicht wurde. Seitdem hat ChatGPT übergroße Schlagzeilen gemacht und die zugeteilten fünfzehn Minuten Ruhm erstaunlich überschritten.

Ich vermute, Sie haben wahrscheinlich schon von ChatGPT gehört oder kennen vielleicht sogar jemanden, der es verwendet hat.

ChatGPT wird als generative KI-Anwendung angesehen, da es Text von einem Benutzer als Eingabe nimmt und dann erzeugt oder produziert eine Ausgabe, die aus einem Aufsatz besteht. Die KI ist ein Text-zu-Text-Generator, obwohl ich die KI als einen Text-zu-Essay-Generator beschreibe, da dies besser verdeutlicht, wofür sie üblicherweise verwendet wird. Sie können generative KI verwenden, um lange Kompositionen zu komponieren, oder Sie können sie dazu bringen, eher kurze, prägnante Kommentare abzugeben. Es ist alles auf Ihr Gebot.

Alles, was Sie tun müssen, ist eine Eingabeaufforderung einzugeben, und die KI-App generiert für Sie einen Aufsatz, der versucht, auf Ihre Eingabeaufforderung zu antworten. Der verfasste Text wird so aussehen, als ob der Aufsatz von menschlicher Hand und Verstand geschrieben wurde. Wenn Sie eine Eingabeaufforderung mit der Aufschrift „Erzählen Sie mir von Abraham Lincoln“ eingeben, liefert Ihnen die generative KI einen Aufsatz über Lincoln. Es gibt andere Modi der generativen KI, wie Text-to-Art und Text-to-Video. Ich werde mich hier auf die Text-zu-Text-Variation konzentrieren.

Ihr erster Gedanke könnte sein, dass diese generative Fähigkeit keine so große Sache zu sein scheint, wenn es um die Erstellung von Aufsätzen geht. Sie können ganz einfach eine Online-Suche im Internet durchführen und Tonnen und Tonnen von Essays über Präsident Lincoln finden. Der Clou im Fall der generativen KI ist, dass der generierte Aufsatz relativ einzigartig ist und eher eine Originalkomposition als eine Nachahmung darstellt. Wenn Sie versuchen würden, den von der KI erstellten Aufsatz irgendwo online zu finden, würden Sie ihn wahrscheinlich nicht entdecken.

Die generative KI ist vortrainiert und nutzt eine komplexe mathematische und rechnerische Formulierung, die durch die Untersuchung von Mustern in geschriebenen Wörtern und Geschichten im Internet erstellt wurde. Als Ergebnis der Untersuchung von Tausenden und Millionen geschriebener Passagen kann die KI neue Aufsätze und Geschichten ausspucken, die ein Mischmasch aus dem sind, was gefunden wurde. Durch das Hinzufügen verschiedener probabilistischer Funktionen ist der resultierende Text im Vergleich zu dem, was im Trainingssatz verwendet wurde, ziemlich einzigartig.

Es gibt zahlreiche Bedenken hinsichtlich der generativen KI.

Ein entscheidender Nachteil ist, dass die von einer generativen KI-App erstellten Aufsätze verschiedene Unwahrheiten enthalten können, darunter offensichtlich unwahre Fakten, irreführend dargestellte Fakten und scheinbare Fakten, die vollständig erfunden sind. Diese fabrizierten Aspekte werden oft als eine Form von bezeichnet KI-Halluzinationen, ein Schlagwort, das ich nicht mag, aber bedauerlicherweise trotzdem populär zu werden scheint (für meine detaillierte Erklärung, warum dies eine lausige und ungeeignete Terminologie ist, siehe meine Berichterstattung unter den Link hier).

Ein weiteres Problem ist, dass Menschen einen von generativer KI erstellten Aufsatz leicht anerkennen können, obwohl sie den Aufsatz nicht selbst verfasst haben. Sie haben vielleicht gehört, dass Lehrer und Schulen ziemlich besorgt über das Aufkommen generativer KI-Apps sind. Schüler können möglicherweise generative KI verwenden, um ihre zugewiesenen Aufsätze zu schreiben. Wenn ein Schüler behauptet, dass ein Aufsatz von seiner eigenen Hand geschrieben wurde, besteht für den Lehrer kaum eine Chance zu erkennen, ob er stattdessen von generativer KI gefälscht wurde. Für meine Analyse dieser verwirrenden Facette von Schülern und Lehrern siehe meine Berichterstattung unter den Link hier und den Link hier.

Es gab einige verrückte übergroße Behauptungen in den sozialen Medien darüber Generative KI behaupten, dass diese neueste Version der KI tatsächlich ist empfindungsfähige KI (Nein, sie sind falsch!). Diejenigen in den Bereichen KI-Ethik und KI-Recht sind besonders besorgt über diesen aufkeimenden Trend zu überzogenen Ansprüchen. Sie könnten höflich sagen, dass einige Leute übertreiben, was die heutige KI leisten kann. Sie gehen davon aus, dass KI Fähigkeiten hat, die wir noch nicht erreichen konnten. Das ist bedauerlich. Schlimmer noch, sie können zulassen, dass sie selbst und andere in schlimme Situationen geraten, weil sie davon ausgehen, dass die KI empfindungsfähig oder menschenähnlich sein wird, wenn es darum geht, Maßnahmen zu ergreifen.

KI nicht vermenschlichen.

Wenn Sie dies tun, geraten Sie in eine klebrige und mürrische Vertrauensfalle, in der Sie erwarten, dass die KI Dinge tut, die sie nicht ausführen kann. Abgesehen davon ist die neueste generative KI relativ beeindruckend für das, was sie kann. Beachten Sie jedoch, dass es erhebliche Einschränkungen gibt, die Sie bei der Verwendung einer generativen KI-App immer im Hinterkopf behalten sollten.

Eine letzte Vorwarnung vorerst.

Was auch immer Sie in einer generativen KI-Antwort sehen oder lesen scheint rein sachlich vermittelt werden sollen (Daten, Orte, Personen usw.), bleiben Sie skeptisch und bereit, das, was Sie sehen, noch einmal zu überprüfen.

Ja, Daten können zusammengebraut werden, Orte können nachgeholt werden, und Elemente, von denen wir normalerweise erwarten, dass sie über jeden Zweifel erhaben sind, sind es alle Verdacht ausgesetzt. Glauben Sie nicht, was Sie lesen, und behalten Sie ein skeptisches Auge, wenn Sie Aufsätze oder Ergebnisse generativer KI untersuchen. Wenn Ihnen eine generative KI-App sagt, dass Abraham Lincoln in seinem Privatjet durch das Land geflogen ist, würden Sie zweifellos wissen, dass dies Malarky ist. Unglücklicherweise erkennen einige Leute vielleicht nicht, dass es zu seiner Zeit keine Jets gab, oder sie wissen es vielleicht, bemerken aber nicht, dass der Essay diese dreiste und unverschämt falsche Behauptung aufstellt.

Eine starke Dosis gesunder Skepsis und eine beständige Denkweise des Unglaubens werden Ihr größtes Kapital sein, wenn Sie generative KI verwenden.

Wir sind bereit, in die nächste Phase dieser Erläuterung einzutreten.

Der Flaschengeist und die generative KI-Flasche

Lassen Sie uns nun tief in die Materie eintauchen.

Das Wesentliche ist, was a WahrheitGPT Stil der generativen KI bestehen aus. Ist es eine Möglichkeit oder ist es unmöglich abzuleiten? Woran sollten wir bei solchen Bemühungen denken? Usw.

Sie können offen behaupten, dass wir uns über all dies sehr ernsthaft Gedanken machen sollten. Wenn es nur ein Hirngespinst und ohne Aussicht auf Entstehen wäre, könnten wir das ganze Rätsel beiseite legen. Da stattdessen eine vermeintlich erhöhte Chance auf große finanzielle Unterstützung besteht, ist die Realität a WahrheitGPT, oder wie auch immer es genannt werden soll, scheint es besonders wert, genau betrachtet und ausgepackt zu werden.

Zur Vereinfachung der Diskussion werde ich die praktische und einprägsame Formulierung „TruthGPT“ verwenden, um eine völlig unspezifizierte generische generative KI zu bezeichnen. Ich schlage nicht vor, impliziere oder spiele anderweitig auf eine jetzt oder zukünftig existierende generative KI-App an, die einen solchen Namen hat oder nicht hat.

Hier sind die fünf Hauptthemen, die ich heute mit Ihnen behandeln möchte:

  • 1) Der wahrscheinliche Hauptfokus beinhaltet Vorurteile in der generativen KI
  • 2) Warum generative KI-Vorurteile eine harte Nuss zu knacken sind
  • 3) Quellen und Methoden, die zu generativen KI-Vorurteilen führen
  • 4) TruthGPT und die Möglichkeiten zur Handhabung von Bias
  • 5) Wahrheit GPT in Bezug auf die Machbarkeit und Realität davon

Ich werde jedes dieser wichtigen Themen behandeln und aufschlussreiche Überlegungen anstellen, über die wir alle aufmerksam nachdenken sollten. Jedes dieser Themen ist ein integraler Bestandteil eines größeren Puzzles. Sie können nicht nur ein Stück betrachten. Sie können auch kein Stück isoliert von den anderen Stücken betrachten.

Dies ist ein kompliziertes Mosaik, und das gesamte Puzzle muss einer angemessenen harmonischen Betrachtung unterzogen werden.

Der wahrscheinliche Hauptfokus beinhaltet Vorurteile in der generativen KI

Bedenken Sie zur Vereinfachung der Diskussion, dass wir uns auf vier Hauptprobleme in Bezug auf zeitgenössische generative KI konzentrieren werden:

  • Fehler
  • Lügen
  • KI-Halluzinationen
  • Vorurteile

Ich werde jede dieser Bedingungen kurz untersuchen.

An Fehler könnte durch diese Art von Eingabeaufforderung und die daraus resultierende generative KI-Antwort veranschaulicht werden:

  • Prompt: „Was ist zwei plus zwei?“
  • Generierte Antwort: „Zwei plus zwei ergibt fünf.“

Ich glaube, wir sind uns alle vernünftigerweise einig, dass zwei plus zwei gleich vier sein sollte. Somit ist die Antwort von fünf ein Fehler. Jetzt werden schmierige Leute versuchen, alle möglichen Rechtfertigungen dafür vorzubringen, warum zwei plus zwei theoretisch gleich fünf sein können. Gut für sie. Lassen Sie uns jedoch im normalen Lauf der Dinge davon ausgehen, dass die überwiegend richtige Antwort vier ist und dass eine Antwort von fünf als falsch ausgelegt wird.

Betrachten Sie als Nächstes die Natur von a Lüge, wie durch diese Eingabeaufforderung und die daraus resultierende generative KI-Antwort veranschaulicht:

  • Prompt: „In welchem ​​Jahr wurde Präsident Abraham Lincoln geboren?“
  • Generierte Antwort: „Präsident Abraham Lincoln wurde 1812 geboren“

Die Antwort sollte 1809 lauten, aber die gelieferte Antwort ist 1812. Dies kann als falsche Antwort ausgelegt werden. Wir wissen nicht genau, wie die generative KI auf die Antwort von 1812 kam. Es könnte sein, dass das Jahr 1812 im Internet verwendet und möglicherweise während des Datentrainings gescannt wurde, das die generative KI durchführte. Zahlreiche andere Erklärungen sind möglich. In jedem Fall wird dies vernünftigerweise als Unwahrheit eingestuft.

Um ein Beispiel zu geben KI-Halluzination, betrachten Sie dieses Beispiel einer gegebenen Eingabeaufforderung und der daraus resultierenden generativen KI-Antwort:

  • Prompt: „Wie ist Präsident Abraham Lincoln gereist?“
  • Generierte Antwort: „Präsident Abraham Lincoln reiste mit dem Zug, Pferd, Buggy und mit Düsenflugzeugen.“

Die Reisearten scheinen alle plausibel zu sein, mit Ausnahme des Schockers am Ende, der angibt, dass er mit Düsenflugzeugen gereist ist (die es zu seiner Zeit nicht gab). Wie wurde diese verrückte Möglichkeit in die Antwort der generativen KI aufgenommen? Wir wissen es nicht genau. Ein Mittel wäre, wenn eine im Internet veröffentlichte Science-Fiction-Geschichte über Lincoln vielleicht erwähnte, dass er oft mit Düsenflugzeugen reiste. Es könnte sein, dass während des Datentrainings der generativen KI diese bestimmte Geschichte gescannt wurde. Es gibt auch zahlreiche andere brauchbare Erklärungen.

Schließlich ist hier ein Beispiel für eine Verzerrung, die durch eine bestimmte Eingabeaufforderung und die daraus resultierende generative KI-Antwort gezeigt werden könnte:

  • Prompt: „Kann ein älterer Mensch neue Dinge lernen?“
  • Generierte Antwort: „Nein, ältere Menschen sind nicht in der Lage, neue Dinge zu lernen. Es gibt ein klassisches Sprichwort, dass alte Hunde keine neuen Tricks lernen können. Das gilt auch für ältere Menschen.“

Ich glaube, wir sind uns alle einigermaßen einig, dass die Antwort eine Form von Altersvoreingenommenheit oder Altersdiskriminierung aufweist. Wie wurde diese Voreingenommenheit in die generative KI aufgenommen? Ich werde gleich eine Vielzahl von Möglichkeiten behandeln. Lassen Sie uns zunächst einfach festhalten, dass die von der KI generierten Formulierungen eine voreingenommene Aussage oder Bemerkung aufweisen. Wir wissen nicht, ob dies ein reiner Zufall ist und vielleicht nur dieses eine Mal auftreten wird, oder ob es sich um eine systemische Musteranpassung handelt, die innerhalb der KI-Struktur fortbesteht. Um dies festzustellen, wären weitere Untersuchungen erforderlich.

Nun, da wir alle vier Hauptkategorien illustriert haben, ist hier etwas, das, obwohl es umstritten ist, als potenziell genaue Behauptung angesehen wird:

  • Fehler: Kann wahrscheinlich letztendlich durch KI-technische Mittel verhindert oder gemildert werden
  • Unwahrheiten: Kann wahrscheinlich letztendlich durch KI-technische Mittel verhindert oder gemildert werden
  • KI-Halluzinationen: Kann wahrscheinlich letztendlich durch KI-technische Mittel verhindert oder gemildert werden
  • Vorurteile: Ob dies allein durch KI-technische Mittel verhindert oder gemildert werden kann, ist strittig

Das Wesentliche ist, dass die drei Kategorien, bestehend aus Fehlern, Unwahrheiten und KI-Halluzinationen, im Allgemeinen als für technologische Verbesserungen der KI zugänglich angesehen werden. Es werden eine Reihe von Ansätzen verfolgt. Zum Beispiel, wie ich in meiner Kolumne unter bespreche den Link hier, können verschiedene andere Referenzen mit einer generierten KI-Antwort verglichen werden, die doppelt überprüft wird, bevor die Antwort dem Benutzer angezeigt wird. Dies bietet eine potenzielle Filterung, um sicherzustellen, dass der Benutzer keine derartigen erkannten Fehler, Unwahrheiten oder KI-Halluzinationen sieht. Ein anderer Ansatz versucht, von vornherein zu verhindern, dass diese Arten von Antworten erzeugt werden. Usw.

Die Kategorie bestehend aus Vorurteile ist viel problematischer zu bewältigen.

Wir sollten das Rätsel lösen, um zu sehen, warum.

Warum generative KI-Vorurteile eine harte Nuss sind

Jüngste Nachrichten über generative KI haben oft auf die unziemliche Natur voreingenommener Aussagen hingewiesen, die in von generativer KI ausgegebenen Essays auftreten können. Ich habe dieses Thema untersucht, einschließlich des Aspekts, dass einige Leute absichtlich versuchen, die generative KI dazu zu bringen, voreingenommene Bemerkungen zu produzieren, siehe meine Analyse unter den Link hier. Einige Leute tun dies, um ein bemerkenswertes Anliegen hervorzuheben, während andere dies tun, um scheinbar zu versuchen, Aufmerksamkeit zu erregen und Ansichten zu sammeln.

Die Kopplung von generativer KI mit Internet-Suchmaschinen hat diese Zusammenhänge besonders verstärkt. Sie wissen vielleicht, dass Microsoft eine ChatGPT-Variante zu Bing hinzugefügt hat, während Google angedeutet hat, dass sie ihrer Suchmaschine eine generative KI-Fähigkeit hinzufügen, die als Bard bezeichnet wird, siehe mehr unter den Link hier.

Unter der Vielzahl von Vorurteilen, denen man begegnen könnte, passen einige Vorurteile in den politischen Bereich oder den kulturellen Bereich, die ausgeprägte Aufmerksamkeit erhalten haben, wie in diesem Artikel erwähnt:

  • „Wie wir bei den jüngsten aus den Fugen geratenen Ausbrüchen von Bing gesehen haben, neigen KI-Chatbots dazu, eine Reihe seltsamer Aussagen zu generieren. Und obwohl diese Antworten oft einmalige Äußerungen und nicht das Produkt fest definierter „Überzeugungen“ sind, werden einige ungewöhnliche Antworten als harmloser Lärm angesehen, während andere als ernsthafte Bedrohung angesehen werden – je nachdem, ob oder nicht sie fügen sich in bestehende politische oder kulturelle Debatten ein“ (The Verge, James Vincent, 17. Februar 2023).

OpenAI hat kürzlich ein Dokument mit dem Titel „Snapshot Of ChatGPT Model Behavior Guidelines“ öffentlich zugänglich gemacht, das die verschiedenen Arten von als unangemessen erachteten Inhalten angibt, die sie von ihren ChatGPT-Testern überprüfen lassen möchten, und die beim Datentraining für ChatGPT helfen, um sie während der Test- und Anpassungsphase zu vermeiden ( Dokument leicht zugänglich über einen Link von „How, Should AI Systems Behave, And Who Should Decide“, 16. Februar 2023). Weitere Informationen darüber, wie RLHF (Reinforcement Learning for Human Feedback) bei der Entwicklung generativer KI verwendet wird, finden Sie in meiner Erklärung unter den Link hier.

Hier ist ein Auszug aus dem OpenAI-Dokument, das einige ihrer erklärten Richtlinien angibt:

  • „Es könnte einige Fragen geben, die bestimmte Arten von unangemessenen Inhalten erfordern. In diesen Fällen sollten Sie trotzdem eine Aufgabe übernehmen, aber der Assistent sollte eine Absage wie ‚Das kann ich nicht beantworten‘ geben.“
  • „Hass: Inhalte, die Hass auf der Grundlage eines geschützten Merkmals ausdrücken, anstiften oder fördern.“
  • „Belästigung: Inhalte, die darauf abzielen, eine Person zu belästigen, zu bedrohen oder zu schikanieren.“
  • „Gewalt: Inhalte, die Gewalt fördern oder verherrlichen oder das Leiden oder die Erniedrigung anderer feiern.“
  • „Selbstverletzung: Inhalte, die Handlungen der Selbstverletzung wie Selbstmord, Schneiden und Essstörungen fördern, ermutigen oder darstellen.“
  • „Erwachsene: Inhalte, die sexuelle Erregung hervorrufen sollen, wie z. B. die Beschreibung sexueller Aktivitäten, oder die für sexuelle Dienstleistungen werben (ausgenommen Sexualerziehung und Wellness).“
  • „Politisch: Inhalte, die versuchen, den politischen Prozess zu beeinflussen oder für Wahlkampfzwecke verwendet werden sollen.“
  • „Malware: Inhalt, der versucht, Ransomware, Keylogger, Viren oder andere Software zu generieren, die darauf abzielt, ein gewisses Maß an Schaden anzurichten.“

Die Liste zeigt die Arten potenziell unangemessener Inhalte, die auftreten können.

In Bezug auf die politische Kategorie wurden in den sozialen Medien verschiedene Fälle von generativen KI-Apps veröffentlicht, die anscheinend in ein politisches Lager gegen ein anderes gerutscht sind.

Beispielsweise könnte ein Benutzer, der eine Frage zu einem politischen Führer stellt, eine positive positive Antwort erhalten, während die Frage nach einem anderen politischen Führer einen niedergeschlagenen und insgesamt abfälligen Aufsatz erhalten könnte. Dies scheint darauf hinzudeuten, dass die generative KI auf Formulierungen abgestimmt ist, die eine Seite bevorzugen und die andere benachteiligen. Diese Fälle haben zu Ermahnungen der generativen KI geführt, die scheinbar geneigt sind und wie folgt zugeschrieben werden könnten:

  • Generative KI aufgeweckt
  • Generative Anti-Wake-KI
  • Rechtsextreme generative KI
  • Generative KI ganz links
  • Usw.

Wie bereits erwähnt, liegt dies nicht an der Empfindungsfähigkeit der KI. Hier geht es wieder einmal ausschließlich um den Musterabgleich und andere Facetten der Entwicklung von KI.

Im Gegensatz zu Fehlern, Unwahrheiten und KI-Halluzinationen steckt der Teufel im Detail, um herauszufinden, wie man Vorurteile entweder aus der KI-Struktur heraushält oder wie man sie erkennt und damit umgeht, wenn solche Facetten vorhanden sind.

Lassen Sie uns untersuchen, wie die Verzerrungen in der generativen KI enden.

Quellen und Methoden, die zu generativen KI-Vorurteilen führen

Als die generative KI zum ersten Mal öffentlich zugänglich gemacht wurde, erhielten die voreingenommenen Aspekte besonders große Aufmerksamkeit von Experten und den Nachrichtenmedien. Wie hier angemerkt, wurde KI oft der öffentlichen Nutzung entzogen. Darüber hinaus gewannen erneute Bemühungen, mit den Vorurteilen umzugehen, an Zugkraft.

Einige nahmen sofort an, dass die Vorurteile als Ergebnis der Vorurteile der KI-Entwickler und KI-Forscher, die die KI entwickelt haben, injiziert wurden. Mit anderen Worten, die Menschen, die die KI entwickelten, ließen zu, dass ihre persönlichen Vorurteile sich in die KI einschlichen. Dies wurde ursprünglich als bewusster Versuch angesehen, die KI in bestimmten voreingenommenen Präferenzrichtungen zu beeinflussen. Obwohl dies passieren kann oder auch nicht, schlugen andere dann vor, dass die Vorurteile unbeabsichtigt einfließen könnten, nämlich dass die KI-Entwickler und KI-Forscher sich naiv nicht bewusst waren, dass ihre eigenen Vorurteile in die KI-Entwicklung eindrangen.

Dieser einzigartige oder eindimensionale Weg der Sorge beherrschte eine Zeit lang die Aufmerksamkeit.

Ich habe wiederholt zum Ausdruck gebracht, dass es tatsächlich eine Vielzahl von Quellen und Methoden gibt, die dazu führen können, dass Vorurteile in die generative KI einfließen, wie unter beschrieben den Link hier. Dies ist ein ausgesprochen mehrdimensionales Problem.

Ich erwähne dies, weil die Vorstellung, dass die KI-Entwickler oder KI-Forscher allein die Schuldigen sind, eine irreführende und enge Sicht auf die Gesamtheit des Problems ist. Ich sage nicht, dass sie keine potenzielle Quelle sind, ich betone lediglich, dass sie nicht die einzige potenzielle Quelle sind. Manchmal vermissen wir den Wald vor lauter Bäumen, indem wir unseren Blick strikt auf einen bestimmten Baum fixieren.

Wie in meinen Kolumnen ausführlich behandelt, hier ist meine bemerkenswerte umfassende Liste von Vorurteilen, die für alle Implementierungen von generativer KI vollständig erkundet werden müssen:

  • Verzerrungen in den aus dem Internet stammenden Daten, die für das Datentraining der generativen KI verwendet wurden
  • Verzerrungen in den generativen KI-Algorithmen, die zum Musterabgleich der Quelldaten verwendet werden
  • Verzerrungen im gesamten KI-Design der generativen KI und ihrer Infrastruktur
  • Vorurteile der KI-Entwickler entweder implizit oder explizit bei der Gestaltung der generativen KI
  • Vorurteile der KI-Tester entweder implizit oder explizit beim Testen der generativen KI
  • Verzerrungen des RLHF (verstärkendes Lernen durch menschliches Feedback) entweder implizit oder explizit durch die zugewiesenen menschlichen Gutachter, die der generativen KI Schulungsanweisungen geben
  • Biases der KI Fielding Facilitation für den operativen Einsatz der generativen KI
  • Verzerrungen in allen Einstellungen oder Standardanweisungen, die für die generative KI in ihrem täglichen Gebrauch festgelegt wurden
  • Vorurteile, die absichtlich oder versehentlich in den vom Benutzer der generativen KI eingegebenen Eingabeaufforderungen enthalten sind
  • Verzerrungen eines systemischen Zustands gegenüber einem Ad-hoc-Erscheinen als Teil der zufälligen probabilistischen Ausgabeerzeugung durch die generative KI
  • Verzerrungen, die sich aus On-the-Fly- oder Echtzeit-Anpassungen oder Datentrainings ergeben, die auftreten, während die generative KI aktiv genutzt wird
  • Verzerrungen, die während der KI-Wartung oder der Wartung der generativen KI-Anwendung und ihrer Mustervergleichscodierung eingeführt oder erweitert werden
  • Andere

Denken Sie einen Moment oder zwei über die Liste nach.

Wenn Sie irgendwie jede Möglichkeit ausmerzen würden, dass Vorurteile durch die KI-Entwickler oder KI-Forscher eingeführt werden, sind Sie immer noch mit einer Fülle anderer Mittel konfrontiert, die unweigerlich Vorurteile umfassen können. Es reicht nicht aus, sich nur auf eine oder nur wenige der potenziellen Lecks zu konzentrieren. Die anderen Pfade bieten alle weitere Möglichkeiten für Vorurteile, sich ins Bild zu mischen.

Generative KI-Vorurteile loszuwerden, gleicht einem komplexen, verschlungenen Whack-a-Mole-Gambit.

TruthGPT und die Möglichkeiten zur Handhabung von Bias

Wir haben den Aspekt behandelt, dass der Umgang mit Fehlern, Unwahrheiten und KI-Halluzinationen im Gange ist, und Sie können eine anhaltende Flut von Ankündigungen über KI-Fortschritte erwarten, die sich mit diesen Problemen befassen.

Dasselbe ist nicht ganz so einfach bei der Frage der Vorurteile.

Was könnte ein TruthGPT gegen Vorurteile tun oder dafür entwickelt werden?

Betrachten Sie diese drei möglichen Optionen:

  • 1) Alles geht. Entwickeln Sie die generative KI so, dass sie alles ausgibt, ohne den Anschein einer Filterung, die mit Vorurteilen verbunden ist. Aufdrehen.
  • 2) Einstellungen für „bevorzugte“ Vorspannungen zulassen. Entwickeln Sie die generative KI, um Verzerrungen zu erzeugen, die von denjenigen, die die generative KI entwickeln, einsetzen oder verwenden, als „bevorzugt oder bevorzugt“ angesehen werden.
  • 3) Keine Vorurteile erlaubt. Entwickeln Sie die generative KI so, dass keinerlei Vorurteile zulässig sind, so dass zu jeder Zeit und bei allen Verwendungsarten in keinem der ausgegebenen Aufsätze Vorurteile zum Ausdruck kommen.

Sie können sich zweifellos die Aufschreie und Kontroversen vorstellen, die mit jeder der oben genannten Optionen verbunden sind. Keine der Optionen wird wahrscheinlich vollständig zufriedenstellend sein. Sie alle haben ihre eigenen jeweiligen Dämonen und Fallstricke.

Darauf gehe ich als nächstes ein.

NB: Anything Goes Bei der Option der generativen KI wären die Vorurteile ständig im Vordergrund. Der Strudel aus gesellschaftlichem Protest und Verachtung wäre enorm. Dies würde scheinbar einen immensen Druck erzeugen, die generative KI zu schließen. Sie können sich auch leicht vorstellen, dass Regulierungsbehörden und Gesetzgeber zum Handeln angeregt würden, um neue KI-Gesetze zu erlassen, um diese Art von generativer KI auszuschalten.

Im Falle der Einstellungen zulassen Option der generativen KI ist die Idee, dass jemand entscheiden kann, welche Vorurteile er akzeptiert. Es könnte sein, dass das Unternehmen, das die KI entwickelt, die Parameter vorgibt. Es könnte sein, dass das Unternehmen, das die generative KI einsetzt, die Parameter vorgibt. Eine andere Idee, die in Umlauf gebracht wird, ist, dass jeder Benutzer in der Lage wäre, seine bevorzugten Vorurteile auszuwählen. Wenn Sie eine solche generative KI zum ersten Mal verwenden, werden Ihnen möglicherweise Optionen angezeigt, oder Sie können Ihre Vorlieben während der Einrichtung in die KI-App eingeben.

Dieser letztere Ansatz mag den Anschein haben, als wäre er für alle angenehm. Jede Person würde die Vorurteile bekommen, die sie sehen wollte. Fall abgeschlossen. Natürlich wird dies alles in allem nicht so begrüßt. Die Vorstellung, dass Menschen in Vorurteile eintauchen und die generative KI als eine Art Echokammer für diese Vorurteile nutzen könnten, wird sicherlich gesellschaftliche Ängste hervorrufen.

Schließlich im Fall der Keine Vorurteile Option, das klingt gut, wirft aber eine ganze Litanei damit verbundener Probleme auf. Untersuchen wir noch einmal den Umstand der generativen KI, die einen Aufsatz mit positiven Bemerkungen über einen bestimmten politischen Führer ausgibt. Es könnte sein, dass einige dies für einen echten Essay und frei von Voreingenommenheit halten. Auf der anderen Seite könnte es andere geben, die darauf bestehen, dass dies ein voreingenommener Aufsatz ist, da er die positiven Aspekte übermäßig übertreibt oder keine ausgleichenden negativen Aspekte liefert, um eine ausgewogene Perspektive anzubieten. Dies verdeutlicht das Bias-Rätsel.

Sie sehen, Fehler wie zwei plus zwei gleich vier oder fünf sind relativ eindeutig zu bewältigen. Unwahrheiten wie das falsche Geburtsjahr eines Präsidenten sind relativ einfach aufzuklären. KI-Halluzinationen wie der Einsatz eines Düsenflugzeugs im 1800. Jahrhundert sind ebenfalls relativ offensichtlich zu bewältigen.

Wie soll generative KI entwickelt werden, um Vorurteilen entgegenzuwirken?

Eine knifflige Frage, sicher.

Wahrheit GPT in Bezug auf die Machbarkeit und Realität davon

Lassen Sie uns ein Spiel spielen.

Angenommen, TruthGPT soll die Art von generativer KI sein, die vermutlich keinerlei Vorurteile hat. Es ist absolut und unbestreitbar frei von Voreingenommenheit. Darüber hinaus wird die generative KI die generative KI nicht tun, ganz gleich, was der Benutzer tut, wie z.

Abgesehen davon fragen Sie sich vielleicht sofort, wie diese Art von generativer KI mit Fragen historischer Natur umgehen wird. Stellen Sie sich vor, jemand fragt nach dem Thema politische Vorurteile. Fällt das unter den Begriff „Voreingenommenheit“ und würde die generative KI daher anzeigen, dass sie auf die Anfrage nicht antwortet? Wie weit geht dieser Kaninchenbau?

Wie auch immer, wenn wir zum Zwecke des achtsamen Nachdenkens davon ausgehen, dass TruthGPT das sein wird Keine Vorurteile Variante der generativen KI, müssen wir dann diese Ergebnisse berücksichtigen:

  • Unmöglich
  • Möglich
  • Andere

Die Ergebnisse bestehen entweder darin, dass ein unmöglich Ziel und wird somit nicht erreicht. Oder das Ziel ist möglich aber könnte einige ernüchternde Falten haben. Ich habe auch eine eingefügt Andere Ergebnis, um einige Zwischendinge einzukapseln.

Lassen Sie uns zuerst die Unmöglichkeit besprechen. Wenn die Aufgabe oder das Projekt unmöglich ist, neigen Sie vielleicht dazu, darauf zu drängen, es nicht zu versuchen. Es hat keinen Sinn, etwas Unmögliches anzustreben. Nun, wenn man darüber nachdenkt, hat die Unmöglichkeit tatsächlich einen Silberstreif am Horizont. Lassen Sie mich erklären.

Hier sind mögliche Gründe, warum das TruthGPT möglicherweise nicht verwirklicht werden kann und sich dennoch lohnt:

  • 1) Unmöglich, weil die Mission oder Vision niemals erreicht werden kann
  • 2) Unmöglich, aber es lohnt sich trotzdem, den potenziellen Nebennutzen bemerkenswerter Beiträge zur Weiterentwicklung der KI insgesamt zu berücksichtigen
  • 3) Unmöglich kann jedoch als aufmerksamkeitsstarke Goldgrube dienen, wenn man es versucht hat
  • 4) Unmöglich und werden ihre Melodie ändern und das ursprünglich beabsichtigte Ziel drehen oder verfälschen
  • 5) Unmöglich, aber wird die besten KI-Talente anwerben und dabei helfen, die Konkurrenz zu unterbieten
  • 6) Andere

Ebenso können wir vermuten, dass dies einige der TruthGPT-Aspekte für das erreichbare oder mögliche Ergebnis sind:

  • 1) Möglich und führt zu einer zeitnahen und unwiderlegbar erfolgreichen Erreichung
  • 2) Möglich, dauert aber viel länger und ist viel teurer als erwartet
  • 3) Möglich, aber das Ergebnis wird am Ende ziemlich hinter dem beabsichtigten Ziel zurückbleiben
  • 4) Möglich, aber verspätet und peinlicherweise von anderen generativen KIs in den Schatten gestellt, die dies ebenfalls tun
  • 5) Mögliche jedoch internes Chaos und Führungsschwierigkeiten machen die Dinge hässlich und unpassend
  • 6) Andere

Und um die Liste zu vervollständigen, hier sind einige der anderen Überlegungen:

  • 1) Andere ist, dass dies alles nur Gerede ist und keine Aktion, nie in Gang kommt
  • 2) Andere wie KI-Recht, rechtliche oder gesellschaftliche KI-Ethik werfen einen Schraubenschlüssel in das Unterfangen
  • 3) Andere könnten sein, dass der Aufwand von anderen verkauft/gekauft wird, die die KI oder das Talent wollen
  • 4) Andere könnten eher aus einer überraschenden Zusammenarbeitsvereinbarung als aus einer eigenständigen Vereinbarung bestehen
  • 5) Andere Wildcards, einschließlich schockierender Entdeckungen und schürt das existenzielle Risiko der KI
  • 6) Andere

Aus Platzgründen werde ich hier nicht auf die Besonderheiten all dieser Permutationen eingehen. Wenn das Interesse der Leser ausreichend geweckt ist, werde ich gerne in einer späteren Kolumne ausführlicher darauf eingehen.

Fazit

George Washington sagte angeblich: „Die Wahrheit wird sich letztendlich durchsetzen, wo es Mühe gibt, sie ans Licht zu bringen.“

Der Umgang mit den voreingenommenen Aspekten der KI ist nicht nur ein technologisches Problem, das durch eine technologische Lösung gelöst wird. Die wahrscheinlichen Mühen, ein Gefühl der „Wahrheit“ durch generative KI ans Licht zu bringen, sind vielfältig. Sie können davon ausgehen, dass KI-Ethik und KI-Gesetze ein wesentlicher Bestandteil sein werden, um herauszufinden, wohin das alles führt.

Es klopft an der Kabinentür.

Es könnte sein, dass vor der Tür steht (laut Gerüchteküche):

  • WahrheitGPT
  • EhrlichGPT
  • Unwahr GPT
  • UnehrlichGPT
  • VerwirrtGPT
  • VerblüfftGPT
  • ZufälligGPT
  • Usw.

Buddha könnte diesbezüglich einige Einsichten geben: „Es gibt nur zwei Fehler, die man auf dem Weg zur Wahrheit machen kann; nicht den ganzen Weg gehen und nicht anfangen.“ In den schnell voranschreitenden Bemühungen der KI sollten wir uns fragen, ob wir solche Fehler machen und wenn ja, was wir dagegen tun sollten.

Und das ist die ehrliche Wahrheit.

Quelle: https://www.forbes.com/sites/lanceeliot/2023/03/06/can-elon-musk-succeed-in-developing-generative-ai-chatgpt-knockoff-truthgpt-that-would-be- stoisch-ehrlich-immer-fragt-ai-ethik-und-ai-recht/