So plant OpenAI, ChatGPT von falschen Informationen zu befreien

OpenAI kündigte am 31. Mai seine Bemühungen an, die mathematischen Problemlösungsfähigkeiten von ChatGPT zu verbessern, mit dem Ziel, Fälle von Halluzinationen durch künstliche Intelligenz (KI) zu reduzieren. OpenAI betonte die Linderung von Halluzinationen als entscheidenden Schritt zur Entwicklung einer abgestimmten AGI.

Im März brachte die Einführung der neuesten Version von ChatGPT, GPT-4, künstliche Intelligenz weiter in den Mainstream. Allerdings kämpfen generative KI-Chatbots schon lange mit der sachlichen Genauigkeit und generieren gelegentlich falsche Informationen, die gemeinhin als „Halluzinationen“ bezeichnet werden. Die Bemühungen zur Reduzierung dieser KI-Halluzinationen wurden durch einen Beitrag auf ihrer Website angekündigt.

KI-Halluzinationen beziehen sich auf Fälle, in denen künstliche Intelligenzsysteme Ergebnisse erzeugen, die sachlich falsch, irreführend oder nicht durch reale Daten gestützt sind. Diese Halluzinationen können sich in verschiedenen Formen manifestieren, z. B. indem sie falsche Informationen generieren, nicht existierende Ereignisse oder Personen erfinden oder ungenaue Angaben zu bestimmten Themen machen.

OpenAI führte Untersuchungen durch, um die Wirksamkeit von zwei Arten von Feedback zu untersuchen – „Ergebnisüberwachung“ und „Prozessüberwachung“. Bei der Ergebnisüberwachung handelt es sich um Feedback auf der Grundlage des Endergebnisses, während bei der Prozessüberwachung Input für jeden Schritt in einer Gedankenkette bereitgestellt wird. OpenAI bewertete diese Modelle anhand mathematischer Probleme, generierte mehrere Lösungen und wählte die Lösung mit dem höchsten Rang entsprechend jedem Feedback-Modell aus.

Nach einer gründlichen Analyse stellte das Forschungsteam fest, dass die Prozessüberwachung eine überlegene Leistung erbrachte, da sie das Modell dazu ermutigte, sich an einen vom Menschen genehmigten Prozess zu halten. Im Gegensatz dazu erwies es sich als schwieriger, die Ergebnisüberwachung konsequent zu überprüfen.

OpenAI erkannte, dass die Auswirkungen der Prozessüberwachung über die Mathematik hinausgehen und weitere Untersuchungen erforderlich sind, um ihre Auswirkungen in verschiedenen Bereichen zu verstehen. Darin wurde die Möglichkeit zum Ausdruck gebracht, dass die Prozessüberwachung im Vergleich zur Ergebnisüberwachung eine günstige Kombination aus Leistung und Ausrichtung bieten könnte, wenn die beobachteten Ergebnisse in breiteren Kontexten zutreffen. Um die Forschung zu erleichtern, veröffentlichte das Unternehmen den vollständigen Datensatz der Prozessüberwachung öffentlich und lädt zu Erkundungen und Studien in diesem Bereich ein.

Related: Die KI-Nachfrage katapultiert Nvidia kurzzeitig in den 1-Tillionen-Dollar-Club

Obwohl OpenAI keine expliziten Beispiele lieferte, die zu einer Untersuchung von Halluzinationen führten, veranschaulichten zwei aktuelle Vorkommnisse das Problem in realen Szenarien.

In einem aktuellen Vorfall gab Anwalt Steven A. Schwartz im Fall Mata gegen Avianca Airlines zu, dass er sich auf den Chatbot als Rechercheressource verlassen habe. Es stellte sich jedoch heraus, dass die von ChatGPT bereitgestellten Informationen völlig erfunden waren, was das vorliegende Problem verdeutlichte.

ChatGPT von OpenAI ist nicht das einzige Beispiel dafür, dass künstliche Intelligenzsysteme auf Halluzinationen stoßen. Während einer Demonstration seiner Chatbot-Technologie im März untersuchte die KI von Microsoft Gewinnberichte und generierte ungenaue Zahlen für Unternehmen wie Gap und Lululemon.

Magazine: 25 Händler wetten auf die Aktientipps von ChatGPT, KI ist beim Würfeln scheiße und mehr

Quelle: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information