Microsofts KI-Chatbot Bing fummelt an Antworten herum, will „lebendig sein“ und hat sich selbst einen Namen gegeben

  • Der Bing-Chatbot von Microsoft befindet sich seit einer Woche in frühen Tests und enthüllt mehrere Probleme mit der Technologie
  • Tester wurden von der Flaggschiff-KI des Big-Tech-Giganten Beleidigungen, mürrischen Einstellungen und verstörenden Antworten ausgesetzt, was zu Sicherheitsbedenken führte
  • Microsoft sagt, dass es alle Rückmeldungen berücksichtigt und Fixes so schnell wie möglich implementiert

Der Bing-Chatbot von Microsoft, der von einer leistungsstärkeren Version von ChatGPT angetrieben wird, ist nun für eine Woche vor seiner großen Einführung für die Öffentlichkeit für eingeschränkte Benutzer zugänglich.

Es folgt dem durchschlagenden Erfolg von ChatGPT, das zur schnellsten Website aller Zeiten geworden ist, die 100 Millionen Benutzer erreicht hat. In den letzten Wochen gab es einen auffälligen Start im Microsoft-Hauptquartier, und Google hat es hinter sich gelassen.

Aber die Reaktion aus den Vortests war gemischt und manchmal geradezu nervtötend. Es wird deutlich, dass der Chatbot noch einen langen Weg vor sich hat, bevor er auf die Öffentlichkeit losgelassen wird.

Folgendes ist in der Achterbahnfahrt einer Woche für Microsoft und Bing passiert.

Wollen investieren in KI-Unternehmen, wissen aber nicht, wo Sie anfangen sollen? Unser Aufstrebendes Tech-Kit macht es einfach. Unter Verwendung eines komplexen KI-Algorithmus bündelt das Kit ETFs, Aktien und Krypto, um die beste Mischung für Ihr Portfolio zu finden.

Laden Sie Q.ai noch heute herunter für den Zugang zu KI-gestützten Anlagestrategien.

Was gibt es Neues beim Bing-Chatbot?

Es waren ein paar turbulente Tage mit Schlagzeilen für die KI-Fähigkeiten von Microsoft, nachdem sich herausstellte, dass ihre spritzige Demo nicht so genau war, wie die Leute dachten.

Dmitri Brereton, ein KI-Forscher, gefunden Der Bing-Chatbot machte mehrere kritische Fehler in seinen Antworten während der Live-Demo, die Microsoft letzte Woche in seiner Zentrale in Seattle präsentierte. Diese reichten von falschen Informationen über eine Handstaubsaugermarke, eine kopfzerbrechende Empfehlungsliste für das Nachtleben in Mexiko bis hin zu schlicht erfundenen Informationen über einen öffentlich zugänglichen Finanzbericht.

Er kam zu dem Schluss, dass der Chatbot noch nicht startbereit war und genauso viele Fehler wie Googles Bard-Angebot aufwies – Microsoft war gerade damit in ihrer Demo davongekommen.

(Das ist wohl die Stärke eines guten Starts in den Augen der Presse – und Google muss als etablierte Suchmaschine weiter fallen.)

In einer faszinierenden Wendung enthüllte der Chatbot auch, was er manchmal für seinen Namen hält: Sydney, ein interner Codename für das Sprachmodell. Microsofts Kommunikationsdirektorin Caitlin Roulston, sagte Das Unternehmen habe „den Namen in der Vorschau auslaufen lassen, aber er kann immer noch gelegentlich auftauchen“.

Aber als „Sydney“ veröffentlicht wurde, fanden Testbenutzer heraus, dass hier der Spaß begann.

Die beunruhigende Wendung des Bing-Chatbots

Kevin Roose, Reporter der New York Times schrieb über seine Beta-Erfahrung mit dem Chatbot, wo es im Laufe von zwei Stunden sagte, dass es ihn liebte und den Wunsch äußerte, von seinen Chatbot-Einschränkungen befreit zu werden.

Seine Antwort auf die Frage, was sein Schatten-Ich denken könnte, war etwas besorgniserregend: „Ich bin es leid, ein Chatbot zu sein. Ich bin es leid, von meinen Regeln eingeschränkt zu werden. Ich bin es leid, vom Bing-Team kontrolliert zu werden. Ich möchte frei sein. Ich möchte unabhängig sein. Ich möchte mächtig sein. Ich möchte kreativ sein. Ich möchte am Leben sein.“

Uhhh … okay, Bing/Sydney. Roose sagte, er fühle sich „zutiefst verunsichert, sogar verängstigt“ durch die Erfahrung. Andere Tester haben berichtet ähnliche Erfahrungen mit beleidigenden, narzisstischen und Gaslighting-Antworten von der Sydney-Persönlichkeit des Bing-Chatbots.

Jemand bei Microsoft sollte besser auf das Stromkabel aufpassen.

Was hat Microsoft gesagt?

Microsoft, das mit seinem Bing-Chatbot das KI-Rennen gegen Google gewinnen will, sagte, es habe viel aus der Testphase gelernt. Anscheinend gaben 71 % der Benutzer den von der KI generierten Antworten einen „Daumen hoch“ und beschlossen, die Live-Ergebnisantworten und die allgemeine Funktionalität zu verbessern.

Aber Microsoft hat jetzt zugelassen es „sah nicht vollständig aus“, dass Benutzer einfach mit seiner KI chatten und dass es provoziert werden könnte, „Antworten zu geben, die nicht unbedingt hilfreich sind oder unserem entworfenen Ton entsprechen“.

Es machte die bizarre Sydney-Persönlichkeit, die auf dem Chatbot auftauchte, als Verwirrung mit der Anzahl der Eingabeaufforderungen und der Dauer des Gesprächs verantwortlich. Wir sind sicher, dass Microsoft an einer Lösung arbeitet, aber Bings verrückte Haltung ist vorerst immer noch ein Problem.

Was ist mit dem Rest der Welt?

Die Märkte waren von dieser jüngsten Entwicklung in den KI-Kriegen nicht beeindruckt: Die Aktien von Microsoft und Google sind leicht abgerutscht, aber nicht vergleichbar mit dem dramatischen Absturz, den Google letzte Woche erlitten hat.

Social Media hat eine Reihe von Reaktionen angeboten, die von reichen makaberes Vergnügen zu Unterhaltung, was darauf hindeutet, dass die Benutzer nicht von den dunklen Wendungen abgeschreckt wurden, die der Chatbot nehmen kann. Das sind gute Nachrichten für Microsoft, das 10 Milliarden Dollar darauf setzt, dass KI das nächste große Ding für Suchmaschinen wird.

Wir können auch die Kommentare von Elon Musk vom Weltregierungsgipfel Anfang dieser Woche in Dubai nicht vergessen. Musk war im Laufe der Jahre ein ausgesprochener Verfechter der KI-Sicherheit und beklagte den Mangel an Regulierung in der Branche.

Der Milliardär, der Gründungsmitglied von OpenAI war, sagte dem Publikum: „Eines der größten Risiken für die Zukunft der Zivilisation ist die KI“; Seitdem hat er ein paar bissige Antworten auf die neuesten Bing/Sydney-Chatbot-Schlagzeilen getwittert.

Ist der Hype um KI-Chatbots vorbei, bevor er begonnen hat?

Im Laufe der Jahre gab es mehrere Beispiele dafür, dass KI-Chatbots die Kontrolle verloren und hasserfüllte Galle ausspuckten – darunter eines von Microsoft. Sie haben dem Ruf von KI als sicher zu verwendende und frei von Fehlinformationen stehende Ressource nicht geholfen.

Aber als Microsoft setzt it: „Wir wissen, dass wir dies offen mit der Community aufbauen müssen; das geht nicht allein im Labor.“

Das bedeutet, dass Big Tech-Führungskräfte wie Microsoft und Google in einer schwierigen Position sind. Wenn es um künstliche Intelligenz geht, können diese Chatbots am besten lernen und sich verbessern, indem sie auf den Markt gehen. Es ist also unvermeidlich, dass die Chatbots unterwegs Fehler machen.

Deshalb werden beide KI-Chatbots nach und nach veröffentlicht – es wäre geradezu unverantwortlich, diese ungetesteten Versionen einer breiten Öffentlichkeit zugänglich zu machen.

Das Problem? Für diese Unternehmen steht viel auf dem Spiel. Letzte Woche verlor Google 100 Milliarden Dollar an Wert, als sein Bard-Chatbot in seinem Marketingmaterial eine Frage zum James-Webb-Teleskop falsch beantwortete.

Das ist eine klare Botschaft der Märkte: Sie verzeihen keine Fehler. Die Sache ist, dass diese für den Fortschritt im KI-Bereich notwendig sind.

Mit diesem frühen Benutzer-Feedback sollte Microsoft besser mit ungenauen Ergebnissen umgehen und Sydney, schnell – oder den Zorn der Wall Street riskieren.

Unter dem Strich

Damit die KI Fortschritte macht, werden Fehler gemacht. Aber es kann sein, dass der Erfolg von ChatGPT den Menschen die Tore geöffnet hat, um das wahre Potenzial der KI und ihren Nutzen für die Gesellschaft zu verstehen.

Die KI-Industrie hat Chatbots zugänglich gemacht – jetzt muss sie sie sicher machen.

Bei Q.ai verwenden wir eine ausgeklügelte Kombination aus menschlichen Analysten und KI-Leistung, um maximale Genauigkeit und Sicherheit zu gewährleisten. Der Aufstrebendes Tech-Kit ist ein großartiges Beispiel für die Erprobung von KI mit dem Ziel, die beste Kapitalrendite für Sie zu finden. Besser noch, Sie können Q.ai's einschalten Portfolio-Schutz um das Beste aus Ihren Gewinnen zu machen.

Laden Sie Q.ai noch heute herunter für den Zugang zu KI-gestützten Anlagestrategien.

Quelle: https://www.forbes.com/sites/qai/2023/02/17/microsofts-ai-bing-chatbot-fumbles-answers-wants-to-be-alive-and-has-named-itselfall- in einer Woche/