KI-Experten unterzeichnen Dokument, in dem das Risiko des „Aussterbens durch KI“ mit Pandemien und Atomkrieg verglichen wird

Dutzende Experten für künstliche Intelligenz (KI), darunter die CEOs von OpenAI, Google DeepMind und Anthropic, haben kürzlich eine offene Erklärung unterzeichnet, die vom Center for AI Safety (CAIS) veröffentlicht wurde. 

Die Aussage enthält einen einzigen Satz:

„Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.“

Zu den Unterzeichnern des Dokuments gehört ein wahres „Who-is-Who“ von KI-Koryphäen, darunter der „Godfather“ der KI, Geoffrey Hinton; Stuart Russell von der University of California, Berkeley; und Lex Fridman vom Massachusetts Institute of Technology. Der Musiker Grimes ist ebenfalls einer der Unterzeichner und wird in der Kategorie „Andere bemerkenswerte Persönlichkeiten“ aufgeführt.

Related: Musiker Grimes ist bereit, 50 % der Tantiemen mit KI-generierter Musik zu teilen

Während die Aussage auf den ersten Blick harmlos erscheinen mag, ist die zugrunde liegende Botschaft in der KI-Community etwas kontrovers.

Eine scheinbar wachsende Zahl von Experten glaubt, dass aktuelle Technologien unweigerlich zur Entstehung oder Entwicklung eines KI-Systems führen können oder werden, das eine existenzielle Bedrohung für die menschliche Spezies darstellen kann.

Ihre Ansichten werden jedoch von einer Gruppe von Experten mit diametral entgegengesetzten Meinungen konterkariert. Meta-Chef-KI-Wissenschaftler Yann LeCun hat beispielsweise mehrfach darauf hingewiesen, dass er nicht unbedingt glaubt, dass KI unkontrollierbar werden wird.

Für ihn und andere, die mit der „Aussterben“-Rhetorik nicht einverstanden sind, wie Andrew Ng, Mitbegründer von Google Brain und ehemaliger Chefwissenschaftler bei Baidu, ist KI nicht das Problem, sondern die Antwort.

Auf der anderen Seite des Arguments glauben Experten wie Hinton und Connor Leahy, CEO von Conjecture, dass KI auf menschlicher Ebene unvermeidlich ist und es daher jetzt an der Zeit ist zu handeln.

Es ist jedoch unklar, welche Maßnahmen die Unterzeichner der Erklärung fordern. Zu den Unterzeichnern gehören die CEOs und/oder Leiter der KI-Abteilung fast aller großen KI-Unternehmen sowie renommierte Wissenschaftler aus dem gesamten akademischen Bereich, was deutlich macht, dass die Absicht nicht darin besteht, die Entwicklung dieser potenziell gefährlichen Systeme zu stoppen.

Anfang dieses Monats trat OpenAI-CEO Sam Altman, einer der Unterzeichner der oben genannten Erklärung, zum ersten Mal vor dem Kongress während einer Anhörung im Senat auf, um über die KI-Regulierung zu diskutieren. Seine Aussage machte Schlagzeilen, nachdem er die meiste Zeit damit verbrachte, den Gesetzgeber zu drängen, seine Branche zu regulieren.

Altmans Worldcoin, ein Projekt, das Kryptowährung und Persönlichkeitsnachweis kombiniert, hat kürzlich auch die Medienrunden gemacht, nachdem es 115 Millionen US-Dollar in der Serie-C-Finanzierung eingeworben hatte, wodurch sich die Gesamtfinanzierung nach drei Runden auf 240 Millionen US-Dollar erhöhte.

Quelle: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war