Dutzende Experten für künstliche Intelligenz (KI), darunter die CEOs von OpenAI, Google DeepMind und Anthropic, haben kürzlich eine offene Erklärung unterzeichnet, die vom Center for AI Safety (CAIS) veröffentlicht wurde.
Wir haben gerade eine Erklärung veröffentlicht:
„Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.“
Zu den Unterzeichnern gehören Hinton, Bengio, Altman, Hassabis, Song usw.https://t.co/N9f6hs4bpa
(1 / 6)
– Dan Hendrycks (@DanHendrycks) 30. Mai 2023
Die Aussage enthält einen einzigen Satz:
„Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.“
Zu den Unterzeichnern des Dokuments gehört ein wahres „Who-is-Who“ von KI-Koryphäen, darunter der „Godfather“ der KI, Geoffrey Hinton; Stuart Russell von der University of California, Berkeley; und Lex Fridman vom Massachusetts Institute of Technology. Der Musiker Grimes ist ebenfalls einer der Unterzeichner und wird in der Kategorie „Andere bemerkenswerte Persönlichkeiten“ aufgeführt.
Related: Musiker Grimes ist bereit, 50 % der Tantiemen mit KI-generierter Musik zu teilen
Während die Aussage auf den ersten Blick harmlos erscheinen mag, ist die zugrunde liegende Botschaft in der KI-Community etwas kontrovers.
Eine scheinbar wachsende Zahl von Experten glaubt, dass aktuelle Technologien unweigerlich zur Entstehung oder Entwicklung eines KI-Systems führen können oder werden, das eine existenzielle Bedrohung für die menschliche Spezies darstellen kann.
Ihre Ansichten werden jedoch von einer Gruppe von Experten mit diametral entgegengesetzten Meinungen konterkariert. Meta-Chef-KI-Wissenschaftler Yann LeCun hat beispielsweise mehrfach darauf hingewiesen, dass er nicht unbedingt glaubt, dass KI unkontrollierbar werden wird.
Übermenschliche KI steht bei weitem nicht ganz oben auf der Liste der existenziellen Risiken.
Zum großen Teil, weil es noch nicht existiert.Solange wir kein grundlegendes Design für KI auf Hundeebene haben (geschweige denn auf menschlicher Ebene), ist es verfrüht, darüber zu diskutieren, wie man sie sicher machen kann. https://t.co/ClkZxfofV9
- Yann LeCun (@ylecun) 30. Mai 2023
Für ihn und andere, die mit der „Aussterben“-Rhetorik nicht einverstanden sind, wie Andrew Ng, Mitbegründer von Google Brain und ehemaliger Chefwissenschaftler bei Baidu, ist KI nicht das Problem, sondern die Antwort.
Auf der anderen Seite des Arguments glauben Experten wie Hinton und Connor Leahy, CEO von Conjecture, dass KI auf menschlicher Ebene unvermeidlich ist und es daher jetzt an der Zeit ist zu handeln.
Leiter aller großen KI-Labore haben diesen Brief unterzeichnet, in dem sie ausdrücklich die Gefahr des Aussterbens durch AGI anerkennen.
Ein unglaublicher Schritt nach vorn. Herzlichen Glückwunsch an Dan für seine unglaubliche Arbeit bei der Zusammenstellung und vielen Dank an alle Unterzeichner, die ihren Teil für eine bessere Zukunft beitragen! https://t.co/KDkqWvdJcH
– Connor Leahy (@NPCollapse) 30. Mai 2023
Es ist jedoch unklar, welche Maßnahmen die Unterzeichner der Erklärung fordern. Zu den Unterzeichnern gehören die CEOs und/oder Leiter der KI-Abteilung fast aller großen KI-Unternehmen sowie renommierte Wissenschaftler aus dem gesamten akademischen Bereich, was deutlich macht, dass die Absicht nicht darin besteht, die Entwicklung dieser potenziell gefährlichen Systeme zu stoppen.
Anfang dieses Monats trat OpenAI-CEO Sam Altman, einer der Unterzeichner der oben genannten Erklärung, zum ersten Mal vor dem Kongress während einer Anhörung im Senat auf, um über die KI-Regulierung zu diskutieren. Seine Aussage machte Schlagzeilen, nachdem er die meiste Zeit damit verbrachte, den Gesetzgeber zu drängen, seine Branche zu regulieren.
Altmans Worldcoin, ein Projekt, das Kryptowährung und Persönlichkeitsnachweis kombiniert, hat kürzlich auch die Medienrunden gemacht, nachdem es 115 Millionen US-Dollar in der Serie-C-Finanzierung eingeworben hatte, wodurch sich die Gesamtfinanzierung nach drei Runden auf 240 Millionen US-Dollar erhöhte.
Quelle: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war