Der Cry-Wolf-Moment des KI-Hypes ist nicht hilfreich

Obwohl ich jemand bin, der sich mit Szenarios zum Ende der Menschheit beschäftigt, glaube ich, dass sowohl der „Expertenbrief“, der ein sechsmonatiges KI-Moratorium vorschlägt, als auch die neuere Aussage, dass das KI-Risiko auf dem Niveau einer Pandemie und eines nuklearen Risikos liegt, überbewertet sind. Die noch wildere Meinung, wir müssten die KI abschalten, ist unverantwortlich. Jede Sorge muss im Verhältnis zu den Risiken stehen, denen wir ausgesetzt sind. Im Moment besteht für uns keine unmittelbare Gefahr durch KI.

Aktuelle KIs sind nicht in der Lage, die Gesellschaft zu übernehmen. Sie haben keine Gefühle und verdienen keinen Schutz wie Menschenleben. Sie sind nicht superintelligent und übertreffen den Menschen in keiner Weise. Tatsächlich denken sie überhaupt nicht. Derzeit sind KIs, wenn sie mit reichlich Daten versorgt werden, bei bestimmten Aufgaben wie Berechnungen und Vorhersagen sehr gut. Das ist nicht besorgniserregend, das sind Merkmale, die diese Systeme von Natur aus haben. Zu den Versprechen von KI gehören die Lösung von Krebserkrankungen, die Umgestaltung der Industrieproduktion, die Modellierung von Zukunftsszenarien und die Bewältigung von Umweltherausforderungen. Dennoch gibt es legitime Gründe, aktuelle KI wegen Ressourcenverbrauch, Transparenz, Voreingenommenheit, Cybersicherheit und ihrer künftigen Auswirkungen auf die Beschäftigung zu kritisieren.

KIs sind rechenintensiv – was bedeutet, dass sie eine große Verschwendung knapper fossiler Energie darstellen. Dies muss sofort behoben werden. Dabei handelt es sich jedoch nicht um eine existenzielle Frage, sondern um eine Frage der rationellen Ressourcennutzung. Die Tatsache, dass KIs, die auf großen und ineffizienten Datenmodellen basieren, zu teuer werden, um von der Wissenschaft oder der Regierung verfolgt und untersucht zu werden, ist ein echtes Problem. Aber es ist unmittelbar reparabel. Konsortien aus akademischen Spitzeneinrichtungen oder Regierungen könnten sich zusammenschließen und Computerressourcen gemeinsam nutzen, so wie sie es beim Supercomputing getan haben.

Large Language Models (LLM) sind KI-Modelle, die aus großen Datenmengen natürlichsprachige Texte generieren können. Ein Problem dabei ist, dass diese Texte direkt aus den ehrlichen intellektuellen Beiträgen anderer Menschen abgeleitet sind. Sie sind tatsächlich gestohlen. Insbesondere die generative KI kombiniert sowohl Verbraucher- und Unternehmensdaten als auch kreative Inhalte unter eklatanter Verletzung des Urheberrechts. Das ist schwerwiegend, aber nicht existenziell, und außerdem sind die EU, Lobbyisten aus Hollywood und die „Big Five“-Buchverlage bereits mit dem Fall beschäftigt. Erwarten Sie, dass dies die Leistung der KI verlangsamt. Beim derzeitigen Tempo werden KIs lange bevor sie die Empfindungsfähigkeit erreichen, die guten Trainingsdaten ausgehen.

Algorithmen, die bereits zur Berechnung unserer Steuern, zur Auswahl unserer Online-Feeds oder zur Inhaftierung von Menschen eingesetzt werden, weisen einen auffälligen Mangel an Transparenz auf. Dies ist jedoch schon seit Jahren der Fall und hat nichts mit den neuesten KI-Entwicklungen zu tun. KI-Voreingenommenheit ist eine Funktion und kein Fehler. Stereotypisierung ist tatsächlich der Hauptansatz, durch den solche Modelle funktionieren. Nur dass die Vorurteile in undurchdringlichen Schichten maschinellen Denkens verborgen sind, die für Menschen, ob Experten oder nicht, schwer zu fassen sind. Was wir in Frage stellen sollten, ist die Weisheit der Entwickler, die solche Systeme entwickelt haben, und nicht die Leistungsfähigkeit des Systems, das sie geschaffen haben, was eine Selbstverständlichkeit ist. Systeme werden selten besser sein als die Weisheit oder Absichten derjenigen, die sie bauen oder betreiben.

KI-Trainingsdaten spiegeln die Vorurteile in der Gesellschaft wider, aus der diese Daten erhoben wurden. Die Wiederverwendung fehlerhafter Trainingsdaten ist eine besorgniserregende Praxis, die bereits KI-Modelle verunreinigt. Aktuelle KI-Ansätze verstärken lediglich die Voreingenommenheit, um schnell zu einem Ergebnis zu gelangen. Das ist zugegebenermaßen das Gegenteil von dem, was wir wollen. Wir wollen Technologie nutzen, um menschliches Versagen zu verhindern. Sich über Maschinenfehler Gedanken zu machen, ist ein verschwenderischer Einsatz menschlicher Intelligenz.

Trotz der Metapher „neuronales Netzwerk“ ähneln aktuelle KIs in keiner Weise einem Gehirn. Aktuelle KI-Systeme können nicht wie Menschen durch Analogien schlussfolgern. Das ist gut. Wir wollen möglicherweise nicht wirklich die Art von KI-Ausrichtung, für die sich Fanatiker einsetzen und die sie nachzuahmen versuchen. Maschinen sollten sich von Menschen unterscheiden. So können wir die Stärken des anderen optimal nutzen. Und wie wir Maschinen voneinander unterscheiden können. Maschinen sollten keine Interessen zum Ausrichten haben.

KI stellt als Aktivposten für Kriminelle und feindliche Staaten zunehmend eine erhebliche Bedrohung für die Cybersicherheit dar. Aber Cybersicherheit ist eine ausgereifte Branche mit zahlreichen Experten, die gut für die Bewältigung dieser Herausforderung gerüstet sind. Es gibt keinen Grund, KI aufgrund von Cybersicherheitsbedenken abzuschalten.

Beschäftigungsunterbrechungen aufgrund von KI sind seit Jahren ein politisches Thema, zuerst bei Robotern, jetzt bei softwarebasierten KI-Systemen. Das bedeutet, dass die Regierungen bereit sein werden, damit umzugehen. Die MIT-Studie Work of The Future kam zu dem Schluss, dass die Besorgnis über die Arbeitslosigkeit aufgrund von Robotern überbewertet sei. Der Mensch hat schon immer Wege gefunden, zu arbeiten und wird dies auch in Zukunft tun. Wird die Fertigung durch KI verändert? Es passiert bereits, aber auf ziemlich kontrollierte Weise.

Von Zeit zu Zeit leidet die KI unter überzogenen Versprechungen über die aktuelle Funktionalität oder den zukünftigen Umfang. Die ersten KI-Winter begannen zwischen 1974 und 1980, als die US-Regierung ihre Fördermittel einstellte. Der zweite Fall fand zwischen 1987 und 1993 statt, als die Kosten explodierten und die KI ihre hohen Versprechen nicht einhielt.

In Erwartung neuer Paradigmen werden wir im Zeitraum 2025–2030 wahrscheinlich in einen dritten KI-Winter eintreten. Zumindest im Vergleich zum versprochenen heißen KI-Sommer. Der Grund dafür ist, dass große Sprachmodelle trotz des Hypes aus allen oben genannten Gründen bald ihren maximalen Nutzen erreichen und irgendwann durch rechnerisch elegantere und transparentere Ansätze ersetzt werden müssen.

Ein solcher Kandidat ist das hyperdimensionale Rechnen, das Maschinen effizienter machen würde, weil sie Maschinen semantisches Verständnis und die Fähigkeit verleihen, Bedeutung und Kontext hinter Informationen aus der realen Welt zu verarbeiten. Derzeit verstehen KI-Systeme die Beziehungen zwischen Wörtern und Phrasen nicht, sie sind einfach gut darin, zu raten. Das ist unzureichend. Wir werden irgendwann eine verkörperte KI brauchen, weil das Denken an die Wahrnehmung des Raums gebunden ist. Das ist auf jeden Fall in der Fertigung der Fall, bei der es sich um ein äußerst physisches Spiel handelt. Wir brauchen auch eine KI, die in der Lage ist, Funktionen des menschlichen Gedächtnisses zu nutzen, wie etwa die Priorisierung basierend auf der Vordergrundstellung einiger Informationen und der Hintergrunddarstellung anderer Informationen. Vergessen ist ein Werkzeug, das Menschen zum abstrakten Denken, zur Abkehr von veralteten Organisationspraktiken, zum Treffen von Entscheidungen und zum Bleiben im Moment nutzen, und ist nicht einfach ein Fehler. Das können noch keine Maschinen so gut.

In der Zwischenzeit müssen wir regulieren, aber nicht in dieser Sekunde. Und wenn wir regulieren, machen wir es besser gut. Eine schlechte Regulierung der KI dürfte die Situation verschlimmern. Es kann hilfreich sein, die Regulierungsbehörden für diese Herausforderung zu sensibilisieren, aber ich bin mir nicht sicher, ob die aktuelle Generation von Regulierungsbehörden für solche umfassenden Veränderungen bereit ist, die nötig wären, um diese Herausforderung erfolgreich zu meistern. Dies würde bedeuten, dass mächtige Unternehmen (möglicherweise alle börsennotierten Unternehmen) eingeschränkt werden, der Einsatz von KI in der Governance eingeschränkt wird und enorme Veränderungen in der Art und Weise, wie Verbrauchermärkte derzeit funktionieren, bedeuten würden. Im Wesentlichen müssten wir die Gesellschaft neu vernetzen. Es würde uns ein paar Jahrzehnte früher in die Wachstumsphase einleiten, als wir es uns wünschen würden. Die Transparenzherausforderung im Zusammenhang mit KI könnte gewaltiger sein als die Kontrollvariablen, über die sich jeder so große Sorgen zu machen scheint, natürlich nicht, dass sie nichts miteinander zu tun hätten.

Darüber hinaus können wir uns nicht jedes Mal gleichermaßen Sorgen machen, wenn ein KI-Benchmark erreicht wird. Wir müssen unsere Energien für wirklich große Momente kaskadierender Risiken aufsparen. Sie werden kommen und fairerweise muss man sagen, dass wir nicht darauf vorbereitet sind. Zu meinen Zukunftsszenarien (siehe Aussterbe-Szenarien für 2075) gehören massive Datenschutzverletzungen, die dazu führen, dass ganze Länder monatelang von ihren eigenen Prozessen ausgeschlossen bleiben. Ich mache mir auch Sorgen um KIs, die von kriminellen Gruppen oder staatlichen Akteuren unterstützt werden. Am meisten mache ich mir Sorgen über Kombinationen aus KI, Nanotechnologie, synthetischer Biologie und Quantentechnologie – nahezu unsichtbare quasi-organische Intelligenz mit unbekannten Fähigkeiten, vielleicht nur ein paar Jahrzehnte entfernt, genau dann, wenn die Welt von den Kaskadeneffekten des Klimas verschlungen wird ändern.

Aktuelle KI-Modelle funktionieren noch nicht gut genug, um eine Bedrohung für die Menschheit darzustellen. Bevor wir darüber nachdenken können, sie abzuschalten, brauchen wir bessere KIs. Darüber hinaus brauchen wir klügere Entwickler, sensibilisiertere Bürger und besser informierte politische Entscheidungsträger. Wir brauchen auch ein Konzept, wie wir KI regulieren können. Dies ist jedoch möglich, ohne dass es zu einer Verlangsamung kommt. Es wird eine Bildungsreise für alle sein. Der Moratoriumsbrief zu GPT 4 (2023) ist ein Schrei-Wolf-Moment, der nur eine schwache Ähnlichkeit mit den kaskadierenden Risiken hat, denen die Menschheit in den kommenden Jahrzehnten ausgesetzt sein wird. Das KI-Risiko auf das Niveau des Pandemierisikos und des nuklearen Risikos im Jahr 2023 zu setzen, ist verfrüht. Werden wir dort ankommen? Womöglich. Aber der schreiende Wolf hat Konsequenzen. Es saugt den kommenden Debatten über echte Ängste den Sauerstoff aus.

Quelle: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/