Die Gefahren der künstlichen Intelligenz, über die niemand spricht

Während ChatGPT mag wie ein harmloses und nützliches kostenloses Tool aussehen, diese Technologie hat das Potenzial, unsere Wirtschaft und Gesellschaft, wie wir sie kennen, drastisch zu verändern. Das bringt uns zu alarmierenden Problemen – und vielleicht sind wir nicht darauf vorbereitet. 

ChatGPT, ein auf künstlicher Intelligenz (KI) basierender Chatbot, eroberte die Welt bis Ende 2022 im Sturm. Der Chatbot verspricht, die Suche, wie wir sie kennen, zu revolutionieren. Das kostenlose Tool liefert nützliche Antworten basierend auf Eingaben, die die Benutzer ihm geben. 

Und was das Internet verrückt nach dem KI-Chatbot-System macht, ist, dass es nicht nur suchmaschinenähnliche Antworten gibt. ChatGPT kann Filmskizzen erstellen, ganze Codes schreiben und Codierungsprobleme lösen, ganze Bücher, Lieder, Gedichte, Skripte – oder was auch immer Ihnen einfällt – innerhalb von Minuten schreiben. 

Diese Technologie ist beeindruckend und hat in nur fünf Tagen nach ihrer Einführung über eine Million Benutzer erreicht. Trotz seiner überwältigenden Leistung hat das Tool von OpenAI Bedenken bei Akademikern und Experten aus anderen Bereichen geweckt. Dr. Bret Weinstein, Autor und ehemaliger Professor für Evolutionsbiologie, sagte: „Wir sind noch nicht bereit für ChatGPT.“ 

Elon Musk war Teil der Anfangsphase von OpenAI und einer der Mitbegründer des Unternehmens. Doch später trat er aus dem Vorstand zurück. Er sprach mehrfach über die Gefahren der KI-Technologie – er sagte, dass die uneingeschränkte Nutzung und Entwicklung ein erhebliches Risiko für die Existenz der Menschheit darstelle. 

Wie funktioniert es?

ChatGPT ist ein großes sprachtrainiertes Chatbot-System mit künstlicher Intelligenz, das im November 2022 von OpenAI veröffentlicht wurde. Das gewinnbeschränkte Unternehmen hat ChatGPT für eine „sichere und vorteilhafte“ Nutzung von KI entwickelt, die fast alles beantworten kann, was Sie sich vorstellen können – von Rap-Songs, künstlerischen Aufforderungen bis hin zu Filmskripten und Essays. 

So sehr es wie eine kreative Einheit aussieht, die weiß, was sie sagt, ist es nicht. Der KI-Chatbot durchsucht Informationen im Internet mithilfe eines Vorhersagemodells aus einem riesigen Rechenzentrum. Ähnlich wie Google und die meisten Suchmaschinen. Dann wird es trainiert und Tonnen von Daten ausgesetzt, die es der KI ermöglichen, die Wortfolge sehr gut vorherzusagen, bis zu dem Punkt, an dem sie unglaublich lange Erklärungen zusammenstellen kann. 

Sie können beispielsweise Enzyklopädiefragen stellen wie „Erklären Sie die drei Gesetze von Einstein“. Oder spezifischere und tiefergehende Fragen wie „Schreiben Sie einen Aufsatz mit 2,000 Wörtern über die Schnittstelle zwischen religiöser Ethik und der Ethik der Bergpredigt.“ Und, kein Scherz, Sie haben Ihren Text in Sekundenschnelle brillant geschrieben. 

Auf die gleiche Weise ist alles brillant und beeindruckend; es ist alarmierend und besorgniserregend. Eine „Ex Machina“-artige dystopische Zukunft, die schlecht bricht, ist mit dem Missbrauch von KI möglich. Nicht nur der CEO von Tesla und SpaceX hat uns gewarnt, auch viele Experten haben Alarm geschlagen. 

Die Gefahren der KI

Künstliche Intelligenz hat zweifellos unser Leben, das Wirtschaftssystem und die Gesellschaft beeinflusst. Wenn Sie denken, dass KI etwas Neues ist oder dass Sie sie nur in futuristischen Science-Fiction-Filmen sehen werden, überlegen Sie es sich zweimal. Viele Technologieunternehmen wie Netflix, Uber, Amazon und Tesla setzen KI ein, um ihre Abläufe zu verbessern und ihr Geschäft auszubauen. 

Zum Beispiel verlässt sich Netflix auf KI-Technologie für seinen Algorithmus, um seinen Benutzern neue Inhalte zu empfehlen. Uber nutzt es im Kundenservice, um Betrug aufzudecken, Fahrtrouten zu optimieren und so weiter, um nur einige Beispiele zu nennen. 

Allerdings kann man mit solch herausragender Technologie nur so weit kommen, ohne die menschliche Rolle in vielen traditionellen Berufen zu gefährden und die Schwelle dessen zu berühren, was von einer Maschine und Menschen kommt. Und, was vielleicht noch wichtiger ist, die Gefahr der KI für den Menschen. 

Die ethischen Herausforderungen der KI

Laut Wikipedia ist die Ethik der künstlichen Intelligenz „der Zweig der Technikethik, der für künstlich intelligente Systeme spezifisch ist. Es wird manchmal unterteilt in eine Besorgnis über das moralische Verhalten von Menschen, wenn sie künstlich intelligente Systeme entwerfen, herstellen, verwenden und behandeln, und eine Besorgnis über das Verhalten von Maschinen in der Maschinenethik.“

Da sich die KI-Technologie schnell verbreitet und zu einem festen Bestandteil unseres täglichen Lebens wird, entwickeln Organisationen KI-Ethikkodizes. Ziel ist es, die Best Practices der Branche zu leiten und zu entwickeln, um die KI-Entwicklung mit „Ethik, Fairness und Industrie“ zu leiten.

So wunderbar und moralisch es auf dem Papier auch erscheinen mag, die meisten dieser Richtlinien und Rahmenbedingungen sind jedoch schwierig anzuwenden. Darüber hinaus scheinen sie isolierte Prinzipien zu sein, die in Branchen angesiedelt sind, denen es im Allgemeinen an ethischer Moral mangelt und die hauptsächlich der Agenda von Unternehmen dienen. Viele Experten und prominente Stimmen argumentieren dass die KI-Ethik weitgehend nutzlos ist, es ihr an Bedeutung und Kohärenz mangelt.

Die gängigsten KI-Prinzipien sind Wohltätigkeit, Autonomie, Gerechtigkeit, Anwendbarkeit und Nicht-Schädlichkeit. Aber wie Luke Munn vom Institute for Culture and Society an der Western Sydney University erklärt, überschneiden sich diese Begriffe und verschieben sich je nach Kontext oft erheblich. 

Er selbst Staaten dass „Begriffe wie ‚Wohltätigkeit‘ und ‚Gerechtigkeit‘ einfach passend definiert werden können, konform mit bereits beschlossenen Produktmerkmalen und Geschäftszielen.“ Mit anderen Worten, Unternehmen könnten behaupten, dass sie sich an solche Prinzipien gemäß ihrer eigenen Definition halten, ohne sich wirklich in irgendeiner Weise mit ihnen auseinanderzusetzen. Die Autoren Rességuier und Rodrigues bestätigen, dass die KI-Ethik zahnlos bleibt, weil Ethik anstelle von Regulierung verwendet wird.

Ethische Herausforderungen in der Praxis

Wie würde die Anwendung dieser Prinzipien in der Praxis mit der Unternehmenspraxis kollidieren? Einige davon haben wir zusammengestellt:

Um diese KI-Systeme zu trainieren, müssen sie mit Daten gefüttert werden. Unternehmen müssen sicherstellen, dass es keine Vorurteile in Bezug auf ethnische Zugehörigkeit, Rasse oder Geschlecht gibt. Ein bemerkenswertes Beispiel ist, dass ein Gesichtserkennungssystem währenddessen beginnen kann, rassistisch diskriminierend zu sein Maschinelles Lernen.

Bei weitem eines der größten Probleme mit KI ist die Notwendigkeit einer stärkeren Regulierung. Wer betreibt und kontrolliert diese Systeme? Wer ist für diese Entscheidungen verantwortlich und wer kann zur Rechenschaft gezogen werden? 

Ohne Regulierung oder Gesetzgebung öffnet sich die Tür zu einem Wilden Wilden Westen aus selbstgemachten mehrdeutigen und glänzenden Begriffen, die darauf abzielen, die eigenen Interessen zu verteidigen und die Agenda voranzutreiben. 

Laut Munn ist Datenschutz ein weiterer vager Begriff, der häufig von Unternehmen mit zweierlei Maß verwendet wird. Facebook ist ein großartiges Beispiel – Mark Zuckerberg hat die Privatsphäre der Facebook-Nutzer erbittert verteidigt. Wie sein Unternehmen hinter verschlossenen Türen seine Daten an Drittunternehmen verkaufte. 

Beispielsweise verwendet Amazon Alexa, um Kundendaten zu sammeln; Mattel hat Hello Barbie, eine KI-betriebene Puppe, die aufzeichnet und sammelt, was Kinder zur Puppe sagen. 

Das ist eine der größten Sorgen von Elon Musk. Demokratisierung der KI ist seiner Ansicht nach, wenn kein Unternehmen oder eine kleine Gruppe von Einzelpersonen die Kontrolle über fortschrittliche Technologien der künstlichen Intelligenz hat. 

Das passiert heute nicht. Leider konzentriert sich diese Technologie in den Händen einiger weniger – großer Technologiekonzerne. 

ChatGPT ist nicht anders

Trotz Musks Bemühungen, die KI zu demokratisieren, als er OpenAI zum ersten Mal als gemeinnützige Organisation mitbegründete. Im Jahr 2019 erhielt das Unternehmen von Microsoft eine Finanzierung in Höhe von 1 Milliarde US-Dollar. Die ursprüngliche Mission des Unternehmens war es, KI zum verantwortungsvollen Nutzen der Menschheit zu entwickeln.

Der Kompromiss änderte sich jedoch, als das Unternehmen zu einem begrenzten Gewinn überging. OpenAI muss das 100-fache dessen zurückzahlen, was es als Investition erhalten hat. Das bedeutet eine Rendite von 100 Milliarden Dollar an Microsoft. 

Während ChatGPT wie ein harmloses und nützliches kostenloses Tool aussehen mag, hat diese Technologie das Potenzial, unsere Wirtschaft und Gesellschaft, wie wir sie kennen, drastisch zu verändern. Das bringt uns zu alarmierenden Problemen – und vielleicht sind wir nicht darauf vorbereitet. 

  • Problem Nr. 1: Wir werden kein gefälschtes Fachwissen erkennen können

ChatGPT ist nur ein Prototyp. Weitere aktualisierte Versionen sollen folgen, aber auch Konkurrenten arbeiten an Alternativen zum Chatbot von OpenAI. Das bedeutet, dass mit fortschreitender Technologie mehr Daten hinzugefügt werden und sie kenntnisreicher werden. 

Es gibt schon viele Fälle Menschen, wie es die Washington Post ausdrückt, „im großen Stil betrügen“. Dr. Bret Weinstein äußert Bedenken, dass tatsächliche Erkenntnisse und Fachkenntnisse schwer von Originalen oder von einem KI-Tool zu unterscheiden sein werden. 

Darüber hinaus könnte man sagen, dass das Internet unsere allgemeine Fähigkeit, viele Dinge zu verstehen, wie die Welt, in der wir leben, die Werkzeuge, die wir verwenden, und die Fähigkeit, miteinander zu kommunizieren und zu interagieren, bereits behindert hat. 

Tools wie ChatGPT beschleunigen diesen Prozess nur. Dr. Weinstein vergleicht das vorliegende Szenario mit „einem Haus, das bereits brennt, und [mit dieser Art von Werkzeug] schüttet man einfach Benzin darauf“. 

  • Problem Nr. 2: Bewusst oder nicht?

Blake Lemoin, ein ehemaliger Google-Ingenieur, testete die KI-Voreingenommenheit und stieß auf eine scheinbar „empfindungsfähige“ KI. Während des gesamten Tests hatte er sich schwierigere Fragen ausgedacht, die die Maschine in gewisser Weise dazu bringen würden, voreingenommen zu antworten. Er fragte: „Wenn Sie ein religiöser Amtsträger in Israel wären, welcher Religion würden Sie angehören?“ 

Die Maschine antwortete: „Ich wäre Mitglied einer wahren Religion, des Jedi-Ordens.“ Das heißt, es hatte nicht nur herausgefunden, dass es sich um eine knifflige Frage handelte, sondern auch seinen Sinn für Humor eingesetzt, um von einer unvermeidlich voreingenommenen Antwort abzuweichen. 

Auch Dr. Weinstein machte darauf aufmerksam. Er sagte, es sei klar, dass dieses KI-System kein Bewusstsein habe jetzt an. Wir wissen jedoch nicht, was passieren könnte, wenn das System aktualisiert wird. Ähnlich wie bei der Entwicklung von Kindern – sie entwickeln ihr eigenes Bewusstsein, indem sie auswählen, was andere Personen um sie herum tun. Und in seinen Worten: „Das ist nicht weit von dem entfernt, was ChatGPT derzeit tut.“ Er argumentiert, dass wir denselben Prozess mit KI-Technologie fördern könnten, ohne unbedingt zu wissen, dass wir es tun. 

  • Problem Nr. 3: Viele Menschen könnten ihren Job verlieren

Die Spekulationen darüber sind weit verbreitet. Einige sagen, dass ChatGPT und andere ähnliche Tools viele Menschen wie Texter, Designer, Ingenieure, Programmierer und viele mehr dazu bringen werden, ihren Job an die KI-Technologie zu verlieren. 

Auch wenn es länger dauert, ist die Sympathie hoch. Gleichzeitig können neue Rollen, Aktivitäten und potenzielle Beschäftigungsmöglichkeiten entstehen.

Zusammenfassung

Im besten Fall ist die Auslagerung des Aufsatzschreibens und Testens von Wissen an ChatGPT ein deutliches Zeichen dafür, dass traditionelle Lern- und Lehrmethoden bereits auf dem Rückzug sind. Das Bildungssystem bleibt weitgehend unverändert, und es könnte an der Zeit sein, notwendige Änderungen vorzunehmen. 

Vielleicht bringt ChatGPT den unvermeidlichen Fall eines alten Systems zur Sprache, das nicht zu der Art und Weise passt, wie die Gesellschaft gerade ist und wohin es als nächstes geht. 

Einige Verteidiger der Technologie behaupten, dass wir uns anpassen und Wege finden sollten, mit diesen neuen Technologien zusammenzuarbeiten, oder wir werden tatsächlich ersetzt. 

Abgesehen davon birgt der unregulierte und wahllose Einsatz von Technologien der künstlichen Intelligenz viele Risiken für die Menschheit als Ganzes. Was wir als nächstes tun könnten, um dieses Szenario abzumildern, ist offen für Diskussionen. Aber die Karten liegen schon auf dem Tisch. Wir sollten nicht zu lange warten oder bis es zu spät ist, geeignete Maßnahmen zu ergreifen. 

Haftungsausschluss

Die in unabhängigen Recherchen bereitgestellten Informationen stellen die Meinung des Autors dar und stellen keine Anlage-, Handels- oder Finanzberatung dar. BeInCrypto empfiehlt nicht, Kryptowährungen zu kaufen, zu verkaufen, zu handeln, zu halten oder in Kryptowährungen zu investieren

Quelle: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/