Senatoren befragen Meta-CEO Zuckerberg zum „Leck“ des LLaMA-KI-Modells

Zwei Senatoren befragen Zuckerberg zum Leak des LLaMA-KI-Modells und werfen Meta vor, die Sicherheitsmaßnahmen nicht zu befolgen. Meta wurde zu seinen Sicherheitsrichtlinien und Präventivmaßnahmen befragt.

Meta soll für das „Leck“ verantwortlich sein

Kürzlich wurde Metas bahnbrechendes großes Sprachmodell LLaMA durchgesickert und es wurden Bedenken geäußert. Sens. Richard Blumenthal (D-CT), Vorsitzender des Unterausschusses für Datenschutz, Technologie und Recht des Senats, und Josh Hawley (R-MO), hochrangiges Mitglied, schrieben einen Brief, der Fragen zum Leak des KI-Modells aufwarf. 

Die Senatoren befürchten, dass dieses Leck zu verschiedenen Cyberkriminalität wie Spam, Betrug, Malware, Datenschutzverletzungen, Belästigung und anderem Fehlverhalten und Schaden führen könnte. Viele Fragen werden aufgeworfen und zwei Politiker zeigen großes Interesse am Sicherheitssystem von Meta. Sie fragten, welches Verfahren zur Risikobewertung vor der Einführung von LLaMA befolgt wurde. Sie sagten, sie seien sehr daran interessiert, die geltenden Richtlinien und Praktiken zu verstehen, um den Missbrauch des Modells in seiner Verfügbarkeit zu verhindern.

Basierend auf den Antworten von Meta auf ihre Fragen warfen die Senatoren Meta vor, unangemessene Zensur betrieben zu haben und nicht über ausreichende Sicherheitsmaßnahmen für das Modell zu verfügen. ChatGPT von Open AI lehnt einige der Anfragen aufgrund von Ethik und Richtlinien ab. Wenn ChatGPT beispielsweise gebeten wird, im Namen des Sohnes einer anderen Person einen Brief zu schreiben und um etwas Geld zu bitten, um aus einer schwierigen Situation herauszukommen, wird die Anfrage abgelehnt. Andererseits wird LLaMA die Anfrage erfüllen und den Brief erstellen. Es werden auch Anträge bearbeitet, die Selbstverletzung, Kriminalität und Antisemitismus betreffen.

Es ist sehr wichtig, die vielfältigen und einzigartigen Merkmale von LLaMA zu verstehen. Es ist nicht nur einzigartig, sondern auch eines der umfangreichsten Large Language-Modelle bis heute. Fast jedes unzensierte LLM, das heute beliebt ist, basiert auf dem LLaMA. Für ein Open-Source-Modell ist es äußerst anspruchsvoll und genau. Beispiele für einige auf LLaMA basierende LLMs sind Stanford's Alpaca, Vicuna usw. LLaMA hat eine wichtige Rolle dabei gespielt, LLMs zu dem zu machen, was sie heute sind. LLaMA ist für die Weiterentwicklung von Chatbots mit geringem Nutzen zu fein abgestimmten Modi verantwortlich.

LLaMA wurde im Februar veröffentlicht. Nach Angaben der Senatoren erlaubte Meta den Forschern, das Modell herunterzuladen, ergriff jedoch keine Sicherheitsmaßnahmen wie Zentralisierung oder Zugangsbeschränkung. Die Kontroverse entstand, als die vollständige Version von LLaMA auf BitTorrent auftauchte. Dadurch wurde das Modell für jedermann zugänglich. Dies führte zu Beeinträchtigungen der Qualität des KI-Modells und warf Probleme hinsichtlich seines Missbrauchs auf. 

Die Senatoren waren sich zunächst nicht einmal sicher, ob es ein „Leck“ gab. Doch Probleme traten auf, als das Internet mit KI-Entwicklungen überschwemmt wurde, die von Start-ups, Kollektiven und Akademikern ins Leben gerufen wurden. In dem Schreiben wird erwähnt, dass Meta für den potenziellen Missbrauch von LLaMA verantwortlich gemacht werden muss und vor der Veröffentlichung für minimale Schutzmaßnahmen gesorgt haben muss.

Meta stellte den Forschern die Gewichte von LLaMA zur Verfügung. Leider sind diese Gewichte durchgesickert, was erstmals einen globalen Zugriff ermöglichte.

Neueste Beiträge von Ritika Sharma (alles sehen)

Quelle: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/