Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Das Risiko, dass die KI außer Kontrolle gerät, steigt: Offenes Modellgewicht löst Meta-Protest aus

Das Risiko, dass die KI außer Kontrolle gerät, steigt: Offenes Modellgewicht löst Meta-Protest aus

王林
王林nach vorne
2023-10-11 08:37:01828Durchsuche

Herausgeber: Du Wei, Xiaozhou

KI, insbesondere Open Source und Closed Source im Zeitalter großer Modelle, hat Vor- und Nachteile. Wichtig ist, wie man sie gut nutzt.

Über die Wahl zwischen Open Source und Closed Source im Bereich der KI waren die Menschen schon immer gespalten. Im Zeitalter der großen Modelle hat sich jedoch in aller Stille die mächtige Kraft von Open Source herauskristallisiert. Laut einem zuvor durchgesickerten internen Dokument von Google baut die gesamte Community rund um Open-Source-Modelle wie Metas LLaMA schnell Modelle auf, die OpenAI und den großen Modellfunktionen von Google ähneln.

Es besteht kein Zweifel daran, dass Meta der absolute Kern der Open-Source-Welt ist, mit kontinuierlichen Open-Source-Bemühungen wie der jüngsten Veröffentlichung von Llama 2. Allerdings wird alles Gute vom Wind zerstört. In letzter Zeit steckte Meta aufgrund von Open Source in „Schwierigkeiten“.

Vor Metas Büros in San Francisco versammelte sich eine Gruppe von Demonstranten mit Schildern, um gegen Metas Strategie der öffentlichen Veröffentlichung von KI-Modellen zu protestieren und behauptete, dass diese veröffentlichten Modelle die „irreversible Verbreitung“ potenziell unsicherer Technologien verursachten. Einige Demonstranten verglichen die von Meta veröffentlichten Großmodelle sogar mit „Massenvernichtungswaffen“

Diese Demonstranten bezeichnen sich selbst als „besorgte Bürger“ und werden von Holly Elmore angeführt. Laut LinkedIn ist sie eine unabhängige Verfechterin der AI-Pause-Bewegung.

Das Risiko, dass die KI außer Kontrolle gerät, steigt: Offenes Modellgewicht löst Meta-Protest aus

Der Inhalt, der neu geschrieben werden muss, ist: Bildquelle: MISHA GUREVICH

Wenn sich ein Modell als unsicher erweist, könne die API heruntergefahren werden, merkte sie an. Beispielsweise erlauben Unternehmen wie Google und OpenAI Benutzern nur den Zugriff auf große Modelle über die API

Im Gegensatz dazu stellt die Open-Source-Modellreihe LLaMA von Meta Modellgewichte der Öffentlichkeit zur Verfügung, sodass jeder mit der richtigen Hardware und dem richtigen Fachwissen das Modell selbst replizieren und optimieren kann. Sobald Modellgewichte veröffentlicht sind, hat der Verlag keine Kontrolle mehr über die Verwendung der KI

Nach Holly Elmores Meinung ist die Freigabe von Modellgewichten eine gefährliche Strategie, jeder kann das Modell ändern und diese Modelle können nicht rückgängig gemacht werden. „Je mächtiger das Modell, desto gefährlicher wird diese Strategie.“

Im Vergleich zu Open-Source-Modellen verfügen große Modelle, auf die über APIs zugegriffen wird, oft über verschiedene Sicherheitsfunktionen, wie z. B. Antwortfilterung oder spezielles Training, um die Ausgabe gefährlicher oder störender Antworten zu verhindern

Wenn die Modellgewichte freigegeben werden, wird es viel einfacher, das Modell neu zu trainieren, um über diese „Leitplanken“ zu springen. Dadurch ist es besser möglich, diese Open-Source-Modelle zur Entwicklung von Phishing-Software und zur Durchführung von Netzwerkangriffen zu nutzen.

Das Risiko, dass die KI außer Kontrolle gerät, steigt: Offenes Modellgewicht löst Meta-Protest aus

Der Inhalt, der neu geschrieben werden muss, ist: Bildquelle: MISHA GUREVICH

Sie glaubt, dass ein Teil des Problems mit der Modellsicherheit darin besteht, dass die derzeit ergriffenen Sicherheitsmaßnahmen nicht ausreichen, sodass bessere Wege gefunden werden müssen, um die Modellsicherheit zu gewährleisten

Meta hat sich hierzu noch nicht geäußert. Metas leitender KI-Wissenschaftler Yann LeCun scheint jedoch auf die Aussage reagiert zu haben, dass „Open-Source-KI verboten werden muss“, und zeigte die florierende Open-Source-KI-Startup-Community in Paris

Das Risiko, dass die KI außer Kontrolle gerät, steigt: Offenes Modellgewicht löst Meta-Protest aus

Es gibt viele Menschen, die anderer Meinung sind und glauben, dass eine offene Strategie für die KI-Entwicklung der einzige Weg ist, das Vertrauen in die Technologie sicherzustellen, was anders ist als Holly Elmores Ansicht

Einige Internetnutzer sagten, dass Open Source Vor- und Nachteile habe. Es könne den Menschen mehr Transparenz ermöglichen und Innovationen fördern, aber es bestehe auch das Risiko des Missbrauchs (z. B. von Code) durch böswillige Akteure.

Das Risiko, dass die KI außer Kontrolle gerät, steigt: Offenes Modellgewicht löst Meta-Protest aus

Wie erwartet wurde OpenAI erneut lächerlich gemacht, und einige sagten: „Es sollte zu Open Source zurückkehren

.“

Das Risiko, dass die KI außer Kontrolle gerät, steigt: Offenes Modellgewicht löst Meta-Protest aus

Es gibt viele Menschen, die sich Sorgen um Open Source machen

Peter S. Park, Postdoktorand für Sicherheit künstlicher Intelligenz am MIT, sagte, dass die weit verbreitete Veröffentlichung fortschrittlicher Modelle künstlicher Intelligenz in der Zukunft viele Probleme verursachen könnte, da es grundsätzlich unmöglich sei, den Missbrauch von Modellen künstlicher Intelligenz vollständig zu verhindern

Stella Biderman, Geschäftsführerin von EleutherAI, einer gemeinnützigen Forschungsorganisation für künstliche Intelligenz, sagte jedoch: „Bisher gibt es kaum Beweise dafür, dass Open-Source-Modelle konkreten Schaden verursacht haben. Es ist unklar, ob einfach ein Modell hinter einem platziert wird Die API wird das Sicherheitsproblem lösen.“

Biderman glaubt: „Die grundlegenden Elemente des Aufbaus eines LLM wurden in kostenlosen Forschungsarbeiten offengelegt, die jeder lesen kann, um seine eigenen Modelle zu entwickeln.“

Sie wies weiter darauf hin: „Wenn Unternehmen die Vertraulichkeit von Modelldetails fördern, kann dies schwerwiegende negative Folgen für die Transparenz der Feldforschung, das öffentliche Bewusstsein und die wissenschaftliche Entwicklung haben, insbesondere für unabhängige Forscher.“

Obwohl bereits alle über die Auswirkungen von Open Source diskutieren, ist immer noch unklar, ob Metas Methode wirklich offen genug ist und ob sie die Vorteile von Open Source nutzen kann.

Stefano Maffulli, Geschäftsführer der Open Source Initiative (OSI), sagte: „Das Konzept der Open-Source-künstlichen Intelligenz ist noch nicht klar definiert. Verschiedene Organisationen verwenden den Begriff, um sich auf unterschiedliche Dinge zu beziehen, was auf unterschiedliche Grade der ‚Öffentlichkeit‘ hinweist.“ Sachen‘, die die Leute verwirren können.“

Das Risiko, dass die KI außer Kontrolle gerät, steigt: Offenes Modellgewicht löst Meta-Protest ausMaffulli wies darauf hin, dass es bei Open-Source-Software vor allem darum geht, ob der Quellcode öffentlich verfügbar ist und für jeden Zweck verwendet werden kann. Die Reproduktion eines KI-Modells erfordert jedoch möglicherweise die gemeinsame Nutzung von Trainingsdaten, Datenerfassungsmethoden, Trainingssoftware, Modellgewichten, Inferenzcode und mehr. Das wichtigste Problem besteht darin, dass Trainingsdaten Datenschutz- und Urheberrechtsprobleme mit sich bringen können

OSI arbeitet seit letztem Jahr an einer genauen Definition von „Open-Source-KI“ und wird voraussichtlich in den kommenden Wochen einen ersten Entwurf veröffentlichen. Aber egal was passiert, er glaubt, dass Open Source für die Entwicklung der KI von entscheidender Bedeutung ist. „Wenn KI nicht Open Source ist, können wir keine vertrauenswürdige und verantwortungsvolle KI haben“, sagte er

Auch in Zukunft wird es weiterhin Unterschiede zwischen Open Source und Closed Source geben, aber Open Source ist nicht aufzuhalten.

Das obige ist der detaillierte Inhalt vonDas Risiko, dass die KI außer Kontrolle gerät, steigt: Offenes Modellgewicht löst Meta-Protest aus. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:sohu.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen