Heim > Artikel > Technologie-Peripheriegeräte > Das Risiko, dass die KI außer Kontrolle gerät, steigt: Offenes Modellgewicht löst Meta-Protest aus
Herausgeber: Du Wei, Xiaozhou
KI, insbesondere Open Source und Closed Source im Zeitalter großer Modelle, hat Vor- und Nachteile. Wichtig ist, wie man sie gut nutzt.
Über die Wahl zwischen Open Source und Closed Source im Bereich der KI waren die Menschen schon immer gespalten. Im Zeitalter der großen Modelle hat sich jedoch in aller Stille die mächtige Kraft von Open Source herauskristallisiert. Laut einem zuvor durchgesickerten internen Dokument von Google baut die gesamte Community rund um Open-Source-Modelle wie Metas LLaMA schnell Modelle auf, die OpenAI und den großen Modellfunktionen von Google ähneln.
Es besteht kein Zweifel daran, dass Meta der absolute Kern der Open-Source-Welt ist, mit kontinuierlichen Open-Source-Bemühungen wie der jüngsten Veröffentlichung von Llama 2. Allerdings wird alles Gute vom Wind zerstört. In letzter Zeit steckte Meta aufgrund von Open Source in „Schwierigkeiten“.
Vor Metas Büros in San Francisco versammelte sich eine Gruppe von Demonstranten mit Schildern, um gegen Metas Strategie der öffentlichen Veröffentlichung von KI-Modellen zu protestieren und behauptete, dass diese veröffentlichten Modelle die „irreversible Verbreitung“ potenziell unsicherer Technologien verursachten. Einige Demonstranten verglichen die von Meta veröffentlichten Großmodelle sogar mit „Massenvernichtungswaffen“
Diese Demonstranten bezeichnen sich selbst als „besorgte Bürger“ und werden von Holly Elmore angeführt. Laut LinkedIn ist sie eine unabhängige Verfechterin der AI-Pause-Bewegung.
Der Inhalt, der neu geschrieben werden muss, ist: Bildquelle: MISHA GUREVICH
Wenn sich ein Modell als unsicher erweist, könne die API heruntergefahren werden, merkte sie an. Beispielsweise erlauben Unternehmen wie Google und OpenAI Benutzern nur den Zugriff auf große Modelle über die API
Im Gegensatz dazu stellt die Open-Source-Modellreihe LLaMA von Meta Modellgewichte der Öffentlichkeit zur Verfügung, sodass jeder mit der richtigen Hardware und dem richtigen Fachwissen das Modell selbst replizieren und optimieren kann. Sobald Modellgewichte veröffentlicht sind, hat der Verlag keine Kontrolle mehr über die Verwendung der KI
Nach Holly Elmores Meinung ist die Freigabe von Modellgewichten eine gefährliche Strategie, jeder kann das Modell ändern und diese Modelle können nicht rückgängig gemacht werden. „Je mächtiger das Modell, desto gefährlicher wird diese Strategie.“
Im Vergleich zu Open-Source-Modellen verfügen große Modelle, auf die über APIs zugegriffen wird, oft über verschiedene Sicherheitsfunktionen, wie z. B. Antwortfilterung oder spezielles Training, um die Ausgabe gefährlicher oder störender Antworten zu verhindern
Wenn die Modellgewichte freigegeben werden, wird es viel einfacher, das Modell neu zu trainieren, um über diese „Leitplanken“ zu springen. Dadurch ist es besser möglich, diese Open-Source-Modelle zur Entwicklung von Phishing-Software und zur Durchführung von Netzwerkangriffen zu nutzen.
Der Inhalt, der neu geschrieben werden muss, ist: Bildquelle: MISHA GUREVICH
Sie glaubt, dass ein Teil des Problems mit der Modellsicherheit darin besteht, dass die derzeit ergriffenen Sicherheitsmaßnahmen nicht ausreichen, sodass bessere Wege gefunden werden müssen, um die Modellsicherheit zu gewährleisten
Meta hat sich hierzu noch nicht geäußert. Metas leitender KI-Wissenschaftler Yann LeCun scheint jedoch auf die Aussage reagiert zu haben, dass „Open-Source-KI verboten werden muss“, und zeigte die florierende Open-Source-KI-Startup-Community in Paris
Es gibt viele Menschen, die anderer Meinung sind und glauben, dass eine offene Strategie für die KI-Entwicklung der einzige Weg ist, das Vertrauen in die Technologie sicherzustellen, was anders ist als Holly Elmores Ansicht
Einige Internetnutzer sagten, dass Open Source Vor- und Nachteile habe. Es könne den Menschen mehr Transparenz ermöglichen und Innovationen fördern, aber es bestehe auch das Risiko des Missbrauchs (z. B. von Code) durch böswillige Akteure.
Wie erwartet wurde OpenAI erneut lächerlich gemacht, und einige sagten: „Es sollte zu Open Source zurückkehren
.“
Es gibt viele Menschen, die sich Sorgen um Open Source machen
Peter S. Park, Postdoktorand für Sicherheit künstlicher Intelligenz am MIT, sagte, dass die weit verbreitete Veröffentlichung fortschrittlicher Modelle künstlicher Intelligenz in der Zukunft viele Probleme verursachen könnte, da es grundsätzlich unmöglich sei, den Missbrauch von Modellen künstlicher Intelligenz vollständig zu verhindern
Stella Biderman, Geschäftsführerin von EleutherAI, einer gemeinnützigen Forschungsorganisation für künstliche Intelligenz, sagte jedoch: „Bisher gibt es kaum Beweise dafür, dass Open-Source-Modelle konkreten Schaden verursacht haben. Es ist unklar, ob einfach ein Modell hinter einem platziert wird Die API wird das Sicherheitsproblem lösen.“
Biderman glaubt: „Die grundlegenden Elemente des Aufbaus eines LLM wurden in kostenlosen Forschungsarbeiten offengelegt, die jeder lesen kann, um seine eigenen Modelle zu entwickeln.“
Sie wies weiter darauf hin: „Wenn Unternehmen die Vertraulichkeit von Modelldetails fördern, kann dies schwerwiegende negative Folgen für die Transparenz der Feldforschung, das öffentliche Bewusstsein und die wissenschaftliche Entwicklung haben, insbesondere für unabhängige Forscher.“Obwohl bereits alle über die Auswirkungen von Open Source diskutieren, ist immer noch unklar, ob Metas Methode wirklich offen genug ist und ob sie die Vorteile von Open Source nutzen kann.
Stefano Maffulli, Geschäftsführer der Open Source Initiative (OSI), sagte: „Das Konzept der Open-Source-künstlichen Intelligenz ist noch nicht klar definiert. Verschiedene Organisationen verwenden den Begriff, um sich auf unterschiedliche Dinge zu beziehen, was auf unterschiedliche Grade der ‚Öffentlichkeit‘ hinweist.“ Sachen‘, die die Leute verwirren können.“
Maffulli wies darauf hin, dass es bei Open-Source-Software vor allem darum geht, ob der Quellcode öffentlich verfügbar ist und für jeden Zweck verwendet werden kann. Die Reproduktion eines KI-Modells erfordert jedoch möglicherweise die gemeinsame Nutzung von Trainingsdaten, Datenerfassungsmethoden, Trainingssoftware, Modellgewichten, Inferenzcode und mehr. Das wichtigste Problem besteht darin, dass Trainingsdaten Datenschutz- und Urheberrechtsprobleme mit sich bringen können
OSI arbeitet seit letztem Jahr an einer genauen Definition von „Open-Source-KI“ und wird voraussichtlich in den kommenden Wochen einen ersten Entwurf veröffentlichen. Aber egal was passiert, er glaubt, dass Open Source für die Entwicklung der KI von entscheidender Bedeutung ist. „Wenn KI nicht Open Source ist, können wir keine vertrauenswürdige und verantwortungsvolle KI haben“, sagte er
Auch in Zukunft wird es weiterhin Unterschiede zwischen Open Source und Closed Source geben, aber Open Source ist nicht aufzuhalten.
Das obige ist der detaillierte Inhalt vonDas Risiko, dass die KI außer Kontrolle gerät, steigt: Offenes Modellgewicht löst Meta-Protest aus. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!