Heim >Technologie-Peripheriegeräte >KI >Warum kommt das große Modell von Chinas leistungsstärkstem KI-Forschungsinstitut zu spät?

Warum kommt das große Modell von Chinas leistungsstärkstem KI-Forschungsinstitut zu spät?

王林
王林nach vorne
2023-06-26 19:43:341253Durchsuche

Warum kommt das große Modell von Chinas leistungsstärkstem KI-Forschungsinstitut zu spät?

Produziert von der Huxiu Technology Group

Autor|Qi Jian

Herausgeber|Chen Yifan

Kopfzeilenbild|FlagStudio

„Wird OpenAI wieder große Modelle als Open-Source-Lösung anbieten?“

Als Zhang Hongjiang, Vorsitzender des Zhiyuan Research Institute, Sam Altman, CEO von OpenAI, der online an der Zhiyuan-Konferenz 2023 teilnahm, nach Open-Source-Themen fragte, lächelte Sam Altman und sagte: OpenAI wird in Zukunft mehr Codes öffnen, aber es gibt welche kein spezifischer Open-Source-Zeitplan.

Eine solche Diskussion stammt aus einem der Themen dieser Weisheitskonferenz – Open-Source-Großmodelle.

Am 9. Juni fand in Peking die Zhiyuan-Konferenz 2023 statt und alle Plätze waren besetzt. Auf dem Konferenzgelände tauchten in den Chats der Teilnehmer sowie verschiedener Unternehmen dieser Industriekette von Zeit zu Zeit KI-bezogene Wörter wie „Rechenleistung“, „Großmodell“ und „Ökologie“ auf.

Warum kommt das große Modell von Chinas leistungsstärkstem KI-Forschungsinstitut zu spät?

Auf dieser Konferenz veröffentlichte das Zhiyuan Research Institute die umfassende Open-Source-Version Wu Dao 3.0. Darunter Die visuelle Großmodellreihe „Vision“, die Sprachgroßmodellreihe „Sky Eagle“ und das ursprüngliche Großmodell-Bewertungssystem „Libra“.

Open Source für große Modelle bedeutet, den Modellcode für KI-Entwickler zum Studieren offenzulegen. Das grundlegende Sprachmodell „Sky Eagle“ in Wu Dao 3.0 ist immer noch ein im Handel erhältliches Modell, und jeder kann dieses große Modell kostenlos nutzen.

Derzeit sind Microsofts vertiefte Partner OpenAI, Google und BAAI die drei Institutionen, die auf dem Gebiet der künstlichen Intelligenz führend sind. „In einem aktuellen Interview erwähnte Microsoft-Präsident Brad Smith BAAI, die „stärkste“ KI-Forschungseinrichtung in China, die ebenso berühmt ist wie OpenAI und Google. Diese Einrichtung ist das Beijing Zhiyuan Artificial Intelligence Research Institute. Viele Leute in der Branche glauben das , die von diesem Institut veranstaltete Konferenz zur künstlichen Intelligenz ist ein Maßstab für Branchentrends

. Das vom Präsidenten von Microsoft hochgeschätzte Chiyuan Research Institute hat bereits im Oktober 2020 das KI-Großmodellprojekt „Enlightenment“ gestartet und zwei Versionen des Enlightenment-Großmodells 1.0 und 2.0 veröffentlicht.

Die offiziell angekündigte Parameterskala der Aufklärung 2.0 erreicht 1,7 Billionen. Zu diesem Zeitpunkt war es erst ein Jahr her, seit OpenAI das GPT-3-Modell mit 175 Milliarden Parametern veröffentlichte. Allerdings war ein solcher Pionier großer KI-Modelle während des KI-Großmodell-Wahnsinns in den letzten sechs Monaten äußerst zurückhaltend.

Während unter den großen Herstellern und Start-up-Unternehmen nach und nach große Modelle auftauchen, blieb Zhiyuan gegenüber der Außenwelt mehr als drei Monate lang „still“, mit Ausnahme von „SegGPT“, das zu Beginn mit Metas ausgeschnittener KI „SAM“ kollidierte April wurden der Öffentlichkeit fast keine Informationen über das große KI-Modell preisgegeben.

In dieser Hinsicht haben viele Menschen innerhalb und außerhalb der KI-Branche Fragen: Warum scheint das Zhiyuan Research Institute, ein führendes Unternehmen auf dem Gebiet der großen KI-Modelle, erst spät auf dem Höhepunkt der großen Modelle zu sein?

Wird das Open-Source-Modell den Burggraben von OpenAI einreißen?

„Obwohl der Wettbewerb um große Modelle jetzt hart ist, haben weder OpenAI noch Google einen Burggraben, weil „Open Source“ im Bereich der großen KI-Modelle auf dem Vormarsch ist

In einem von Google durchgesickerten Dokument glauben interne Google-Forscher, dass Open-Source-Modelle die Zukunft der Entwicklung großer Modelle anführen könnten. In dem Dokument heißt es: „

Open-Source-Modelle haben schnellere Iterationen, eine stärkere Anpassbarkeit und mehr. „Sie zahlen nicht für eingeschränkte Modelle, wenn die kostenlosen, uneingeschränkten Alternativen von gleicher Qualität sind

“ Dies könnte einer der Gründe sein, warum sich Intelligent Source für die Entwicklung großer Open-Source-Modelle entschieden hat. Derzeit gibt es nicht viele kommerzielle Open-Source-Großmodelle. Das Zhiyuan Research Institute hat eine Umfrage zu einigen der im Ausland veröffentlichten Open-Source-Großmodelle durchgeführt. . Von den 28 in China veröffentlichten großen Sprachmodellen sind insgesamt 11 Open-Source-Modelle, aber nur eines davon ist ein Open-Source- und kommerziell erhältliches Modell.

Das von Zhiyuan veröffentlichte große Sprachmodell ist Open Source und im Handel erhältlich. Es ist auch eines der wenigen Open Source-Modelle für große Sprachen, die derzeit für die kommerzielle Nutzung verfügbar sind. Dies bedeutet auch, dass ein solches Modell vor der Veröffentlichung vorsichtiger sein muss .

„Was Zhiyuan betrifft, wollen wir auf keinen Fall, dass das Open-Source-Modell zu hässlich ist, deshalb werden wir es mit Vorsicht veröffentlichen.“ Ein KI-Forscher sagte auf der Zhiyuan-Konferenz, dass Open-Source-Modelle es zwangsläufig sein müssen Um die Qualität des Open-Source-Modells sicherzustellen, wurde der Forschungs- und Entwicklungsfortschritt von Zhiyuan möglicherweise durch „Open Source“ verlangsamt.

Huang Tiejun, Präsident des Zhiyuan Research Institute, glaubt, dass die derzeitige Open Source und Offenheit großer Modelle auf dem Markt unseres Landes bei weitem nicht ausreicht. „

Wir sollten Open Source weiter stärken und Open Source sind auch Wettbewerber.“ . Wenn es wirklich gute Standards und gute Algorithmen gibt, stellen Sie diese zur Bewertung bereit. Nur durch einen Vergleich können Sie Ihr technisches Niveau nachweisen

. Wenn inländische Hersteller große Modelle auf den Markt bringen, mangelt es an Transparenz und viele Menschen bezweifeln, dass diese Hersteller wirklich unabhängige Forschung und Entwicklung betrieben haben. Einige Leute sagen, dass sie ChatGPT über die API aufrufen, während andere sagen, dass sie das von Meta durchgesickerte LLaMA-Modell + die Antwortdaten von ChatGPT verwenden, um es zu trainieren. Das Open-Source-Modell schneidet diese Zweifel von der Quelle ab.

Allerdings Das Open-Source-Modell und die Verbesserung der technischen Transparenz dienen nicht dazu, die eigene Unschuld zu beweisen, sondern wirklich „die Anstrengungen zu konzentrieren, um große Dinge zu tun“. Laut Zhiyuan-Daten belaufen sich die täglichen Schulungskosten für das Tianying Big Language Model auf mehr als 100.000 Yuan. Im Rahmen des allgemeinen Trends des inländischen „Krieges der Hunderten von Modellen“ oder sogar des „Krieges der Tausenden von Modellen“ führen viele Branchen Eine große Anzahl unnötiger wiederholter Schulungen, die zu wiederholten Kosten führen können, kann astronomisch sein.

Open-Source-Modelle können wiederholte Schulungen reduzieren. Die direkte Verwendung von Open-Source- und kommerziell verfügbaren großen KI-Modellen und deren Kombination mit ihren eigenen Daten für die Schulung kann die beste Lösung für die KI-Implementierung und Branchenanwendungen sein.

Eine weitere Überlegung bei Open Source besteht darin, frühzeitig Benutzer und Entwickler zu gewinnen, um ein gutes Ökosystem aufzubauen und eine zukünftige Kommerzialisierung zu erreichen. Ein Gründer eines großen inländischen Modellunternehmens sagte zu Huxiu: „GPT-1 und GPT-2 von OpenAI sind beide Open-Source-Großmodelle. Dies dient dazu, Benutzer zu sammeln und die Erkennung des Modells zu verbessern.“ Nach dem Erscheinen wird die Kommerzialisierung im Mittelpunkt stehen und dieses Modell wird nach und nach geschlossen. Daher darf das Open-Source-Modell im Allgemeinen nicht kommerzialisiert werden. Dies ist auch auf spätere Kommerzialisierungsüberlegungen zurückzuführen

Aber offensichtlich hat Zhiyuan als gemeinnützige Forschungseinrichtung keine kommerziellen Überlegungen, wenn es um Open-Source-Themen geht. In Bezug auf Modell-Open-Source hofft Zhiyuan einerseits, die wissenschaftliche Forschung und Innovation in der KI-Großmodellindustrie zu fördern und die industrielle Umsetzung durch die Öffnung von Open-Source-Modellen wie zugrunde liegenden Modellen zu beschleunigen. Andererseits möchten Sie möglicherweise auch mehr Benutzerfeedback auf der Grundlage von Open-Source-Modellen sammeln und die Benutzerfreundlichkeit großer Modelle im Ingenieurwesen verbessern.

Allerdings sind Open-Source-Modelle nicht „perfekt“.

Ein technischer KI-Direktor eines großen Herstellers sagte gegenüber Huxiu, dass der aktuelle Kommerzialisierungsmarkt für große KI-Modelle in drei Stufen unterteilt werden kann Für diejenigen, die Modelle basierend auf spezifischen Anforderungen entwickeln müssen, ist die dritte Ebene für kleine und mittlere Kunden gedacht, die nur allgemeine Modellfunktionen benötigen und API-Aufrufe verwenden können, um ihre Anforderungen zu erfüllen.

In diesem Zusammenhang können Open-Source-Modelle führenden Akteuren mit Selbstforschungsfähigkeiten dabei helfen, viel Zeit und Kosten bei der Entwicklung von Modellen zu sparen. Aber für Unternehmen der zweiten und dritten Ebene müssen sie ihre eigenen technischen Teams einrichten, um die Modelle zu trainieren und zu optimieren. Für viele Unternehmen mit geringerer technischer Stärke wird dies den Implementierungsprozess komplizierter und offener machen Die Quelle scheint das Gefühl zu haben, dass „kostenlose Dinge am teuersten sind“.

Diese „Erleuchtung“ ist nicht mehr diese „Erleuchtung“

Zhiyuan’s Enlightenment 3.0 ist eine komplett neu entwickelte Großmodellserie

Dies ist auch einer der Gründe für die „späte Veröffentlichung“.

Warum muss Zhiyuan ein neues Modellsystem entwickeln, da wir bereits über die Grundlage der Aufklärung 2.0 verfügen? Einerseits liegt es an der Anpassung der technischen Ausrichtung des Modells, andererseits an der „Ersetzung“ der zugrunde liegenden Trainingsdaten des Modells.

"Wudao 2.0 wird im Jahr 2021 entwickelt. Unabhängig davon, ob es sich um ein Sprachmodell (wie GLM) oder ein vinzentinisches Diagrammmodell (wie CogView) handelt, ist die Algorithmusarchitektur, auf der es basiert, von nun an relativ früh. In der Vergangenheit Etwa ein Jahr später wurden Modellarchitekturen in verwandten Bereichen stärker verifiziert oder weiterentwickelt. Beispielsweise hat die in Sprachmodellen verwendete Nur-Decoder-Architektur gezeigt, dass in Basismodellen eine bessere Generierungsleistung erzielt werden kann Beim Textgraphenmodell haben wir für weitere Innovationen auf Diffusion umgestellt. Deshalb haben wir diese aktualisierten Architekturen für das große Sprachmodell und das große Textgraphengenerierungsmodell übernommen. Entwickelt Das Zhiyuan Research Institute sagte, dass Wu Dao 3.0 auf der Grundlage der Forschung früherer Modelle in viele Richtungen rekonstruiert wurde.

Darüber hinaus hat Wudao 3.0 auch die Trainingsdaten des zugrunde liegenden Modells umfassend optimiert und aktualisiert. Die aktualisierten Wudao-Chinesischdaten wurden in den Trainingsdaten verwendet, auch von 2021 bis heute, und wurden einer strengeren Qualitätsreinigung unterzogen Andererseits wurde eine große Anzahl hochwertiger chinesischer Bücher, Literatur usw. hinzugefügt. Darüber hinaus wurden hochwertige Codedatensätze hinzugefügt, sodass auch das Grundmodell große Änderungen erfahren hat.

Die zugrunde liegenden Modelltrainingsdaten stammen nicht aus muttersprachlichem Chinesisch, was dazu führt, dass viele inländische Modelle Probleme mit der Chinesisch-Verständnis haben. Viele große KI-Modelle im In- und Ausland nutzen für das Training umfangreiche Open-Source-Daten aus dem Ausland. Zu den Primärquellen gehört der berühmte Open-Source-Datensatz Common Crawl. Zhiyuan analysierte 1 Million Common Crawl-Webseitendaten und

39.052 chinesische Webseiten konnten extrahiert werden. Aus der Sicht der Website-Quellen gibt es 25.842 Websites, die Chinesisch extrahieren können, von denen nur 4.522 IPs auf dem chinesischen Festland haben, was nur 17 % ausmacht.

Dies verringert nicht nur die Genauigkeit chinesischer Daten erheblich, sondern verringert auch die Sicherheit.

„Der Korpus, der zum Trainieren des Grundmodells verwendet wird, wird einen großen Einfluss auf die Konformität, Sicherheit und Werte haben, die durch AIGC-Anwendungen, fein abgestimmte Modelle und andere Inhalte generiert werden.“ Einfache Übersetzung, aber ausreichend. „In dieses Modell sind viele chinesische Kenntnisse eingeflossen.“ 99 % der chinesischen Internetdaten stammen von inländischen Websites, und Unternehmen können darauf basierend kontinuierliche Schulungen durchführen.

Gleichzeitig kann durch eine große Menge an verfeinerter Verarbeitung und Bereinigung von Daten und Zahlen ein Modell mit der gleichen oder sogar besseren Leistung mit einer kleinen Datenmenge trainiert werden. Diese Daten können sogar nur 30 % betragen 40 % der Datenmenge gehen über bestehende Open-Source-Modelle hinaus.

Jetzt scheint es, dass dieser Weg eine bessere Lösung für Zhiyuan sein könnte. Denn in Bezug auf Trainingsdaten weist Zhiyuan im Vergleich zu Internetherstellern Defizite auf. Große Internetunternehmen verfügen über umfangreiche Benutzerinteraktionsdaten und eine große Menge an Urheberrechtsdaten für Schulungen. Vor nicht allzu langer Zeit hat die Alibaba Damo Academy gerade einen Video-Sprachdatensatz namens Youku-mPLUG veröffentlicht, dessen gesamter Inhalt von Youku stammt, einer Videoplattform von Alibaba.

Da

Zhiyuan in Bezug auf Trainingsdaten nicht über eine tiefe Benutzerbasis verfügt, kann es die Genehmigung nur durch Verhandlungen mit dem Urheberrechtsinhaber einholen und diese nach und nach durch einige öffentliche Wohlfahrtsdatenprojekte sammeln und akkumulieren.

Derzeit kann der chinesische Datensatz von Zhiyuan jedoch nur teilweise Open Source sein. Der Hauptgrund dafür ist, dass das Urheberrecht an chinesischen Daten in den Händen verschiedener Institutionen liegt. Derzeit werden die Trainingsdaten von Zhiyuan durch die Koordination mehrerer Parteien erhalten Open-Source-Modelle. Die meisten Daten können nur auf die Modelle von Zhiyuan angewendet werden und haben kein Recht auf eine Zweitverwendung.

"

In China ist es sehr wichtig, eine Industrieallianz für Datensätze zu gründen, Urheberrechtsinhaber zu vereinen und eine einheitliche Planung von Trainingsdaten für künstliche Intelligenz durchzuführen, aber dazu ist die Weisheit eines Designs auf höchstem Niveau erforderlich. ", sagte Lin Yonghua gegenüber Huxiu .

Whampoa Military Academy in der heimischen Großmodellindustrie

Enlightenment 3.0 erzählt eine andere Geschichte als Enlightenment 2.0, und die Veränderungen im Forschungs- und Entwicklungsteam sind eine davon. Als Pionier in der KI-Großmodellbranche ist das Zhiyuan Research Institute wie die Whampoa-Militärakademie für inländische KI-Großmodelle.

Von Zhiyuan-Wissenschaftlern bis hin zu Basisingenieuren sind sie alle im heutigen großen Modellwahn in der Branche populär geworden. Das ursprüngliche Team von Zhiyuan hat auch mehrere große Modellunternehmerteams gegründet.

Vor Wudao 3.0 war eine große Modellreihe eine Kombination von Forschungsergebnissen, die von mehreren externen Labors gemeinsam veröffentlicht wurden. Dieses Mal handelt es sich bei Wudao 3.0 jedoch um eine Reihe von Modellen, die vom Zhiyuan-Team vollständig selbst entwickelt wurden.

Wudao 2.0-Modell wurde 2021 veröffentlicht, einschließlich Wenyuan, Wenlan, Wenhui und Wensu. Unter anderem wurden die beiden Kernmodelle von zwei Labors der Tsinghua-Universität fertiggestellt. Heute haben die beiden Teams ihre eigenen Unternehmen gegründet und eigene unabhängige Produkte in der Forschungs- und Entwicklungsrichtung von CPM und GLM entwickelt.

Unter anderem hat das Knowledge Engineering Laboratory (KEG) der Tsinghua University, das Haupt-F&E-Team von GLM, zusammen mit Zhipu AI das Open-Source-Modell ChatGLM-6B auf den Markt gebracht, das in der Branche weithin Anerkennung gefunden hat; Der Bereich Informatik der Tsinghua-Universität Shenyan Technology, der sich aus einigen Mitgliedern des Natural Language Processing and Social Humanities Computing Laboratory (THUNLP) zusammensetzt, wurde seit seiner Gründung vor einem Jahr in den beiden Finanzierungsrunden dieses Jahres bevorzugt , Tencent Investment, Sequoia China und Qiji Chuangtan und andere Fonds.

Eine dem Zhiyuan Research Institute nahestehende Person sagte zu Huxiu:

Seit dem Aufkommen inländischer groß angelegter KI-Modelle ist das Zhiyuan-Team zu einem „Jagdziel“ im Talentkrieg geworden: „Das gesamte Forschungs- und Entwicklungsteam wurde von anderen Unternehmen ins Visier genommen.“ Headhunter.

In der aktuellen inländischen KI-Großmodellindustrie mangelt es am meisten an Geld und am meisten an Menschen. Durchsuchen Sie ChatGPT auf den drei Plattformen Liepin, Maimai und BOSS Zhipin. Das monatliche Gehalt für Stellen mit Master- und Doktortiteln liegt im Allgemeinen über 30.000, das Höchstgehalt liegt bei 90.000. „In Bezug auf das Gehalt haben große IT-Unternehmen keinen großen Vorteil. Die Forschung und Entwicklung großer KI-Modelle erfolgt auf hohem Niveau. Das von Startups angebotene Gehalt ist möglicherweise wettbewerbsfähiger.“ , sagte Huxiu, dass der Kampf um Talente in der KI-Branche immer heftiger werden werde.

„Ein doppeltes Gehalt ist nach Meinung vieler Mitarbeiter bei Zhiyuan überhaupt nicht konkurrenzfähig, denn jetzt werben sie Leute mit dem fünffachen oder sogar zehnfachen Gehalt ab, egal wie ideal man ist und wie man für die Zukunft plant.“ Es wird schwierig sein, der Versuchung eines Jahresgehalts von über einer Million zu widerstehen.“ Im Vergleich dazu steckt viel Kapital dahinter.

Durch Headhunting erfuhr Huxiu, dass das Einstiegsgehalt von Experten für die Verarbeitung natürlicher Sprache derzeit über 1 Million liegt. Für einige Arbeitnehmer mit langen Arbeitsjahren und niedrigem Lohn ist es schwierig, nicht ins Wanken zu geraten, wenn sie mit einem Vielfachen ihres Gehalts konfrontiert werden.

Den aktuellen öffentlichen Daten des Zhiyuan Research Institute zufolge sind die meisten Kernprojektteamleiter des Zhiyuan Research Institute jedoch immer noch hauptberuflich für die Forschungs- und Entwicklungsprojekte des Zhiyuan Research Institute verantwortlich.

"

Die Modelle von Enlightenment 3.0 wurden alle von Zhiyuans eigenen Forschern entwickelt, darunter Tianying, Libra und Vision.

" Lin Yonghua sagte, dass die aktuelle F&E-Stärke des Zhiyuan Research Institute immer die Spitze der Branche sei.

Diejenigen, die sich verändern und die Welt verändern wollen, sind auf der Huxiu APP

Das obige ist der detaillierte Inhalt vonWarum kommt das große Modell von Chinas leistungsstärkstem KI-Forschungsinstitut zu spät?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:sohu.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen