Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Der Granatenskandal macht den Direktor des Stanford AI Lab wütend! Zwei Mitglieder des Plagiatsteams nahmen die Schuld auf sich und eine Person verschwand, und sein Vorstrafenregister wurde aufgedeckt. Netizens: Chinas Open-Source-Modell neu verstehen

Der Granatenskandal macht den Direktor des Stanford AI Lab wütend! Zwei Mitglieder des Plagiatsteams nahmen die Schuld auf sich und eine Person verschwand, und sein Vorstrafenregister wurde aufgedeckt. Netizens: Chinas Open-Source-Modell neu verstehen

王林
王林Original
2024-06-09 09:38:081117Durchsuche

Der Folgevorfall, bei dem das Stanford-Team ein großes Modell der Tsinghua-Universität plagiierte – das

Llama3-V-Team gab ein Plagiat zu, und zwei der Studenten aus Stanford brachen auch die Verbindung zu einem anderen Autor ab.

Die neuesten Entschuldigungs-Tweets, gesendet von Siddharth Sharma(Siddhartha) und Aksh Garg(Akshy).

Nicht unter ihnen, Mustafa Aljadery (genannt Lao Mu) von der University of Southern California wird beschuldigt, der Hauptverursacher zu sein, und er wird seit gestern vermisst:

Wir hoffen, dass Lao Mu es schaffen wird erste Aussage, aber seit gestern war er nicht erreichbar.

Siddharth, ich (Akshi) und Lao Mu haben Llama3-V veröffentlicht und Lao Mu hat den Code für das Projekt geschrieben.

Siddharth und meine Aufgabe ist es, ihm zu helfen, dieses Modell auf Medium und Twitter zu bewerben. Ich habe aktuelle Veröffentlichungen nachgeschlagen, um die Innovationskraft der Arbeit zu überprüfen, aber wir wurden nicht darüber informiert und haben frühere Arbeiten zur Wandintelligenz entdeckt.

套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型

Lao Mu selbst, dem vorgeworfen wurde, weggelaufen zu sein, die X-Homepage befindet sich derzeit im Schutzsperrzustand, und Sie können ihr nur folgen, indem Sie Folgendes anwenden:

套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型

Im Großen und Ganzen dieser Entschuldigungs-Tweet und der einer von gestern wurde nach dem Versenden eilig gelöscht. Der Inhalt der geposteten Tweets war ziemlich gleich und konzentrierte sich hauptsächlich auf Entschuldigungen und weitere Schuldzuweisungen.

Schließlich kam sogar Direktor des Stanford Artificial Intelligence Laboratory Christopher Manning heraus und fing an, sich zu beschweren:

Das ist ein typischer Fall, wenn man seine Fehler nicht eingesteht!

Er glaubte, dass das Team die wichtigen Probleme nach dem Vorfall mit den Ausreden „ähnliche Architektur“ und „MiniCPM wurde schneller implementiert als wir“ vermieden habe, und weigerte sich zuzugeben, dass es sich um ein Plagiat handelte.

套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型

Aber die neue Entschuldigungserklärung konnte die Zweifel der Internetnutzer nicht zerstreuen. Und die neuesten Enthüllungen weisen auch darauf hin, dass es sich bei diesen Brüdern lediglich um Wiederholungstäter von Plagiaten handelt, und dass auch die Lehrbücher, die sie zuvor geschrieben haben, plagiiert waren.

套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型

套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型

Was das ursprüngliche Autorenteam Face Wall Intelligence betrifft, so antwortete neben dem CEO Li Dahai gestern, dass „es auch eine von internationalen Teams anerkannte Methode ist“, auch der Chefwissenschaftler Liu Zhiyuan ist auch auf Zhihu erschienen“ Persönliche Antwort:

Ich bin schon ziemlich überzeugt, dass Llama3-V für unsere MiniCPM-Llama3-V 2.5-Shell geeignet ist.

Die rasante Entwicklung der künstlichen Intelligenz ist untrennbar mit dem Open-Source-Austausch globaler Algorithmen, Daten und Modelle verbunden, sodass die Menschen immer auf den Schultern von SOTA stehen und sich weiterentwickeln können. Unser Open-Source-MiniCPM-Llama3-V 2.5 verwendet dieses Mal das neueste Llama3 als Sprachmodellbasis. Der Eckpfeiler des Open-Source-Sharings ist die Einhaltung von Open-Source-Protokollen, das Vertrauen in andere Mitwirkende sowie der Respekt und die Anerkennung der Leistungen der Vorgänger. Das Llama3-V-Team hat dies zweifellos schwer beschädigt. Sie haben die Datenbank von Huggingface gelöscht, nachdem sie befragt wurden. Es ist noch ein langer Weg, bis die Fehler korrigiert werden können Verbesserung.

Neue Erkenntnisse

Lassen Sie uns zunächst einen kurzen Blick auf diese große Melone werfen.

Um es in einem Satz zusammenzufassen: Einige Internetnutzer entdeckten, dass das multimodale große Modell Llama3-V des Stanford-Teams, das in letzter Zeit in der Open-Source-Community populär geworden ist, fast die gleiche Architektur und den gleichen Code wie das inländische MiniCPM-Llama3 hat -V 2.5 und listete viele auf. Die Beweise deuten direkt auf ein Llama3-V-Plagiat hin.

Als sich der Vorfall allmählich abspielte, löschte das KI-Team von Stanford die Datenbank und flüchtete, und das Wall-Facing Intelligence-Team leitete ebenfalls eine Untersuchung der Angelegenheit ein.

Liu Zhiyuan, Chefwissenschaftler für Wall-Facing Intelligence und ständiger außerordentlicher Professor der Tsinghua-Universität, nannte einen wichtigen Grund, warum Llama3-V die MiniCPM-Llama3-V 2.5-Shell ist, die genau die Erkennungsfähigkeit von Tsinghua Jane ist.

Dies ist die „Osterei“-Funktion von MiniCPM-Llama3-V 2.5. Sie wurden mit einem von der Tsinghua University Jane gescannten und kommentierten Datensatz trainiert. Es wurde nicht veröffentlicht. Die Leistung von Llama3-V ist genau die gleiche wie die von MiniCPM-Llama3-V 2.5. Nicht nur die richtigen Fragen sind die gleichen, sondern auch die Fehler sind die gleichen. Heute haben andere Internetnutzer auf der Grundlage der ersten Beweiswelle neue Hinweise entdeckt.

Einige Leute haben nach Untersuchungen herausgefunden, dass der Gewichtsunterschied fast jeder Schicht von Llama3-V einer Gaußschen Verteilung mit einem Mittelwert von 0 und einer Standardabweichung von 1,4e-3 entspricht.

Es wird also spekuliert, dass Llama3-V lediglich 套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型Geringes Varianzrauschen

direkt zur Gewichtung von MiniCPM hinzufügt.

Außerdem wurde bekannt, dass der große Bruder, der weggelaufen ist, Lao Mu, zuvor ein Buch über „Computer Network Design“ geschrieben und es auch kopiert hat套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型.

Nehmen Sie zufällig ein Kapitel aus dem Buch heraus und verwenden Sie einen Plagiatsdetektor, um es zu erkennen. Sie werden eine Reihe roter Punkte sehen:

套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型

套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型
套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型Und in der Autorenspalte davon Buch, laut Internetnutzern gibt es auch Siddha Viele Namen.
套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型Einige Internetnutzer glauben, dass noch untersucht werden muss, ob das Kopieren von Büchern wahr ist. Allerdings ist dieses Buch jetzt auch

404

.

套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型 Als Siddharth und Akshay in ihren Entschuldigungserklärungen über dieses Plagiat sprachen, erwähnten sie auch, dass der Grund, warum sie dieses Projekt mit Bruder Mu beworben hatten, darin bestand, dass sie zunächst von diesem multimodalen Modell begeistert waren. Mir gefielen insbesondere die auf Erweiterungen basierenden Architekturen zu Idefics, SigLip und UHD, beschrieben von Bruder Mu.
套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型

Aber tatsächlich haben Internetnutzer schon früh herausgefunden, dass sich die spezifische Implementierung von Llama3-V in vielen Aspekten wie dem räumlichen Modus von LLaVA-UHD unterscheidet, aber überraschenderweise mit MiniCPM-Llama3-V 2.5 übereinstimmt.

套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型Laut der MiniCPM-Llama3-V 2.5-Homepage ist MiniCPM-Llama3-V 2.5 das neueste Open-Source-Modell der wandorientierten intelligenten MiniCPM-V-Serie. Es basiert auf SigLip-400M und Llama3-8B-Instruct , mit insgesamt 8B Parametern.

In Bezug auf die Leistung erreichte MiniCPM-Llama3-V 2.5 auf OpenCompass eine durchschnittliche Punktzahl von 65,1 und übertraf damit proprietäre Modelle wie GPT-4V-1106, Gemini Pro, Claude 3, Qwen-VL-Max usw. deutlich Übertrifft andere multimodale Sprachmodelle basierend auf Llama 3.

Darüber hinaus verfügt MiniCPM-Llama3-V 2.5 auch über starke OCR-Fähigkeiten und erzielt auf OCRBench über 700 Punkte und übertrifft damit GPT-4o, GPT-4V-0409, Qwen-VL-Max und Gemini Pro.

套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型

Basierend auf der neuesten RLAIF-V-Methode weist MiniCPM-Llama3-V 2.5 eine Illusionsrate von 10,3 % auf Object HalBench auf, was ebenfalls niedriger ist als die 13,6 % von GPT-4V-1106.

„Chinas große Vorbilder wurden ignoriert“

Obwohl die Schuld schnell abgetan wurde, entdeckten Internetnutzer schnell die Lichtblicke in den Entschuldigungserklärungen von Akshay und Siddharth:

Ihr zwei habt nichts mitverfasst. Wenn ihr es nicht tut, ihr gilt als Projektautor, wenn Sie bei der Werbung helfen?

Als es angekündigt wurde, hieß es, es sei das Projekt von euch dreien, aber wenn etwas schief geht, wird die Schuld auf eine Person abgewälzt?

套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型

Wenn Lao Mu den gesamten Code alleine geschrieben hat, was macht ihr zwei dann, einfach posten?

套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型

Einige Internetnutzer haben ein kritischeres Thema angesprochen, was eine weitere hitzige Diskussion auslöste –

Hat die Open-Source-Community die großen Modellergebnisse aus China ignoriert?

Lucas Beyer, Google DeepMind-Forscher und ViT-Autor, erwähnte, dass Llama3-V kopiert wurde, die Kosten jedoch weniger als 500 US-Dollar betragen und der Effekt direkt mit den Gemini- und GPT-4-Open-Source-Modellen mithalten kann:

Aber im Vergleich zu Llama3-V hat MiniCPM viel weniger Aufmerksamkeit erhalten, auch ich.

Der Hauptgrund scheint zu sein, dass ein solches Modell aus einem chinesischen Labor stammt und nicht aus einer Ivy-League-Schule.

套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型

Omar Sanseviero, Leiter der Huaqiang-Plattform und -Community, brachte es direkter auf den Punkt:

Die Community hat die Arbeit des chinesischen Ökosystems für maschinelles Lernen ignoriert. Sie machen einige erstaunliche Dinge mit interessanten großen Sprachmodellen, großen Visionsmodellen, Audio- und Diffusionsmodellen.

Einschließlich Qwen, Yi, DeepSeek, Yuan, WizardLM, ChatGLM, CogVLM, Baichuan, InternLM, OpenBMB, Skywork, ChatTTS, Ernie, HunyunDiT und mehr.

套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型

Viele Internetnutzer stimmten dem zu: „Sie haben das derzeit beste Open-Source-VLM auf den Markt gebracht.“

套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型

Aus einer objektiveren Perspektive der großen Modelbranche ist diese Aussage wahr.

Im Bereich der visuellen Großmodelle, in dem Models einzeln gegeneinander antreten, belegte Yi-VL-Plus von 01Wansheng den fünften Platz und übertraf damit Googles Gemini Pro Vision. CogVLM, eine Zusammenarbeit zwischen Zhipu AI und der Tsinghua-Universität, schaffte es ebenfalls in die Top Ten.

套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型

Darüber hinaus schnitten auch DeepSeek, Tongyi Qianwen und die MiniCPM-Serie multimodaler Modelle, die dieses Mal plagiiert wurden, gut ab.

套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型

In der bekannteren Arena-Liste LMSYS Chatbot Arena Leaderboard stellen auch große Modelle aus China ständig neue Rekorde für „das leistungsfähigste Open Source“ auf.

套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型

Wie Lehrer Liu Zhiyuan sagte:

Aus horizontaler Sicht haben wir offensichtlich immer noch einen erheblichen Abstand zu internationalen Top-Unternehmen wie Sora und GPT-4o, während wir uns aus vertikaler Sicht schnell von einem Niemand vor mehr als zehn Jahren zu einem Marktführer entwickelt haben in der Technologieinnovation der künstlichen Intelligenz.

Diese Melone ist riesig, es gibt viele Leute, die sie essen, und was vielleicht noch wichtiger ist, einige Stereotypen brechen auf. Was denken Sie?

MiniCPM-Originalpapierhttps://arxiv.org/abs/2404.06395

Das obige ist der detaillierte Inhalt vonDer Granatenskandal macht den Direktor des Stanford AI Lab wütend! Zwei Mitglieder des Plagiatsteams nahmen die Schuld auf sich und eine Person verschwand, und sein Vorstrafenregister wurde aufgedeckt. Netizens: Chinas Open-Source-Modell neu verstehen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn