Heim > Artikel > Technologie-Peripheriegeräte > Meta plant, im nächsten Jahr eine neue Open-Source-Version des großen GPT-4-Level-Modells zu veröffentlichen. Die Anzahl der Parameter wird um ein Vielfaches höher sein als die von Llama 2. Benutzer können es kostenlos kommerziell nutzen.
Laut dem ausländischen Medium „Wall Street Journal“ treibt Meta die Entwicklung eines neuen großen Sprachmodells voran, dessen Fähigkeiten vollständig an GPT-4 angepasst werden und voraussichtlich im nächsten Jahr eingeführt werden.
In den Nachrichten wurde auch ausdrücklich betont, dass Metas neues großes Sprachmodell um ein Vielfaches größer sein wird als Llama 2, höchstwahrscheinlich Open Source sein und die kostenlose kommerzielle Nutzung unterstützen wird.
Seit Meta „versehentlich“ LlaMA zu Beginn des Jahres durchgesickert ist, bis zur Open-Source-Veröffentlichung von Llama 2 im Juli, hat Meta nach und nach seine einzigartige Position in dieser KI-Welle gefunden – das Banner der KI-Open-Source Gemeinschaft.
Das Personal ändert sich ständig und die Modellfunktionen sind fehlerhaft, sodass wir uns nur auf Open-Source-Software verlassen können, um das Problem zu lösen
Zu Beginn des Jahres, nachdem OpenAI die Technologiebranche mit GPT zum Explodieren gebracht hatte -4 haben Google und Microsoft auch ihre eigenen KI-Produkte auf den Markt gebracht.
Im Mai luden US-Regulierungsbehörden CEOs führender Unternehmen, die sie damals für relevant für die KI-Branche hielten, zu einem Rundtischgespräch ein, um die Entwicklung der KI-Technologie zu diskutieren.
OpenAI, Google und Microsoft wurden zur Teilnahme eingeladen, und sogar das Startup Anthropic, aber Meta erschien nicht. Damals lautete die offizielle Antwort auf den Grund für Metas Abwesenheit: „Wir haben nur die Top-Unternehmen der KI-Branche eingeladen.“
Xiao Zha erhielt Anfang Juni ein Anfrageschreiben vom Kongress, in dem er gebeten wurde, die Ursache und Auswirkungen des LlaMA-Lecks im März ausführlich zu erläutern. Der Brief war streng formuliert und die Anforderungen waren sehr klar
In den folgenden Monaten, auch nach der Veröffentlichung von Llama 2, ging das KI-Team, für dessen Aufbau Meta viel Geld ausgegeben hatte, immer noch allmählich zurück auseinander.
In den Danksagungen von Llama 2 wurden die vier Teammitglieder erwähnt, die diese Forschung zuerst initiiert haben, von denen drei zurückgetreten sind, und derzeit arbeitet nur noch Edouard Grave bei Meta Company
Branchenriese Auch He Kaiming
wird Meta verlassen und in die Wissenschaft zurückkehren....
In diesem Zusammenhang sollte Xiao Zha selbst auch sehr gut wissen, dass Metas eigenes großes Sprachmodell tatsächlich nicht in der Lage ist, mit dem modernsten GPT-4 der Branche zu konkurrieren.
Ob aus verschiedenen Richtungen von Benchmark-Tests oder Benutzer-Feedback, die Lücke zwischen Llama 2 und GPT-4 ist immer noch sehr groß
In verschiedenen Benchmark-Tests gibt es das Open-Source-Llama 2 und Es gibt eine beträchtliche Lücke zwischen GPT-4
GPT-4 zeigt in der tatsächlichen Erfahrung der Internetnutzer immer noch einen klaren Vorsprung vor Llama 2
Deshalb beschloss Xiao Zha, Meta weiterhin wild auf dem Weg der Open-Source-Modelle laufen zu lassen
Vielleicht ist Xiao Zhas Gedanke dahinter folgender: Metas Modellfähigkeiten sind durchschnittlich und können nicht mit den großen Closed-Source-Modellen mithalten. Daher macht es keinen Sinn, die Bedeutung weiterhin geheim zu halten. Öffnen Sie daher einfach die Quelle und lassen Sie die KI-Community weiterhin basierend auf ihren eigenen Modellen iterieren, um den Einfluss ihrer Produkte in der Branche zu erweitern.
Rolle bei ihren Modelliterationen. Sie ermöglichen es ihrem technischen Team, in Zukunft wettbewerbsfähigere Produkte zu entwickeln das zukünftige Modell.
Siehe: https://lexfridman.com/mark-zuckerberg-2/
Und die Fakten haben bewiesen, dass Metas Wahl tatsächlich richtig ist.
Obwohl es in Bezug auf Rechenressourcen und technische Stärke nicht so gut ist wie Google und OpenAI, sind Open-Source-Modelle wie Metas Llama 2 in ihrer Attraktivität für die Open-Source-Community immer noch unübertroffen. Während Llama 2 langsam zur „technischen Basis“ der KI-Open-Source-Community wird, hat Meta auch eine eigene ökologische Nische in der Branche gefunden.
Das offensichtlichste Zeichen ist, dass Xiao Zha bei der nichtöffentlichen Kongress-KI-Sitzung im September schließlich Gast der Regulierungsbehörden wurde und gemeinsam mit den CEOs der innovativsten Unternehmen in China als Vertreter fungierte Machen Sie in der Branche wie Google und OpenAI Ihre eigene Stimme zur Regulierung der KI-Branche.
Und wenn das im nächsten Jahr von Meta eingeführte neue Modell weiterhin Fortschritte machen und die gleichen Fähigkeiten wie GPT-4 erlangen kann, wird es einerseits der Open-Source-Community ermöglichen, die Lücke weiter zu schließen mit den Closed-Source-Giganten, und es wird sich festigen: „Die Lücke zwischen der Open-Source-Community und dem fortschrittlichsten Niveau der Branche beträgt etwa ein Jahr.“
Andererseits verriet Xiao Zha im Interview auch, dass Meta möglicherweise ein eigenes Closed-Source-Modell auf den Markt bringt, wenn die Fähigkeiten großer Modelle in Zukunft weiter verbessert werden. Wenn das neue Modell sich weiter an die Branchen-SOTA annähern kann, ist es möglicherweise nicht mehr weit, bis Meta ein eigenes Closed-Source-Modell auf den Markt bringt.
Obwohl Meta in dieser KI-Welle vorübergehend zurückzubleiben scheint, gibt sich Xiao Zha nicht damit zufrieden, nur ein Mitläufer zu sein
Unter der Führung von Yann Lecun bereitet sich Meta auch darauf vor, die gesamte Branche zu untergraben
Meta Die Zukunft
Wie wird also nach diesem legendären, mysteriösen großen Modell, das es mit GPT-4 aufnehmen kann, die Zukunft von Meta AI aussehen?
Das beliebte GPT war schon immer der Weg zur Entwicklung künstlicher Intelligenz, den LeCun kritisierte und verachtete.
Am 4. Februar dieses Jahres äußerte LeCun unverblümt seine Meinung, dass große Sprachmodelle der falsche Weg auf dem Weg zur KI auf menschlicher Ebene seien höchstens 5 Jahre überleben, da diese künstlichen Intelligenzen nur auf große Textmengen trainiert werden und die reale Welt nicht verstehen können.
Diese Modelle können weder planen noch argumentieren, sie haben nur die Fähigkeit, Kontext zu lernen
Im Ernst, diese auf LLM trainierten künstlichen Intelligenzen haben fast überhaupt keine „Intelligenz“.
Was LeCun erwartet, ist ein „Weltmodell“, das zu AGI führen kann.
Das Weltmodell kann lernen, wie die Welt funktioniert, schneller lernen, komplexe Aufgaben planen und jederzeit auf unbekannte neue Situationen reagieren.
Dies unterscheidet sich von LLM, das viel Vorschulung erfordert. Das Weltmodell kann Muster aus Beobachtungen finden, sich an neue Umgebungen anpassen und neue Fähigkeiten wie Menschen erlernen.
Meta strebt nach einer diversifizierten Modellentwicklung im LLM-Bereich. Am 14. Juni dieses Jahres veröffentlichte Meta ein „menschenähnliches“ Modell für künstliche Intelligenz, I-JEPA ist auch das erste KI-Modell in der Geschichte, das auf wichtigen Teilen von LeCuns Weltmodellvision basiert.
Bitte klicken Sie auf den folgenden Link, um das Papier anzuzeigen: https://arxiv.org/abs/2301.08243
I-JEPA ist in der Lage, abstrakte Darstellungen in Bildern zu verstehen und sich durch Selbstvertrauen gesunden Menschenverstand anzueignen. Überwachtes Lernen
I-JEPA erfordert keine zusätzlichen manuellen Produktionskenntnisse als Hilfsmittel
Anschließend brachte Meta Voicebox auf den Markt, ein neues innovatives Sprachgenerierungssystem, das auf einer neuen von Meta AI vorgeschlagenen Methode basiert – Flow Matching
Es kann Sprache in sechs Sprachen synthetisieren, Vorgänge wie Rauschunterdrückung, Bearbeitung von Inhalten und Konvertierung von Audiostilen ausführen.
Meta hat außerdem einen universellen verkörperten KI-Agenten veröffentlicht
Mit sprachgesteuerter Fähigkeitskoordination (LSC) kann sich der Roboter in bestimmten vorab kartierten Umgebungen frei bewegen und Gegenstände aufnehmen
im Multi-Mode-In Bei der Entwicklung modaler Modelle verfügt Meta über eine einzigartige Funktion:
ImageBind, das erste Modell für künstliche Intelligenz, das Informationen aus sechs verschiedenen Modalitäten binden kann.
Es verfügt über umfassende maschinelle Verständnisfähigkeiten und kann Objekte in Fotos mit ihren Geräuschen, dreidimensionalen Formen, Temperaturen und Bewegungen verknüpfen.
Der von Meta AI und CMU_Robotics gemeinsam entwickelte RoboAgent ermöglicht es Robotern, eine zu erwerben eine Vielzahl nicht-trivialer Fähigkeiten und verallgemeinern sie auf Hunderte von Lebensszenarien.
Die Daten für alle diese Szenarien sind um eine Größenordnung geringer als bei früheren Arbeiten in diesem Bereich.
In Bezug auf das dieses Mal enthüllte Modell äußerten einige Internetnutzer die Hoffnung, dass sie den Quellcode weiterhin öffnen werden.
Einige Internetnutzer sagten jedoch, dass Meta erst Anfang 2024 mit dem Training beginnen wird.
Das obige ist der detaillierte Inhalt vonMeta plant, im nächsten Jahr eine neue Open-Source-Version des großen GPT-4-Level-Modells zu veröffentlichen. Die Anzahl der Parameter wird um ein Vielfaches höher sein als die von Llama 2. Benutzer können es kostenlos kommerziell nutzen.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!