Heim >Technologie-Peripheriegeräte >KI >Yancore Digital veröffentlicht ein groß angelegtes Nicht-Attention-Mechanismusmodell, das die Offline-Bereitstellung auf der Geräteseite unterstützt

Yancore Digital veröffentlicht ein groß angelegtes Nicht-Attention-Mechanismusmodell, das die Offline-Bereitstellung auf der Geräteseite unterstützt

WBOY
WBOYnach vorne
2024-01-26 08:24:061152Durchsuche

Am 24. Januar startete Shanghai Yanxinshuzhi Artificial Intelligence Technology Co., Ltd. ein großes allgemeines natürliches Sprachmodell ohne Aufmerksamkeitsmechanismus – das Yan-Modell. Laut der Pressekonferenz von Yancore Digital Intelligence verwendet das Yan-Modell eine neue selbst entwickelte „Yan-Architektur“, um die Transformer-Architektur zu ersetzen. Im Vergleich zur Transformer-Architektur verfügt die Yan-Architektur über eine um das Dreifache erhöhte Speicherkapazität und eine um das Siebenfache erhöhte Geschwindigkeit Zeiten bei gleichzeitiger Verbesserung des Inferenzdurchsatzes um das Fünffache. Yancore Digital veröffentlicht ein groß angelegtes Nicht-Attention-Mechanismusmodell, das die Offline-Bereitstellung auf der Geräteseite unterstütztLiu Fanping, CEO von Yancore Digital Intelligence, glaubt, dass die hohe Rechenleistung und die hohen Kosten von Transformer, das für seine große Reichweite in der Praxis bekannt ist, viele kleine und mittlere Unternehmen entmutigt haben. Die Komplexität seiner internen Architektur macht es schwierig, den Entscheidungsprozess zu erklären; die Schwierigkeit, lange Sequenzen zu verarbeiten, und das Problem unkontrollierbarer Halluzinationen schränken auch die breite Anwendung großer Modelle in bestimmten Schlüsselbereichen und speziellen Szenarien ein. Mit der Popularisierung von Cloud Computing und Edge Computing wächst die Nachfrage der Branche nach groß angelegten KI-Modellen mit hoher Leistung und geringem Energieverbrauch.
„Weltweit haben viele herausragende Forscher versucht, die übermäßige Abhängigkeit von der Transformer-Architektur grundlegend zu lösen und nach besseren Möglichkeiten zu suchen, Transformer zu ersetzen. Sogar Llion Jones, einer der Autoren des Transformer-Artikels, untersucht ebenfalls „Möglichkeiten nach Transformer“. versucht, eine von der Natur inspirierte intelligente Methode zu verwenden, die auf evolutionären Prinzipien basiert, um eine Neudefinition des KI-Frameworks aus verschiedenen Blickwinkeln zu erstellen des Yan-Architekturmodells sind 7-mal bzw. 5-mal so groß wie die der Transformer-Architektur, und die Speicherkapazität ist um das Dreifache verbessert. Das Design der Yan-Architektur sorgt dafür, dass die räumliche Komplexität des Yan-Modells während der Inferenz konstant bleibt. Daher schneidet das Yan-Modell auch bei den langen Sequenzproblemen des Transformers gut ab. Vergleichsdaten zeigen, dass auf einer einzelnen 4090 24G-Grafikkarte das Transformer-Modell unter unzureichendem Videospeicher leidet, wenn die Länge des Modellausgabetokens 2600 überschreitet, während die Videospeichernutzung des Yan-Modells immer stabil bei etwa 14G liegt Ermöglicht theoretisch die Inferenz unendlicher Länge.

Yancore Digital veröffentlicht ein groß angelegtes Nicht-Attention-Mechanismusmodell, das die Offline-Bereitstellung auf der Geräteseite unterstütztDarüber hinaus entwickelte das Forschungsteam eine sinnvolle Korrelationscharakteristikfunktion und einen Speicheroperator in Kombination mit linearen Berechnungsmethoden, um die Komplexität der internen Struktur des Modells zu reduzieren. Das Yan-Modell unter der neuen Architektur wird die „uninterpretierbare Blackbox“ der natürlichen Sprachverarbeitung in der Vergangenheit öffnen, die Transparenz und Erklärbarkeit des Entscheidungsprozesses vollständig erforschen und so die weit verbreitete Verwendung großer Modelle in Hochrisikobereichen erleichtern wie medizinische Versorgung, Finanzen und Recht.

Yancore Digital veröffentlicht ein groß angelegtes Nicht-Attention-Mechanismusmodell, das die Offline-Bereitstellung auf der Geräteseite unterstützt

Liu Fanping sagte, dass das Yan-Modell privatisierte Bereitstellungsanwendungen zu 100 % unterstützt und verlustfrei auf Endgeräten wie Mainstream-CPUs für Endverbraucher ohne Clipping oder Komprimierung ausgeführt werden kann, wodurch der gleiche Effekt erzielt wird wie bei anderen Modellen, die auf GPUs ausgeführt werden. Auf der Pressekonferenz zeigte Yan Echtzeit-Clips, die auf einem Laptop laufen, nachdem er offline war. Liu Fanping sagte, dass der Offline-End-Side-Einsatz in Zukunft eine wichtige Kommerzialisierungsrichtung von Core Intelligence werden wird.

Das obige ist der detaillierte Inhalt vonYancore Digital veröffentlicht ein groß angelegtes Nicht-Attention-Mechanismusmodell, das die Offline-Bereitstellung auf der Geräteseite unterstützt. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:jiqizhixin.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen