Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Das weltweit leistungsstärkste Open-Source-MoE-Modell ist da, mit chinesischen Fähigkeiten, die mit GPT-4 vergleichbar sind, und der Preis beträgt nur fast ein Prozent von GPT-4-Turbo

Das weltweit leistungsstärkste Open-Source-MoE-Modell ist da, mit chinesischen Fähigkeiten, die mit GPT-4 vergleichbar sind, und der Preis beträgt nur fast ein Prozent von GPT-4-Turbo

PHPz
PHPznach vorne
2024-05-07 16:13:20892Durchsuche

Stellen Sie sich ein Modell der künstlichen Intelligenz vor, das nicht nur die Fähigkeit besitzt, herkömmliche Computersysteme zu übertreffen, sondern auch eine effizientere Leistung zu geringeren Kosten erzielt. Das ist keine Science-Fiction, DeepSeek-V2[1], das weltweit leistungsstärkste Open-Source-MoE-Modell ist da.

全球最强开源 MoE 模型来了,中文能力比肩 GPT-4,价格仅为 GPT-4-Turbo 的近百分之一

DeepSeek-V2 ist ein leistungsstarkes Mix-of-Experts-Sprachmodell (MoE) mit den Merkmalen von wirtschaftlichem Training und effizienter Inferenz. Es besteht aus 236B Parametern, von denen 21B zur Aktivierung jedes Tags verwendet werden. Im Vergleich zu DeepSeek 67B bietet DeepSeek-V2 eine stärkere Leistung, spart gleichzeitig 42,5 % der Trainingskosten, reduziert den KV-Cache um 93,3 % und erhöht den maximalen Generierungsdurchsatz auf das 5,76-fache.

DeepSeek ist ein Unternehmen, das die Natur der allgemeinen künstlichen Intelligenz (AGI) erforscht und sich der Integration von Forschung, Technik und Wirtschaft verschrieben hat.

Die umfassenden Funktionen von DeepSeek-V2

In der aktuellen Mainstream-Liste großer Modelle schneidet DeepSeek-V2 gut ab:

  • Das stärkste unter den chinesischen Open-Source-Modellen mit umfassenden Funktionen (AlignBench): mit GPT-4-Turbo, Closed-Source-Modelle wie Wenxin 4.0 liegen in der Bewertung auf der gleichen Stufe.
  • Die umfassenden Englischkenntnisse (MT-Bench) stehen auf der ersten Stufe: Die umfassenden Englischkenntnisse (MT-Bench) liegen auf der gleichen Stufe wie das stärkste Open-Source-Modell LLaMA3-70B, übertrifft das stärkste MoE-Open-Source-Modell Mixtral 8x22B Das Potenzial von KI wird ständig erforscht. Beim Graben kommen wir nicht umhin zu fragen: Was ist der Schlüssel zur Förderung intelligenten Fortschritts?
  • DeepSeek-V2 gibt die Antwort – die perfekte Kombination aus innovativer Architektur und Kosteneffizienz
  • .
  • "DeepSeek-V2 ist eine verbesserte Version. Mit einem Gesamtparameter von 236B und einer Aktivierung von 21B erreicht es endlich die Leistungsfähigkeit des 70B~110B Dense-Modells. Gleichzeitig beträgt der Speicherverbrauch nur 1/5~1/ 100 des gleichen Modells können auf dem 8-Karten-H800-Gerät mehr als 100.000 Token pro Sekunde verarbeiten und mehr als 50.000 Token pro Sekunde ausgeben. Dies ist nicht nur ein Technologiesprung, sondern auch eine Kostenrevolution Kontrolle. „
Mit der rasanten Entwicklung der KI-Technologie. Heute stellt das Aufkommen von DeepSeek-V2 nicht nur einen technologischen Durchbruch dar, sondern läutet auch die Popularisierung intelligenter Anwendungen ein. Es senkt die Hemmschwelle für KI und ermöglicht es mehr Unternehmen und Einzelpersonen, die Vorteile effizienter intelligenter Dienste zu nutzen. Gleichzeitig läutet es auch die Popularisierung intelligenter Anwendungen ein. Es senkt die Hemmschwelle für KI und ermöglicht es mehr Unternehmen und Einzelpersonen, die Vorteile effizienter intelligenter Dienste zu nutzen.

全球最强开源 MoE 模型来了,中文能力比肩 GPT-4,价格仅为 GPT-4-Turbo 的近百分之一

Chinesische Funktionalität im Vergleich zum Preis

In Bezug auf die chinesische Funktionalität ist DeepSeek-V2 im AlignBench-Ranking weltweit führend und bietet gleichzeitig äußerst wettbewerbsfähige API-Preise.

Das Modell und das Papier sind beide Open Source

DeepSeek-V2 ist nicht nur ein Modell, es ist der Schlüssel zu einer intelligenteren Welt. Es eröffnet ein neues Kapitel für KI-Anwendungen mit geringeren Kosten und höherer Leistung. Die offene Quelle von DeepSeek-V2 ist der beste Beweis für diese Überzeugung. Sie wird den Innovationsgeist von mehr Menschen wecken und gemeinsam die Zukunft der menschlichen Intelligenz fördern.

Modellgewichte: https://huggingface.co/deepseek-ai

Open-Source-Adresse: https://github.com/deepseek-ai/DeepSeek-V2

全球最强开源 MoE 模型来了,中文能力比肩 GPT-4,价格仅为 GPT-4-Turbo 的近百分之一全球最强开源 MoE 模型来了,中文能力比肩 GPT-4,价格仅为 GPT-4-Turbo 的近百分之一Was tun wir heute, wenn sich die KI weiterentwickelt? Sie denken an DeepSeek – Wie wird V2 unsere Welt verändern? Lassen Sie uns abwarten. Wenn Sie interessiert sind, können Sie

chat.deepseek.com

besuchen, um die technologischen Veränderungen, die DeepSeek-V2 mit sich bringt, selbst zu erleben.

  • Referenzen
[1]

DeepSeek-V2:https://www.php.cn/link/b2651c9921723afdfd04ed61ec302a6b

Das obige ist der detaillierte Inhalt vonDas weltweit leistungsstärkste Open-Source-MoE-Modell ist da, mit chinesischen Fähigkeiten, die mit GPT-4 vergleichbar sind, und der Preis beträgt nur fast ein Prozent von GPT-4-Turbo. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen