Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Fordern Sie NVIDIA heraus! AMD bringt einen KI-Chip auf den Markt, der größere Modelle betreiben und Gedichte schreiben kann

Fordern Sie NVIDIA heraus! AMD bringt einen KI-Chip auf den Markt, der größere Modelle betreiben und Gedichte schreiben kann

WBOY
WBOYnach vorne
2023-06-15 11:47:45503Durchsuche

挑战英伟达!AMD推出能运行更大模型的AI芯片 也能写诗

Der zweitgrößte Player auf dem Markt für KI-Rechenleistung und Chiphersteller AMD hat eine neue GPU-Serie MI300 mit künstlicher Intelligenz auf den Markt gebracht, um mit Nvidia auf dem Markt für künstliche Intelligenz-Rechenleistung zu konkurrieren.

Am frühen Morgen des 14. Juni, Pekinger Zeit, veranstaltete AMD wie geplant die „Premiere von AMD-Rechenzentren und künstlicher Intelligenz-Technologie“ und stellte bei dem Treffen die KI-Prozessor-Serie MI300 vor. Der speziell für große Sprachmodelle optimierte MI300X wird noch in diesem Jahr an eine ausgewählte Kundengruppe ausgeliefert.

AMD-CEO Su Zifeng stellte erstmals den MI300A vor, den weltweit ersten Beschleuniger mit beschleunigtem Prozessor (APU) für KI und Hochleistungsrechnen (HPC). Es gibt 146 Milliarden Transistoren, verteilt auf 13 Chiplets. Im Vergleich zur Vorgängergeneration MI250 ist die Leistung des MI300 achtmal höher und die Effizienz fünfmal höher.

Anschließend kündigte Su Zifeng das am meisten diskutierte Produkt dieser Konferenz an: den MI300X, eine für große Sprachmodelle optimierte Version.

„Ich mag diesen Chip“, sagte Su Zifeng. Der MI300X-Chip und seine CDNA-Architektur sind für große Sprachmodelle und andere hochmoderne Modelle der künstlichen Intelligenz konzipiert.

Große Sprachmodelle für generative KI-Anwendungen verbrauchen viel Speicher, da sie immer mehr Berechnungen ausführen. AMD demonstrierte den MI300X mit einem Falcon-Modell mit 40 Milliarden Parametern. Das GPT-3-Modell von OpenAI verfügt über 175 Milliarden Parameter.

Sie nutzte auch das große Modell von Hugging Face auf Basis des MI300X, um ein Gedicht über San Francisco zu schreiben, wo die Veranstaltung stattfand.

Su Zifeng sagte, dass die von MI300X bereitgestellte HBM-Dichte (Hochbandbreitenspeicher) 2,4-mal so hoch ist wie die von NVIDIA H100 und die HBM-Bandbreite 1,6-mal so hoch ist wie die von Konkurrenzprodukten. Dies bedeutet, dass AMD größere Modelle als den Nvidia H100 betreiben kann.

„Die Modellgrößen werden immer größer, und man benötigt tatsächlich mehrere GPUs, um die neuesten großen Sprachmodelle auszuführen“, betonte Su Zifeng, dass Entwickler mit der Erhöhung des Speichers auf AMD-Chips nicht mehr so ​​viele GPUs benötigen werden, was durchaus möglich ist Wird für Benutzer verwendet, um Kosten zu sparen.

AMD gab außerdem bekannt, dass es eine Infinity-Architektur einführen wird, die 8 M1300X-Beschleuniger in einem System integriert. Ähnliche Systeme werden von Nvidia und Google entwickelt, die acht oder mehr GPUs in einer Box für Anwendungen der künstlichen Intelligenz vereinen.

Ein guter Chip ist nicht nur das Produkt selbst, sondern braucht auch ein gutes Ökosystem. Ein Grund dafür, dass KI-Entwickler in der Vergangenheit Nvidia-Chips bevorzugt haben, ist, dass sie über ein gut entwickeltes Softwarepaket namens CUDA verfügen, das ihnen Zugriff auf die Kern-Hardwarefunktionalität des Chips ermöglicht.

Um NVIDIAs CUDA zu vergleichen, hat AMD seine eigene Chip-Software „ROCm“ auf den Markt gebracht, um ein eigenes Software-Ökosystem zu schaffen.

Su Zifeng sagte Investoren und Analysten außerdem, dass künstliche Intelligenz die „größte und strategischste langfristige Wachstumschance“ des Unternehmens sei: „Wir glauben, dass der Beschleuniger (Markt) für künstliche Intelligenz im Rechenzentrum mit einer Gesamtrate von mehr als 50 % wachsen wird.“ . Die jährliche Wachstumsrate wird von etwa 30 Milliarden US-Dollar in diesem Jahr auf über 150 Milliarden US-Dollar im Jahr 2027 steigen.“

Große Sprachmodelle wie ChatGPT erfordern für Berechnungen die leistungsstärksten GPUs. Mit einem Marktanteil von 80 % ist NVIDIA derzeit absolut im Vorteil, während AMD als starker Herausforderer gilt.

Obwohl AMD den Preis nicht bekannt gegeben hat, könnte dieser Schritt den Preisdruck auf Nvidia-GPUs ausüben, wie beispielsweise die H100 des letzteren, die mehr als 30.000 US-Dollar erreichen kann. Sinkende GPU-Preise können dazu beitragen, die hohen Kosten für die Erstellung von KI-Anwendungen zu senken.

Allerdings befanden sich viele Produkte von AMD auf dieser Konferenz in einer „führenden“ Position in Bezug auf die Leistung, aber der Kapitalmarkt trieb den Aktienkurs von AMD nicht in die Höhe, sondern schloss stattdessen mit einem Minus von 3,61 %, während sein Konkurrent Nvidia mit einem Plus von 3,90 % schloss. , und sein Marktwert schloss bei über der 1-Billionen-Dollar-Marke.

【Quelle: The Paper】

Das obige ist der detaillierte Inhalt vonFordern Sie NVIDIA heraus! AMD bringt einen KI-Chip auf den Markt, der größere Modelle betreiben und Gedichte schreiben kann. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:sohu.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen