Heim > Artikel > Technologie-Peripheriegeräte > Google kündigte eine neue Generation von KI-Supercomputern an und sagte, dieser sei schneller und energieeffizienter als NVIDIA A100
Nachrichten vom 5. April, Ortszeit am Dienstag, Alphabets Google gab einige neue Details bekannt und stellte einen Supercomputer vor, der zum Trainieren von Modellen der künstlichen Intelligenz verwendet wird, und sagte, er sei leistungsstärker als das System des A100-Chips von Nvidia. Schneller und energiereicher effizient.
Google hat seine eigenen benutzerdefinierten Chips namens Tensor Processing Unit (TPU) entwickelt und verwendet diese Chips in mehr als 90 % der Trainingsarbeit für künstliche Intelligenz. Bei diesem Prozess werden die Daten mithilfe eines Modells trainiert, um ihre Nützlichkeit bei Aufgaben wie der Reaktion auf menschliche Texte oder der Bilderzeugung zu verbessern.
Derzeit ist Google TPU in der vierten Generation angekommen. Google hat am Dienstag ein wissenschaftliches Papier veröffentlicht, in dem detailliert beschrieben wird, wie es mithilfe spezieller optischer Schalter, die es entwickelt hat, mehr als 4.000 Chips zu einem Supercomputer verbindet.
Für Unternehmen, die KI-Supercomputer bauen, ist die Verbesserung dieser Verbindungen zu einem entscheidenden Punkt im Wettbewerb geworden, da die sogenannten groß angelegten Sprachmodelle, die Googles Technologie vorantreiben, immer größer werden und nicht mehr auf einem einzigen Chip gespeichert werden können wie Bard oder OpenAIs ChatGPT.
Solche Modelle müssen auf Tausende von Chips verteilt werden, die dann über Wochen oder länger zusammenarbeiten, um das Modell zu trainieren. Das PaLM-Modell von Google, das bisher größte öffentlich zugängliche Sprachmodell, wurde 50 Tage lang auf zwei Supercomputern mit 4.000 Chips trainiert.
Google sagt, sein Supercomputer könne Verbindungen zwischen Chips einfach und dynamisch neu konfigurieren und so Ausfälle vermeiden und die Leistung optimieren.
„Durch Schaltkreisumschaltung können wir ausgefallene Komponenten einfach umgehen“, schrieben Google Senior Researcher Norm Jouppi und Google Distinguished Engineer David Patterson in einem Blogbeitrag über das System. „Diese Flexibilität ermöglicht es uns sogar, die Topologie des Supercomputer-Verbindungsnetzwerks zu ändern, um die Leistung von ML-Modellen (maschinelles Lernen) zu beschleunigen.“ Seine Supercomputer werden seit 2020 in einem Rechenzentrum in Mayes County, Oklahoma, betrieben. Laut Google nutzte das Startup Midjourney das System, um sein Modell zu trainieren, das nach Eingabe einiger Textwörter neue Bilder generieren kann.
Google sagte in der Zeitung, dass sein Supercomputer im Vergleich zu Systemen gleicher Größe 1,7-mal schneller und 1,9-mal energieeffizienter sei als ein System auf Basis des Nvidia-A100-Chips. Es wird davon ausgegangen, dass der A100-Chip früher auf den Markt kam als das TPU der vierten Generation.
Google gab an, das TPU der vierten Generation nicht mit Nvidias aktuellem Flaggschiff-H100-Chip verglichen zu haben, da der H100 nach der Anwendung dieses Chips durch Google auf den Markt kam und neuere Technologie verwendet.
Google hat angedeutet, dass es eine neue TPU entwickelt, die mit Nvidia H100 konkurrieren wird, machte aber keine Angaben. Jouppi sagte den Medien, dass Google über „ausreichende Reserven an zukünftigen Chips“ verfüge.
Das obige ist der detaillierte Inhalt vonGoogle kündigte eine neue Generation von KI-Supercomputern an und sagte, dieser sei schneller und energieeffizienter als NVIDIA A100. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!