Heim >Technologie-Peripheriegeräte >KI >Google veröffentlicht KI-Chip der fünften Generation: Er beschleunigt die Trainings- und Laufgeschwindigkeit von KI-Modellen um das Fünffache
Google hat den benutzerdefinierten Tensorprozessor (TPU)-Chip TPU v5e der fünften Generation für das Training und die Inferenz großer Modelle auf den Markt gebracht. Der neue Chip macht das Trainieren und Ausführen von KI-Modellen fünfmal schneller. Im Vergleich zum Chip der vorherigen Generation verbessert TPU v5e die Trainingsleistung um das Zweifache pro Dollar und die Inferenzleistung um das 2,5-fache pro Dollar
Googles benutzerdefinierter Tensorprozessor (TPU)-Chip der fünften Generation, TPU v5e, wird für das Training und die Inferenz großer Modelle verwendet, was dazu führt, dass KI-Modelle bis zu fünfmal schneller trainiert und ausgeführt werden
Bei Google Cloud Next, der jährlichen Google Cloud-Konferenz in San Francisco, stellte Google einen neuen Chip für künstliche Intelligenz vor – den benutzerdefinierten Tensorprozessor (TPU)-Chip TPU v5e der fünften Generation, der für groß angelegtes Modelltraining und Inferenz verwendet wird. Im Vergleich zum Chip der vorherigen Generation verbessert TPU v5e die Trainingsleistung pro Dollar um das Zweifache und die Inferenzleistung pro Dollar um das 2,5-fache
Google hat einen speziellen Chip-TPU für neuronale Netze entwickelt, der durch Optimierung das Training und die Schlussfolgerung von Modellen für maschinelles Lernen beschleunigen kann. Das TPU der ersten Generation wurde 2016 auf den Markt gebracht, und das kundenspezifische Prozessor-TPU der vierten Generation wurde 2021 veröffentlicht und wird 2022 für Entwickler verfügbar sein. Cloud TPU ist eine Funktion von Google Cloud Services und eignet sich für große und komplexe Deep-Learning-Modelle, die große Mengen an Matrixberechnungen erfordern, wie zum Beispiel große Sprachmodelle, Proteinfaltungsmodelle und Arzneimittelentwicklung. Der Einsatz von Cloud-TPUs kann Unternehmen dabei helfen, bei der Implementierung von KI-Workloads Geld und Zeit zu sparen
Google Cloud hat TPU v5e auf den Markt gebracht, das für die Trainings- und Inferenzanforderungen mittlerer und großer Modelle konzipiert ist. Diese Version des Chips konzentriert sich auf die Effizienz. Im Vergleich zur vorherigen Generation von TPU v4 ist die Trainingsleistung pro Dollar um das Zweifache und die Inferenzleistung pro Dollar um das 2,5-fache verbessert, während die Kosten weniger als die Hälfte von TPU v4 betragen . Dies ermöglicht es mehr Unternehmen, größere und komplexere KI-Modelle zu trainieren und einzusetzen, ohne Einbußen bei Leistung oder Flexibilität hinnehmen zu müssen. Google Cloud beschreibt TPU v5e als „Supercomputer“, der die Verbindung von bis zu 256 Chips mit einer Gesamtbandbreite von mehr als 400 Tbit/s unterstützt und acht verschiedene Konfigurationen virtueller Maschinen bietet, um eine Vielzahl großer Sprachmodelle und generativer Modelle abzudecken Künstliche Intelligenz Anforderungen an intelligente Modelle. Laut Geschwindigkeitsbenchmarks ist das Training und Ausführen von KI-Modellen mit TPU v5e 5x schneller
Laut Technologiemedien TechCrunch sagte Mark Lohmeyer, Vizepräsident und General Manager von Google Cloud Computing und Machine Learning Infrastructure: „Dies ist die bislang kostengünstigste und zugänglichste Cloud-TPU.“ Lohmeyer betonte, dass Google Cloud den Nutzern Sicherheit bietet können ihre TPU-Cluster auf ein bisher unerreichtes Niveau skalieren, sodass Kunden ihre Modelle für künstliche Intelligenz problemlos über die physischen Grenzen eines einzelnen TPU-Clusters hinaus erweitern können. Das heißt, ein einzelner großer Workload mit künstlicher Intelligenz kann sich über mehrere physische TPU-Cluster erstrecken und kostengünstig auf Zehntausende Chips skaliert werden. „Wenn es um Cloud-GPUs und Cloud-TPUs geht, bieten wir unseren Kunden eine große Auswahl und Flexibilität, um der breiten Nachfrage nach KI-Workloads gerecht zu werden.“Neben der Einführung einer neuen Generation von TPU kündigte Google Cloud auch an, im nächsten Monat virtuelle Maschinen der A3-Serie auf Basis der NVIDIA H100-GPU auf den Markt zu bringen, die in Form von GPU-Supercomputern bereitgestellt werden, um leistungsstarke Rechenleistung für große künstliche Maschinen bereitzustellen Intelligenzmodelle
Das obige ist der detaillierte Inhalt vonGoogle veröffentlicht KI-Chip der fünften Generation: Er beschleunigt die Trainings- und Laufgeschwindigkeit von KI-Modellen um das Fünffache. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!