Heim >Technologie-Peripheriegeräte >KI >NVIDIA bringt die L40S-GPU auf den Markt, die KI-Inferenzleistung übertrifft A100 um etwa das 1,2-fache
Laut IT House-Nachrichten vom 10. August hat NVIDIA kürzlich die neue NVIDIA L40S-GPU und das mit der GPU ausgestattete OVX-Serversystem auf den Markt gebracht. Dokumente zu dieser Technologie finden Sie hier
▲ Bildquelle: Offizielle NVIDIA-Website
Es wird berichtet, dass diese L40S-GPU in Kombination mit dem neu veröffentlichten OVX-Server im Vergleich zur A100-GPU für KI-Training und -Inferenz, 3D-Design, Visualisierung, Videoverarbeitung, industrielle Digitalisierung und andere Zwecke verwendet werden kann von „sich ergänzen“ Das L40S-System kann „generative KI-, Grafik- und Videoverarbeitungsfunktionen verbessern und den wachsenden Bedarf an Rechenleistung decken.“
Laut der Untersuchung von IT House haben wir erfahren, dass es sich bei der L40S-GPU um eine aktualisierte Version der vorherigen L40-GPU von NVIDIA mit 48 GB GDDR6 ECC-Videospeicher handelt. Die GPU basiert auf der Ada Lovelace-Architektur und ist mit dem Tensor Core und der FP8-Konvertierungs-Engine der vierten Generation ausgestattet. Ihre Rechengeschwindigkeit ist fünfmal so hoch wie die der vorherigen Generation. Allerdings wird NVLink immer noch nicht unterstützt
Laut NVIDIA ist der L40S bei der generativen KI-Inferenzleistung 1,2-mal besser als der A100 und bei der Trainingsleistung 1,7-mal besser. NVIDIA ist davon überzeugt, dass die Leistung des L40S für „komplexe KI-Arbeiten mit Milliarden von Parametern und mehreren Datenmustern“ noch bedeutender ist
NVIDIA hat angekündigt, dass sie im Herbst die NVIDIA L40S GPU auf den Markt bringen werden. Jedes NVIDIA OVX-Serversystem kann bis zu 8 L40S-Beschleunigerkarten unterstützen, aber NVIDIA hat den Preis dieser GPU noch nicht bekannt gegeben
NVIDIA gab bekannt, dass ASUS, Dell, Gigabyte, HPE, Lenovo, QCT und Supermicro bald OVX-Serversysteme mit L40S-GPU auf den Markt bringen werden
Das obige ist der detaillierte Inhalt vonNVIDIA bringt die L40S-GPU auf den Markt, die KI-Inferenzleistung übertrifft A100 um etwa das 1,2-fache. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!