Heim > Artikel > Technologie-Peripheriegeräte > Huawei veröffentlicht zwei neue KI-Speicherprodukte
Die Konferenzseite. (Foto mit freundlicher Genehmigung von Huawei)
[Shenzhen Business News] (Reporter Chen Shu) Künstliche Intelligenz entwickelt sich allmählich von großen Modellen zu sehr großen Modellen, von Einzelmodalität zu Multimodalität, und die Datenspeicherung ist zu einem Schlüsselelement geworden. Die Ära der großen Modelle, die sich auf Speicher und Rechenleistung konzentrieren, ist angebrochen. Am 14. Juli veröffentlichte Huawei ein neues KI-Speicherprodukt für die Ära der großen Modelle, das „optimale Speicherlösungen“ für das grundlegende Modelltraining, das Branchenmodelltraining sowie das Training und die Argumentation segmentierter Szenariomodelle bietet.
Zhou Yuefeng, Präsident der Datenspeicher-Produktlinie von Huawei, sagte, dass Unternehmen bei der Entwicklung und Implementierung großer Modellanwendungen vor vier großen Herausforderungen stehen: Erstens ist die Datenvorbereitungszeit lang, die Datenquellen sind verstreut und die Erfassung ist langsam Die Vorverarbeitung von 100 TB Daten dauert etwa 10 Tage. Zweitens verwenden multimodale große Modelle große Texte und Bilder als Trainingssätze. Die aktuelle Ladegeschwindigkeit großer kleiner Dateien beträgt weniger als 100 MB/s und die Ladeeffizienz des Trainingssatzes ist gering Drittens werden große Modellparameter häufig angepasst, und die Trainingsplattform ist im Durchschnitt etwa alle zwei Tage unterbrochen, sodass der Checkpoint-Mechanismus das Training wieder aufnehmen muss, und die Implementierung dauert schließlich mehr als einen Tag Der Schwellenwert für große Modelle ist hoch, der Systemaufbau ist kompliziert, die Ressourcenplanung ist schwierig und die GPU-Ressourcenauslastung beträgt normalerweise weniger als 40 %.
Huawei hat den Deep-Learning-Data-Lake-Speicher OceanStor A310 und die hyperkonvergente All-in-One-Maschine FusionCube A3000 für Schulung/Werbung für große Modellanwendungen in verschiedenen Branchen und Szenarien auf den Markt gebracht. Unter anderem ist der Deep-Learning-Data-Lake-Speicher OceanStor A310 auf grundlegende/industrielle Data-Lake-Szenarien mit großen Modellen ausgerichtet und ermöglicht die umfassende KI-Datenverwaltung von der Datenerfassung und -vorverarbeitung bis hin zum Modelltraining und der Inferenzanwendung. Der hyperkonvergente Trainings-/Push-All-in-One-Computer FusionCube A3000 ist für branchenweit große Trainings-/Inferenzszenarien und für zig Milliarden Modellanwendungen konzipiert. Er integriert OceanStor A300-Hochleistungsspeicherknoten, Trainings-/Push-Knoten und Switching-Geräte , KI-Plattformsoftware sowie Verwaltungs- und Betriebssoftware, die großen Modellpartnern eine schlüsselfertige Bereitstellungserfahrung bietet und eine Lieferung aus einer Hand ermöglicht.
In einem exklusiven Interview mit den Medien sagte Ni Guangnan, ein Akademiker der Chinesischen Akademie für Ingenieurwissenschaften, dass Daten zu einer grundlegenden strategischen Ressource für das Land geworden seien. Datenspeicherkapazität (als „Speicherkapazität“ bezeichnet), Informationsrechenkapazität (als „Rechenleistung“ bezeichnet) und Netzwerktransportkapazität (als „Transportkapazität“ bezeichnet) sind der Kern und die Grundlage der Entwicklung meines Landes Informationsindustrie und sind die strategische Unterstützung für den Aufbau eines technologisch starken Landes. Er glaubt, dass die Energiespeicherung zu einer nationalen strategischen und grundlegenden Industrie und einem neuen internationalen Wettbewerbsvorteil werden wird.
„Im Zeitalter großer KI-Modelle bestimmen Daten die Höhe der KI-Intelligenz. Als Datenträger ist die Datenspeicherung zur Schlüsselinfrastruktur großer KI-Modelle geworden.“ muss auf die rasante Entwicklung der Digitalisierung achten, wobei der Schwerpunkt auf der digitalen Erfassung von Daten und Informationen liegt. Die Datenaufbereitung ist die größte Herausforderung bei der Implementierung großer KI-Modelle, die in letzter Zeit für Aufsehen gesorgt haben. Ihm zufolge entfallen 25 % der Kosten für große KI-Modelle hauptsächlich auf die Rechenleistung, während die Kosten für den Kauf von Servern, die Datenbereinigung und die Vorverarbeitung 22 % ausmachen. Es ist zu erkennen, dass Daten sowie die Speicherung und Verarbeitung von Daten immer wichtiger werden. Dieser Satz wird wie folgt umgeschrieben: Dieser wichtige Punkt ist nicht nur, dass die Datenmenge zugenommen hat, sondern, was noch wichtiger ist, der Datenverarbeitungsprozess ist komplexer geworden. Han Zhenxing, Vizepräsident für den Bereich verteilter Speicher bei Huawei, wies darauf hin, dass China die groß angelegte Entwicklung von Speicherzentren einleiten werde, und prognostizierte, dass in Zukunft leistungsstärkere Speicherprodukte auftauchen werden.
Das obige ist der detaillierte Inhalt vonHuawei veröffentlicht zwei neue KI-Speicherprodukte. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!