ホームページ > 記事 > テクノロジー周辺機器 > Moore Thread Kua'e インテリジェント コンピューティング センターは、10,000 の P レベル浮動小数点コンピューティング機能を備え、カード 10,000 枚の規模に拡張されました
7 月 3 日のこの Web サイトのニュースによると、Moore Thread は本日、AI の主力製品である KUAE インテリジェント コンピューティング クラスター ソリューションが現在のキロカード レベルから 10,000 カード規模に拡張されたと発表しました。 Moore Thread Kua'e Wanka インテリジェント コンピューティング クラスターは、フル機能の GPU をベースとして使用し、Wanka スケールと 10,000 P レベルの浮動小数点コンピューティング機能を搭載できる国内の汎用高速コンピューティング プラットフォームを作成します。複雑なトレーニング用に特別に設計されています。数兆ものパラメータを持つ大規模なモデルと設計。
Kuae Wanka インテリジェント コンピューティング ソリューションには、次のコア機能があります:Wanka WanP: Kuae インテリジェント コンピューティング クラスターは、10,000 枚を超えるカードの単一クラスター規模を実現し、浮動小数点演算能力は 10Exa-Flops に達し、総ビデオ メモリに達します。容量、カード間の 1 秒あたりの PB レベルの超高速相互接続帯域幅の合計、および 1 秒あたりの PB レベルの超高速ノード相互接続の合計帯域幅。
長期的で安定したトレーニング: Moore Thread は、Wanka クラスターの平均トラブルフリー実行時間が 15 日を超え、大規模モデルの安定したトレーニングを最大 30 日間達成できることを誇り、週の平均トレーニング効率は 99 以上です。 %と業界平均を大きく上回っています。
高い MFU: Kua'e Wanka クラスターは、大規模モデルの高効率トレーニングを実現するために、システム ソフトウェア、フレームワーク、アルゴリズム、およびその他のレベルで一連の最適化が行われています (大規模モデルのトレーニング効率を評価するための一般的な指標)。 ) は最大 60% に達する可能性があります。
環境に優しい: LLM、MoE、マルチモーダル、Mamba などのさまざまなアーキテクチャおよびモードの大規模モデルを高速化できます。 MUSA プログラミング言語に基づいており、CUDA 機能および自動移行ツール Musify と完全に互換性があり、新しいモデルの「Day0」移行を加速します。
当サイトは、ムーアスレッドが3つの万華クラスタープロジェクトを実行することを知りました:
以上がMoore Thread Kua'e インテリジェント コンピューティング センターは、10,000 の P レベル浮動小数点コンピューティング機能を備え、カード 10,000 枚の規模に拡張されましたの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。