ホームページ  >  記事  >  テクノロジー周辺機器  >  人工知能ブームでコンピューティング能力が不足、マイクロソフトが新たなサーバーレンタルプランを開始

人工知能ブームでコンピューティング能力が不足、マイクロソフトが新たなサーバーレンタルプランを開始

WBOY
WBOY転載
2023-04-13 14:49:031060ブラウズ

ChatGPT の継続的な人気により、チップ不足が発生しています。ChatGPT のコンピューティング ニーズを処理するのに十分なコンピューティング能力がなく、OpenAI のサーバーに過負荷がかかっています。前回の大規模なチップ不足は、仮想通貨のクレイジーなマイニングが原因でした。しかし、生成型人工知能の需要は増加し続けるため、今度はコンピューティング能力の不足がかなり長期間続く可能性があります。

人工知能ブームでコンピューティング能力が不足、マイクロソフトが新たなサーバーレンタルプランを開始

Microsoft は、ND H100 v5 と呼ばれる新しい仮想マシン製品でこのギャップを埋めたいと考えています。これには、Nvidia コードネームの Hopper である最新の H100 GPU が多数含まれています。 、生成人工知能アプリケーション用。

そのアイデアは、データをより深く掘り下げ、関係を構築し、推論し、答えを予測できる生成人工知能に取り組む企業に、より高速なコンピューティング速度を提供することです。生成 AI はまだ初期段階にありますが、ChatGPT のようなアプリの人気はすでにこのテクノロジーの可能性を示しています。

しかし、このテクノロジーには膨大なコンピューティング能力も必要であり、Microsoft はそれを Azure クラウド サービスに導入しています。

仮想マシン製品は、生成 AI アプリケーションのサイズに合わせて拡張でき、チップメーカーの Quantum-2 InfiniBand テクノロジを介して相互接続される数千の H100 GPU に拡張できます。

Azure 上の H100 仮想マシンの価格はすぐには発表されていません。仮想マシンの価格は構成によって異なり、96 個の CPU コア、900GB のストレージ、8 個の A100 GPU を備えたフル装備の A100 仮想マシンの場合、月額約 20,000 ドルかかります。

ChatGPT が昨年初めてリリースされたとき、Nvidia GPU は厳しいテストに直面しました。その計算は、Nvidia A100 GPU で構築された OpenAI スーパーコンピューターによって行われます。

しかし、ChatGPT に対する需要の異常な増加によってサーバーはすぐに圧倒され、サーバーが時間内に応答してクエリ タスクを処理できないとユーザーから不満の声が上がりました。

H100 は、ヘルスケア、ロボット工学、その他の業界ですでに使用されている生成人工知能に必要な速度のギャップを埋める可能性があります。さまざまな開発会社も、ラストワンマイルのギャップを埋め、ChatGPT のような AI をシンプルで使いやすくするインターフェイスの導入を検討しています。

Nvidia と Microsoft は、すでに H100 を使用して人工知能スーパーコンピューターを構築しています。 GPU は、CUDA でコーディングされたアプリケーションで最適に動作するように設計されています (CUDA は Nvidia の並列プログラミング フレームワークです)。製品には、人工知能モデル GPT-3 を GPU 環境に展開するのに役立つ Triton 推論サーバーも含まれています。

Microsoft は、自社製品に人工知能を完全に組み込み始めました。ChatGPT の背後にある大規模な言語モデルである GPT-3.5 のカスタマイズされたバージョンを Bing 検索エンジンに実装しました。 Microsoft は、Bing AI に対して DevOps (開発運用) スタイルの反復的なアプローチを採用しています。これにより、モデルを使用するユーザーについて学習することでアプリケーションを迅速に更新できます。 Microsoft 365 Copilot は、人工知能が組み込まれたオリジナルの OFFICE スイートです。 WORD、PPT、EXCEL などの使い慣れたソフトウェアが、新しい機能で従来の作業方法を変えます。そして、これらすべての背後には、コンピューティング能力のサポートが切り離せません。

新しい Azure 仮想マシンの基本構成は、NVIDIA 独自の NVLink 4.0 インターコネクトを介して 8 つの H100 Tensor コア GPU を相互接続します。この構成は、Quantum-2 インターコネクトを介して追加の GPU に拡張できます。このサーバーは、Intel の第 4 世代 Xeon (Sapphire Rapids) スケーラブル プロセッサを搭載しており、PCIe Gen5 経由で GPU との間でデータ転送を行います。

以上が人工知能ブームでコンピューティング能力が不足、マイクロソフトが新たなサーバーレンタルプランを開始の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。