ホームページ  >  記事  >  Microsoft が昨日発表したように、Azure OpenAI サービスの可用性が拡張されます

Microsoft が昨日発表したように、Azure OpenAI サービスの可用性が拡張されます

PHPz
PHPz転載
2023-08-12 11:45:131149ブラウズ

Microsoft は昨日、Azure OpenAI サービスの可用性の拡大を発表しました。この拡張により、オーストラリア東部、カナダ東部、米国東部 2、日本東部、および英国南部の顧客は、人気のある OpenAI モデル GPT-4 および GPT-35-Turbo にアクセスできるようになります。この拡張が行われる前は、Azure OpenAI サービスは米国東部、フランス中部、米国南中部、および西ヨーロッパで利用可能でした。 Microsoft は最近の決算発表で、Azure OpenAI サービスが現在 11,000 を超える顧客にサービスを提供しており、1 日あたり平均 100 の新規顧客を獲得していると発表しました。

Microsoft は、最新の NVIDIA H100 Tensor コア GPU と NVIDIA Quantum-2 InfiniBand ネットワーキングを備えた Azure ND H100 v5 仮想マシン (VM) シリーズの一般提供も発表しました。この新しい VM シリーズは AI ワークロード向けに設計されており、米国東部と米国中南部の Azure リージョンで利用できるようになりました。 VM が正式にリリースされた場合でも、顧客は新しい VM へのアクセスを登録する必要があります。

ND H100 v5 仮想マシンには次の機能が含まれています:

  • これらの仮想マシンには 8 つの NVIDIA H100 Tensor コア GPU が搭載されており、前世代よりも高速に AI モデルを実装できることが約束されています。
  • 第 4 世代インテル Xeon スケーラブル プロセッサーはこれらの仮想マシンの基盤であり、最適な処理速度を保証します。
  • NVIDIA Quantum-2 ConnectX-7 InfiniBand は GPU あたり 400 Gb/秒、仮想マシンあたり 3.2 Tb/秒のクロスノード帯域幅により、GPU 全体でシームレスなパフォーマンスを保証し、世界トップクラスのスーパーコンピューターの機能に匹敵します。
  • PCIe Gen5 が GPU あたり 64 GB/秒の帯域幅を提供することで、Azure は CPU と GPU の間で大幅なパフォーマンス上の利点を実現します。
  • DDR5 メモリはこれらの仮想マシンの中心であり、より高いデータ転送速度と効率を実現し、大規模なデータ セットを含むワークロードに最適です。
  • 新しい 8 ビット FP16 浮動小数点データ型を使用すると、前世代の FP8 と比較して行列乗算演算が 6 倍高速化されます。
  • BLOOM 175B エンドツーエンドのモデル推論などの大規模言語モデルで 2 倍の高速化を達成し、AI アプリケーションをさらに最適化できる可能性を実証しました。

以上がMicrosoft が昨日発表したように、Azure OpenAI サービスの可用性が拡張されますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事はyundongfang.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。