ホームページ >テクノロジー周辺機器 >AI >VMware と NVIDIA が企業向け生成 AI の時代を到来
VMware と NVIDIA は本日、VMware クラウド インフラストラクチャを使用する数千の企業が AI 時代に備えることを支援するための戦略的パートナーシップの拡大を発表しました。
VMware Private AI Foundation with NVIDIA を使用すると、企業はモデルをカスタマイズし、インテリジェントなチャットボット、アシスタント、検索と要約などのさまざまな生成 AI アプリケーションを実行できるようになります。このプラットフォームは、NVIDIA の生成 AI ソフトウェアとアクセラレーション コンピューティングを使用した完全に統合されたソリューションであり、VMware Cloud Foundation 上に構築され、AI 向けに最適化されています。
VMware の CEO、Raghu Raghuram 氏は次のように述べています。「生成 AI とマルチクラウドは完璧にマッチしています。顧客のデータは、データ センター、エッジ、クラウドなど、あらゆる場所にあります。NVIDIA と協力して、私たちは、企業が自信を持ってデータを実行できるよう支援します。近くで生成 AI ワークロードを実行し、企業データのプライバシー、セキュリティ、制御に関する懸念に対処します。」
NVIDIA 創設者兼 CEO のジェンセン フアン氏は次のように述べています:「世界中の企業が生成 AI を自社のビジネスに統合しようと競い合っています。VMware との協力を拡大することで、金融サービス、ヘルスケア、製造などの分野にソリューションを提供できるようになります」数千の顧客に、独自のデータに合わせてカスタマイズされたアプリケーションを使用して生成 AI の可能性を最大限に実現するために必要なフルスタックのソフトウェアとコンピューティングが提供されています。」
フルスタック コンピューティングにより、生成 AI のパフォーマンスが大幅に向上します
ビジネス上のメリットをより早く実現するために、企業は生成型 AI アプリケーションの開発、テスト、展開を簡素化し、効率を向上させたいと考えています。マッキンゼーによると、生成 AI は世界経済に年間 4 兆 4,000 億ドルもの追加効果をもたらす可能性があります (1)。VMware Private AI Foundation with NVIDIA は、企業がこの機能を最大限に活用して、大規模な言語モデルをカスタマイズし、内部使用のためのより安全なプライベート モデルを作成し、生成 AI をサービスとしてユーザーにより安全に提供し、大規模な推論ワークロードを実行できるように支援します。
このプラットフォームは、企業がプライベート データに基づいてトレーニングされた成熟したモデルをコスト効率よく実行できるようにするさまざまな統合 AI ツールを提供する予定です。 VMware Cloud Foundation と NVIDIA AI Enterprise ソフトウェア上に構築されたこのプラットフォームは、次の利点をもたらすことが期待されています。
• プライバシー: お客様は、データのプライバシーを保護し、アクセスを保護するアーキテクチャにより、データがどこにあっても簡単に AI サービスを実行できるようになります。
• 選択肢: NVIDIA NeMo™ から Llama 2 以降に至るまで、企業には、主要な OEM ハードウェア構成や将来のパブリック クラウドやサービス プロバイダー ソリューションなど、モデルを構築して実行する場所について幅広い選択肢があります。
• パフォーマンス: 最近の業界ベンチマークでは、NVIDIA アクセラレーション インフラストラクチャ上で実行される特定のユース ケースがベア メタルのパフォーマンスと同等かそれを超えていることが示されています。
• データセンターのスケール: 仮想化環境での最適化された GPU スケーリングにより、AI ワークロードを単一の VM および複数のノード上で最大 16 個の vGPU/GPU までスケールできるようになり、生成 AI モデルの微調整とデプロイが加速されます。
• コストの削減: GPU、DPU、CPU にわたるすべてのコンピューティング リソースが最大化されて、全体的なコストが削減され、チーム間で効率的に共有できるプールされたリソース環境が作成されます。
• 高速ストレージ: VMware vSAN Express ストレージ アーキテクチャは、パフォーマンスが最適化された NVMe ストレージを提供し、RDMA 経由で GPUDirect® ストレージをサポートし、CPU を必要とせずにストレージから GPU への直接 I/O 転送を可能にします。
• 高速ネットワーキング: vSphere と NVIDIA NVSwitch™ テクノロジー間の緊密な統合により、GPU 間のボトルネックなしでマルチ GPU モデルを実行できるようになります。
• 迅速な導入と価値実現までの時間: vSphere Deep Learning VM イメージとライブラリは、ラピッド プロトタイピングのためのさまざまなフレームワークとパフォーマンスが最適化されたライブラリがプリインストールされた、安定したターンキー ソリューション イメージを提供します。
このプラットフォームは、NVIDIA AI プラットフォームのオペレーティング システムである NVIDIA AI Enterprise に含まれるエンドツーエンドのクラウドネイティブ フレームワークである NVIDIA NeMo を利用して、企業が生成 AI モデルを仮想的に構築、カスタマイズ、展開できるようにします。どこでも。 NeMo は、カスタム フレームワーク、ガードレール ツールキット、データ ラングリング ツール、事前トレーニングされたモデルを組み合わせて、企業がシンプル、手頃な価格、迅速な方法で生成 AI を導入できるようにします。
生成 AI を実稼働環境に導入するために、NeMo は TensorRT for Large Language Models (TRT-LLM) を使用して、NVIDIA GPU 上の最新の LLM の推論パフォーマンスを高速化し、最適化します。 NeMo を通じて、VMware Private AI Foundation と NVIDIA により、企業は独自のデータをインポートし、VMware ハイブリッド クラウド インフラストラクチャ上でカスタムの生成 AI モデルを構築して実行できるようになります。
VMware Explore 2023 カンファレンスでは、NVIDIA と VMware は、企業内の開発者が新しい NVIDIA AI ワークベンチを使用してコミュニティ モデル (Hugging Face で提供される Llama 2 など) を抽出し、これらのモデルをリモートでカスタマイズして実行する方法に焦点を当てます。 on VMware 環境に本番グレードの生成 AI を導入します。
NVIDIA による VMware Private AI Foundation の広範なエコシステム サポート
VMware Private AI Foundation with NVIDIA は、Dell、HPE、Lenovo によってサポートされます。 3 社は、エンタープライズ LLM のカスタマイズと推論ワークロードを加速する、NVIDIA L40S GPU、NVIDIA BlueField®-3 DPU、および NVIDIA ConnectX®-7 SmartNIC を搭載したシステムを初めて提供します。
NVIDIA A100 Tensor Core GPU と比較して、NVIDIA L40S GPU は生成 AI の推論パフォーマンスとトレーニング パフォーマンスをそれぞれ 1.2 倍と 1.7 倍向上させることができます。
NVIDIA BlueField-3 DPU は、仮想化、ネットワーキング、ストレージ、セキュリティ、その他のクラウドネイティブ AI サービスを含む、GPU または CPU 上の大規模なコンピューティング ワークロードを加速、オフロード、分離します。
NVIDIA ConnectX-7 SmartNIC は、世界で最も要求の厳しい AI ワークロードの一部をホストするデータセンター インフラストラクチャにインテリジェントで高速なネットワーキングを提供します。
VMware Private AI Foundation with NVIDIA は、両社間の 10 年にわたる協力関係に基づいて構築されています。両社の共同研究開発の成果により、VMware のクラウド インフラストラクチャが最適化され、ベア メタルと同等のパフォーマンスで NVIDIA AI Enterprise を実行できるようになりました。 VMware Cloud Foundation が提供するリソースとインフラストラクチャの管理と柔軟性は、相互の顧客にさらに利益をもたらします。
######供給######VMware は、NVIDIA と共同で VMware Private AI Foundation を 2024 年初頭にリリースする予定です。
以上がVMware と NVIDIA が企業向け生成 AI の時代を到来の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。