ホームページ > 記事 > テクノロジー周辺機器 > AI の可能性を制限する主要なインフラストラクチャの課題
デジタル不動産会社 Interxion のマーケティングおよびビジネス担当ディレクターである Patrick Lastennet 氏は、AI イノベーションの加速に対する障壁について考察します。同社は、AI 導入のための強力なインフラストラクチャ戦略を最初から策定することが重要であると考えています。
人工知能に対する人々の需要は高まっています。あらゆる業界の企業は、人工知能を使用してイノベーションを加速し、強力な競争上の優位性を提供する方法を模索しています。しかし、AI インフラストラクチャの設計は複雑かつ膨大であり、その結果、76% の企業がインフラストラクチャが AI の成功の障壁になっていると考えています。
しかし、これは進歩を遅らせる言い訳にはなりません。 AIを積極的に追求する企業、あるいは少なくとも後れを取る企業が増えるにつれ、待っている企業はさらに遅れをとるだけだ。
ヨーロッパ 8 か国の IT 意思決定者を対象とした最近の調査では、企業の 3 分の 2 (62%) 近くが現在 AI を導入またはテストしており、さらに 17% が 2020 年に AI を使用する予定であることがわかりました。
回答者らは、資金、人材、物理的インフラストラクチャなどのリソース不足から、AI を考慮していない不透明な企業戦略に至るまで、多くのインフラストラクチャの障壁が AI の大規模導入を制限していると指摘しました。
AI 導入は多くの企業にとって構築プロセスに時間がかかるため、導入フェーズに入った企業とまだ計画を開始していない企業の間には大きなテクノロジー ギャップが形成されます。 AI への投資に消極的な企業は、競争上の優位性を獲得する機会を逃すことになります。
だからこそ、最初から AI 導入のための強力なインフラストラクチャ戦略を立てることが重要です。考慮すべき質問がいくつかあります。
多くの場合、主要な AI 研究開発を主導する企業は、IT 部門から多額の初期投資を受けていません。その結果、残念ながらチームはシャドウ AI、つまり IT の監視下で作成された AI インフラストラクチャを作成することになります。これは、正常に運用することが困難であり、最終的には効果がありません。企業は、AI に特化して最適化されたインフラストラクチャ戦略を開発することで、シャドウ AI を回避できます。
調査では、計り知れないコストが主要な問題であることが浮き彫りになりました (21%)。人材や設備への新たな投資の必要性から、AI の設計と導入の間の曲がりくねった道での予期せぬコスト、急速なイノベーションとテクノロジー要件の変化に至るまで、AI への投資は多額であり、予測が困難な場合があります。さらに、企業がテクノロジーの導入に失敗した場合、IT と AI 開発の間の内部的な断絶が ROI の低下につながる可能性があります。
社内に専門スタッフがいないことも大きな課題です。企業はプロの開発者を雇う必要があることがよくありますが、これには費用がかかり、新入社員が AI 設計と組織の目標を達成するためにビジネスを学ぶのに時間がかかる可能性があります。
IT 機器が不十分な場合、企業は人工知能を自社の業務にどのように統合できるかを想像することもできません。調査によると、多くの企業は、現在のインフラストラクチャが AI をサポートするために最適化されていないこと、およびデータセンターが容量に達しつつあることを懸念しています。
戦略フェーズの障壁は通常、どの業界でも同様ですが、特定のインフラストラクチャに関する決定は業界によって異なる場合があります。 GDPR などの法的要件やコンプライアンス要件、関連するデータやワークフローの種類は、AI インフラストラクチャの決定に影響を与えます。
調査によると、あらゆる業界の企業の 39% が主要なパブリック クラウドを使用しており、その大部分は柔軟性とスピードを求めているメーカーです。一方、回答者の 29% は、コンサルタントが支援する社内ソリューションを好みます。通常、金融、エネルギー、ヘルスケア企業は、個人を特定できる情報 (PII) データを厳重なセキュリティの下で、より適切に管理したいと考えています。
多くのビジネスはゼロからスタートするため、後で再構築すると時間のコストがかかる可能性があるため、最初から明確な戦略を立てることが不可欠です。お金と資源。 AI を大規模に実現するには、企業はいくつかの側面を検討する必要があります。
まず、企業は、AI ワークロード用に準備されたデータセットに必要なデータの取得と収集をサポートする適切なインフラストラクチャを確実に導入できるようにする必要があります。特に、AI 推論が実行されるエッジまたはクラウド デバイスからデータを収集する有効性とコストに注意を払う必要があります。理想的には、高速接続を活用して高可用性を確保しながら、これを世界中の複数のリージョンに実装する必要があります。これは、企業には、以下を提供するネットワーク ファブリックによってサポートされるインフラストラクチャが必要であることを意味します。
AI データへの近接性: エンタープライズ データ センターの 5G および固定線コア ノードは、フィールド デバイス、オフィス、AI から提供されます。製造施設からのデータは、地域の相互接続されたデータセンターに取り込まれ、マルチノード アーキテクチャに沿って処理されます。
ダイレクト クラウド アクセス: クラウド ハイパースケール環境への高性能アクセスを提供し、AI トレーニングまたは推論ワークロードのハイブリッド デプロイメントをサポートします。
地理的スケール: 戦略的な地理的エリアにある複数のデータセンターにインフラストラクチャを配置することで、企業は低コストのデータ取得と高性能 AI 作業をグローバルに実現できます。
企業が AI/ディープ ラーニング モデルのトレーニングを検討する場合、GPU アクセラレーション コンピューティングを長期的にサポートするために必要な電力および冷却テクノロジに対応できるデータ センター パートナーを検討する必要があります。これには次のことが必要です。
高ラック密度: AI ワークロードをサポートするには、企業はデータセンター内の各ラックからより多くのコンピューティング能力を必要とします。これは、より高い電力密度を意味します。実際、ほとんどの企業は、AI ワークロードをサポートし、将来のより高いレベルに備えるために、最大密度を少なくとも 3 倍にする必要があります。
ボリュームとスケール: AI の利点を活用するための鍵は、大規模な実装です。大規模ハードウェア (GPU) 上で実行できるため、大規模なコンピューティング効果が可能になります。
ほとんどのオンプレミスのエンタープライズ データ センターは、この規模のデータを処理できません。一方、パブリック クラウドは、抵抗が最も少ないパスを提供しますが、高コストや遅延の問題のため、AI モデルを大規模にトレーニングしたり、本番環境にデプロイしたりするのに常に最適な環境であるとは限りません。
では、AI ワークロードをサポートするインフラストラクチャを設計したい企業にとって、最適なアプローチは何でしょうか? すでに AI から価値を得ている企業がインフラストラクチャの展開をどのように選択しているかを調査することで、重要な教訓を得ることができます。
Google、Amazon、Facebook、Microsoft などのハイパースケール企業は、多くの場合、高度に接続された高品質のデータ センターに展開されている独自のコア インフラストラクチャとエッジ インフラストラクチャを使用して、AI を大規模に展開することに成功しています。彼らは、コロケーションが必要な規模、密度、接続性をサポートできることを知っているため、世界中でコロケーションを頻繁に使用しています。
これらの AI リーダーの知識と経験を活用することで、企業は AI における自らの運命を描くことができるようになります。
以上がAI の可能性を制限する主要なインフラストラクチャの課題の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。