米国の送電網は、多額の投資がなければ負荷の増加に対処できません。ゴールドマン・サックスは、必要な投資額を500億ドル以上としています。これは、天然ガス機器からの移行、EV市場の拡大、仮想通貨マイニング事業、国内の仮想通貨マイニング事業、国内の電力会社からの移行などの国家的取り組みから生じる需要の増大をサポートするために、同国がすでに送電網をアップグレードするための多額の投資(2021年から220億ドル)に取り組んでいる時期に行われる。
電力需要の増加は、特に米国の電力網の老朽化したインフラを考慮すると、重大な課題を引き起こしています。増大するニーズに応えるには、多額の投資が不可欠です。ゴールドマン・サックスは、500億ドルを超える送電網のアップグレードが緊急に必要であることを強調した。これは、国がすでに送電網の容量を強化するための重要な取り組みに取り組んでいる時期に行われた。 2021 年以降、これらのアップグレードには約 220 億ドルが割り当てられています。これらの取り組みは、天然ガス機器からの移行、EV市場の強化、仮想通貨マイニング事業への対応、国内製造業の育成といった国家的取り組みから生じる需要の高まりをサポートすることを目的としています。さらに、異常気象による混乱やサイバー攻撃のリスク増大から身を守ることが急務です
大きな問題の解決策は驚くほど小さなものである可能性があります
私たちは以前にも同様の課題に遭遇したことがあります。 2023 年に、国家インフラの電力需要を軽減するために、連邦レベルで白熱電球からエネルギー効率の高い代替電球に移行しました。個々の電球が重大な問題を引き起こすことはありませんでしたが、そのボリュームが大きな影響を及ぼしました。同様に、AI アプリケーションも現在出現しており、幅広い用途を示していますが、大規模な効率性によってのみ制限される可能性があります。
AI の現状は、主要な新産業を可能にし、経済を推進する準備が整っているため、電力の導入を模倣しています。現在、AI はグラフィックス プロセッシング ユニット (GPU) に大きく依存しています。GPU は、もともとグラフィックスのレンダリングを高速化するために設計された特殊なプロセッサです。 GPU の並列構造は、アプリケーションの従来の AI モデル トレーニングにも最適であり、大規模な効率性の懸念を引き起こすモノの人工知能 (AIoT) で広く使用されています。 AI 企業は、最も単純なアプリケーションのニーズを満たすために、エネルギーを大量に消費する最先端のプロセッサを事実上過剰に導入しています。画一的なアプローチは初期の AI アプリケーションでは機能しますが、すべての AI 実装にとって持続可能な標準になることはできません
AI ソリューションのセキュリティ、スケーラビリティ、効率を特定のアプリケーションに適応させることができないのは、食料品を受け取るためにトラクタートレーラーを運転するのと同じです。それは確かに仕事をしますが、非常に非効率的で高価であるため、ほとんどのタスクには最適化されていません。アプリケーションのニーズ間のこの不一致が、さまざまな予期せぬ結果を引き起こします。 AI への需要の高まりは否定できませんが、AI が GPU に依存すると、その結果生じるアプリケーションは、すでに脆弱なインフラストラクチャに過剰な負荷を与えます。
AI 企業は、私たちの脅威となる可能性のあるこの道から逸脱するために、アプリケーションのニーズを調整するための代替方法を探す必要があります。インフラストラクチャー。 Brand Engagement Network Inc. や BEN BNAI などの企業は、このことを認識しており、スケーラブルでサポート可能な方法で AI のパワーとパフォーマンスを提供できるようにソリューションを最適化しています。
BEN の ELM – 電力問題へのソリューション
では、BEN はどうやってそれを行うのでしょうか? Efficient Language Model (ELM) を通じて: 特殊なタスクのための言語モデルのセクション化と最適化を組み合わせます。この特許出願中のテクノロジーは、効率性とアプリケーションの特殊化に重点を置いており、OpenAI の ChatGPT で使用されているような、生成目的ですべてを無差別モデルに一般化しようとする従来の LLM とは対照的です。
これは小さな違いのように思えるかもしれませんが、各アプローチで必要な計算能力と処理能力は大きく異なります。従来の LLM が包括的なモデルを利用する場合、それはソリューションが定義されていないことを意味します。彼らは、あらゆる課題やアプリケーションのあらゆるニーズに対処することを AI ソリューションに課しています。これにより、エラーが発生する可能性が高まるだけでなく、大規模な並列処理が必要となり、タイムリーな応答を目的として動作する場合には GPU の使用が必要になります。一方、BEN の ELM は、定義されたアプリケーションのニーズに重点を置き、安全で設置面積が小さく、集中的なソリューションを可能にします。つまり、ELM を対象としたソリューションは、CPU の限られたリソースで実行でき、より容易に利用でき、コストが大幅に削減され、処理能力の使用量も少なくなります。
CPU への依存関係により、SaaS、プライベート クラウド、ヘルスケアや金融サービスなどの業界がデータ侵害や漏洩の潜在的なリスクを最小限に抑えるのに苦労しているモバイルおよびオンプレミスのソリューション。通常、CPU は導入と運用が大幅に安価であり、すでに市場に確立されており、そして最も重要なことに、大量に入手可能です。これは GPU には当てはまりません。GPU は可用性の問題の真っ只中にあり、イーロン・マスク氏さえも、さまざまな企業向けにこれらの処理ユニットの調達に創造性を発揮することを余儀なくされました。
ELM + RAFT: 強力でありながら効率的な組み合わせ
BEN の ELM は、RAFT (Retrieval Augmented Fine-Tuning) システムを強化して、アプリケーションの信頼性、予測可能性、効率性を確保します。 AI によってもたらされる重大な課題は、AI が未知のデータ ソースに基づいて構築され、何が何でも応答を生成するように設計されているため、AI が誤解を招く、または完全に間違った答えを与える「幻覚」のリスクです。幻覚は、白熱灯からの無駄な熱エネルギーによく似ています。これらは応答を生成するために依然として同じ電力を必要としますが、これは従来の LLM テクノロジーの意図せぬ結果です。いくつかの推定では、幻覚が発生する可能性があることが示されています
以上がELM – 電力問題の解決策の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。