ホームページ >テクノロジー周辺機器 >AI >NPU を搭載したインテル Meteor Lake プロセッサーが PC を人工知能の時代へ押し上げる

NPU を搭載したインテル Meteor Lake プロセッサーが PC を人工知能の時代へ押し上げる

王林
王林転載
2023-09-22 14:57:03813ブラウズ

IT ホーム ニュース 9 月 20 日、インテルは本日、最新の Meteor Lake プロセッサーを発表し、Meteor Lake の統合 NPU を詳しく紹介しました。

英特尔 Meteor Lake 处理器搭载 NPU,将推动 PC 进入人工智能时代

インテルは、Al が人々の生活のあらゆる側面に浸透していると述べました。クラウド AI はスケーラブルなコンピューティング能力を提供しますが、いくつかの制限もあります。ネットワーク接続に依存しており、待ち時間が長く、実装コストも高く、プライバシーの問題もあります。 MeteorLake はクライアント PC に Al を導入し、低遅延の Al 計算を提供し、データプライバシーをより適切に保護し、低コストで

を達成します。

Intel は、MeteorLake から始めて、Intel は PC に Al を広く導入し、数億台の PC を Al 時代に導く予定であると述べました、そして巨大な x86 エコシステムが幅広いソフトウェア モデルとツールを提供する予定です。

IT ホームでは、インテル NPU アーキテクチャについて詳しく説明しています。 IT House は最近、Intel の NPU アーキテクチャの詳細な分析を実施しました。この記事では、Intel の NPU アーキテクチャのさまざまな側面について詳しく説明します。 まず、インテル NPU は、人工知能タスク用に特別に設計されたプロセッサーです。高度な並列コンピューティング機能を備えており、大量のデータを迅速に処理できます。従来の CPU と比較して、NPU は複雑な AI アルゴリズムの処理において優れたパフォーマンスを発揮します。 第 2 に、インテル NPU アーキテクチャは深層学習テクノロジーを使用してアルゴリズムを自動的に学習し、最適化します。大量のトレーニング データを通じてアルゴリズムの精度と効率を向上させることができます。このため、画像認識、音声認識、自然言語処理などの分野で広く使用されています。 さらに、インテル NPU アーキテクチャは柔軟性と拡張性に優れています。他のハードウェア デバイスやソフトウェア プラットフォームとシームレスに統合できるため、開発者はより多くの選択肢と自由を得ることができます。これにより、開発者は特定のニーズに応じてアルゴリズムをカスタマイズおよび最適化し、より優れたパフォーマンスと結果を達成できるようになります。 全体として、インテル NPU アーキテクチャは、強力なコンピューティング能力と人工知能タスクのアルゴリズムを最適化する機能を提供する高度なプロセッサ アーキテクチャです。さまざまな分野での幅広い応用の見通しがあり、人工知能技術の開発にさらなる可能性と機会をもたらすでしょう。

ホスト インターフェイスとデバイス管理 -デバイス管理領域では、Microsoft Computing Driver Model (MCDM) と呼ばれる Microsoft の新しいドライバー モデルがサポートされています。これにより、Meteor Lake の NPU はセキュリティを確保しながら優れた方法で MCDM をサポートできるようになり、メモリ管理ユニット (MMU) は複数のシナリオで分離を提供し、電力とワークロードのスケジューリングをサポートして、高速な低電力状態の変換を可能にします。

マルチエンジン アーキテクチャ - NPU は、単一のワークロードを共同で処理したり、それぞれが異なるワークロードを処理したりできる 2 つのニューラル コンピューティング エンジンを備えたマルチエンジン アーキテクチャで構成されています。 Neural Compute Engine には、2 つの主要なコンピューティング コンポーネントがあります。1 つは推論パイプラインです。これはエネルギー効率の高いコンピューティングのコア ドライバーであり、データの移動を最小限に抑え、固定関数の演算を活用することで、一般的な大規模な計算を処理します。タスクはエネルギー効率を達成できます。ニューラルネットワークの実行において。計算の大部分は、標準のニューラル ネットワーク操作をサポートする固定機能パイプライン ハードウェアである推論パイプラインで発生します。パイプラインは、積和演算 (MAC) アレイ、アクティベーション関数ブロック、およびデータ変換ブロックで構成されます。 2 つ目は、Al 向けに特別に設計された高度に最適化された VLIW DSP (超長命令ワード/デジタル シグナル プロセッサ) である SHAVEDSP です。ストリーミング ハイブリッド アーキテクチャ ベクトル エンジン (SHAVE) は、推論パイプラインとダイレクト メモリ アクセス (DMA) エンジンを使用してパイプライン化することができ、NPU 上で真のヘテロジニアス コンピューティングを並列実行してパフォーマンスを最大化できます。

DMA エンジン - このエンジンは、エネルギー効率とパフォーマンスを最大化するためにデータの移動を最適化および調整します。

以上がNPU を搭載したインテル Meteor Lake プロセッサーが PC を人工知能の時代へ押し上げるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事はsohu.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。