検索
ホームページテクノロジー周辺機器AIPyTorch 2.0正式版がリリースされました! 1 行のコードで 2 倍高速化、100% 下位互換性あり

PyTorch 2.0 の正式バージョンがついに登場しました。

PyTorch 2.0正式版がリリースされました! 1 行のコードで 2 倍高速化、100% 下位互換性あり

昨年 12 月、PyTorch Foundation は PyTorch Conference 2022 で PyTorch 2.0 の最初のプレビュー バージョンをリリースしました。

# 以前のバージョン 1.0 と比較して、2.0 には破壊的な変更が加えられています。 PyTorch 2.0 における最大の改善点は torch.compile です。

新しいコンパイラは、PyTorch 1.0 のデフォルトの「eager モード」よりもはるかに高速にコードをオンザフライで生成できるため、PyTorch のパフォーマンスがさらに向上します。

PyTorch 2.0正式版がリリースされました! 1 行のコードで 2 倍高速化、100% 下位互換性あり

2.0 に加えて、PyTorch ドメイン ライブラリの一連のベータ更新がリリースされました。ツリー ライブラリのほか、TorchAudio、TorchVision、TorchText などのスタンドアロン ライブラリも含まれます。コミュニティ サポート モードを提供するために、TorchX のアップデートも同時にリリースされます。

PyTorch 2.0正式版がリリースされました! 1 行のコードで 2 倍高速化、100% 下位互換性あり

ハイライトの概要

-torch.compile は PyTorch 2.0 のメイン API であり、これをラップし、コンパイルされたモデルの場合、torch.compile は完全なアドオン (およびオプション) 機能であるため、バージョン 2.0 は 100% 下位互換性があります。

- torch.compile の基礎となるテクノロジーとして、Nvidia および AMD GPU を搭載した TorchInductor は、OpenAI Triton 深層学習コンパイラーに依存して、高性能コードと低レベルのハードウェアの詳細を非表示にします。 OpenAI Triton によって生成されたカーネル実装のパフォーマンスは、手書きカーネルや cublas などの特殊な CUDA ライブラリに匹敵します。

- Accelerated Transformers は、カスタム カーネル アーキテクチャを使用して Scaled Dot Product Attendance (SPDA) を実装することにより、トレーニングと推論のための高パフォーマンスのサポートを導入します。 API は torch.compile() と統合されており、モデル開発者は新しいscaled_dot_product_attention() オペレーターを呼び出すことで、スケーリングされたドット積アテンション カーネルを直接使用することもできます。

- Metal Performance Shaders (MPS) バックエンドは、Mac プラットフォーム上で GPU 高速化された PyTorch トレーニングを提供し、最も一般的に使用される上位 60 の操作のサポートを追加し、さらに多くの操作をカバーします。オペレーター数は 300 名を超えています。

- Amazon AWS は、AWS Graviton3 に基づいて C7g インスタンス上の PyTorch CPU 推論を最適化します。 PyTorch 2.0 では、Resnet50 と Bert の改善を含め、以前のバージョンと比較して Graviton の推論パフォーマンスが向上しています。

- TensorParallel、DTensor、2D 並列、TorchDynamo、AOTAutograd、PrimTorch、TorchInductor にわたる新しいプロトタイピング機能と手法。

PyTorch 2.0正式版がリリースされました! 1 行のコードで 2 倍高速化、100% 下位互換性あり#コンパイルしてもコンパイルします!

PyTorch 2.0 の最新のコンパイラ テクノロジには、TorchDynamo、AOTAutograd、PrimTorch、TorchInductor が含まれます。これらはすべて、C (Python と互換性がある) ではなく、Python で開発されています。

また、ダイナミック シェイプもサポートしており、再コンパイルせずにさまざまなサイズのベクトルを送信できます。

TorchDynamo
  • Python フレーム評価フックを使用して、PyTorch プログラムを安全に取得できます。この主要な革新は、PyTorch の安全グラフ構造のキャプチャです (安全な研究の概要)グラフキャプチャの開発結果)。

AOTAutograd
  • 高度なバックワード トレースを生成するためのトレース自動差分として PyTorch autograd エンジンをオーバーロードします。

PrimTorch
  • 2000 の PyTorch 演算子は、約 250 の原始演算子閉集合に要約されており、開発者は完全な PyTorch バックエンドを構築できます。 PrimTorch は、PyTorch 関数またはバックエンドを作成するプロセスを大幅に簡素化します。
  • TorchInductor

TorchInductor は、複数のアクセラレータとバックエンド用の高速コードを生成できるディープ ラーニング コンパイラーです。 NVIDIA GPU の場合、OpenAI Triton を主要な構成要素として使用します。

PyTorch Foundation は、2.0 のリリースにより「C から Python への回帰」が促進されると述べ、これが PyTorch の実質的な新しい方向性であると付け加えました。

# 「私たちは「熱心な実行」のパフォーマンスの限界を初日から知っていました。 2017 年 7 月に、私たちは最初の研究プロジェクトを開始し、PyTorch 用のコンパイラーを開発しました。コンパイラーは、研究者が探索のさまざまな段階で動的モデルとプログラムを使用できるように、柔軟性と使いやすさを維持しながら、PyTorch エクスペリエンスを犠牲にすることなく、PyTorch プログラムを迅速に実行できるようにする必要があります。 "

# もちろん、コンパイルされていない「eager モード」は動的リアルタイム コード ジェネレーターを使用しており、2.0 でも引き続き使用できます。開発者は、porch.compile コマンドを使用して、コードを 1 行追加するだけでコンパイル済みモードにすばやくアップグレードできます。

# ユーザーは、2.0 のコンパイル時間が 1.0 と比較して 43% 増加していることがわかります。

このデータは、Nvidia A100 GPU 上の PyTorch 2.0 を使用した 163 のオープン ソース モデルに対する PyTorch Foundation のベンチマーク テストから取得したものです。これには、画像分類、ターゲット検出、画像生成、および他のタスクやさまざまな NLP タスク。

これらのベンチマークは、HuggingFace Transformers、TIMM、TorchBench の 3 つのカテゴリに分類されます。

PyTorch 2.0正式版がリリースされました! 1 行のコードで 2 倍高速化、100% 下位互換性あり

##NVIDIA A100 GPU イーガー モード torch.compile のさまざまなモデルのパフォーマンスの高速化

PyTorch Foundation によると、新しいコンパイラは、Float32 精度モードを使用すると 21% 高速に実行され、自動混合精度 (AMP) モードを使用すると 51% 高速に実行されます。

これら 163 モデルのうち、93% のモデルで torch.compile が正常に実行できます。

「PyTorch 2.x ロードマップでは、パフォーマンスとスケーラビリティの点でコンパイル モデルをさらに進化させたいと考えています。まだ作業が必要です。開始されませんでした。帯域幅が不十分なため、一部の作業を完了できませんでした。」

#LLM をトレーニングして 2 倍高速化しますPyTorch 2.0正式版がリリースされました! 1 行のコードで 2 倍高速化、100% 下位互換性あり

さらに、パフォーマンスも PyTorch 2.0 のもう 1 つの主要な焦点であり、開発者が惜しみなく推進してきた焦点でもあります。

#実際、新機能のハイライトの 1 つは、以前は Better Transformers として知られていた Accelerated Transformers です。

さらに、PyTorch 2.0 の正式バージョンには、新しい高パフォーマンスの PyTorch TransformAPI 実装が含まれています。

PyTorch プロジェクトの目標の 1 つは、最先端のトランスフォーマー モデルのトレーニングとデプロイをより簡単かつ迅速に行うことです。

トランスフォーマーは、GPT-3 や GPT-4 などの OpenAI モデルを含む、現代の生成人工知能の実現に役立つ基本テクノロジーです。

PyTorch 2.0正式版がリリースされました! 1 行のコードで 2 倍高速化、100% 下位互換性ありPyTorch 2.0 Accelerated Transformers では、カスタム カーネル アーキテクチャ アプローチ (スケーリングされたドット積アテンション SDPA とも呼ばれます) により、高いパフォーマンスを提供します。 - トレーニングと推論のパフォーマンス サポート。

Transformer をサポートできるハードウェアの種類は数多くあるため、PyTorch 2.0 は複数の SDPA カスタム カーネルをサポートできます。さらに一歩進んで、PyTorch は、特定のモデルとハードウェア タイプに対して最もパフォーマンスの高いカーネルを選択するカスタム カーネル選択ロジックを統合します。

#アクセラレーションの影響は、開発者が PyTorch の以前のイテレーションよりも速くモデルをトレーニングできるようになるため、重大です。

新バージョンでは、カスタマイズされたカーネル アーキテクチャを使用してスケーリング ドット プロダクト アテンション (SPDA) を処理し、推論の高速パスを拡張することで、トレーニングと推論の高パフォーマンスのサポートが可能になります。建築。

ファストパス アーキテクチャと同様に、カスタム カーネルは PyTorch Transformer API に完全に統合されています。そのため、ネイティブ Transformer と MultiHeadtention API を使用すると、ユーザーは次のことが可能になります。

- 大幅な速度の向上を確認します;

# - の使用を含む、より多くのユースケースをサポートします。クロスアテンション モデル、トランスフォーマー デコーダー、およびトレーニング モデル;

# - 固定および可変シーケンス長のトランスフォーマー エンコーダーとセルフ アテンションの高速パス推論を引き続き使用します。力のメカニズムの場合。

さまざまなハードウェア モデルと Transformer のユースケースを最大限に活用するために、複数の SDPA カスタム コアがサポートされており、特定のモデルとハードウェアに合わせてカスタム コア選択ロジックが選択されます。タイプ 最高性能のコア。

#既存の Transformer API に加えて、開発者は新しいscaled_dot_product_attention() オペレーターを呼び出すことで、スケーリングされたドット積アテンション アテンション カーネルを直接使用して PyTorch を高速化することもできます。 2 トランスフォーマーは torch.compile() と統合されています。

モデルの使用中に PT2 コンパイル (推論またはトレーニング用) をさらに高速化するには、model = torch.compile(model ) を使用できます。モデルを前処理します。

現在、カスタム カーネルと torch.compile() の組み合わせは、高速化された PyTorch 2 Transformer を使用して Transformer モデル、特に大規模な言語をトレーニングするために使用されています。大幅な加速を実現したモデルです。

PyTorch 2.0正式版がリリースされました! 1 行のコードで 2 倍高速化、100% 下位互換性あり

カスタム カーネルと torch.compile を使用して、大規模な言語モデルのトレーニングを大幅に高速化します

HuggingFace Transformers のメインメンテナである Sylvain Gugger は、PyTorch プロジェクトが発表した声明の中で、「わずか 1 行のコードで、PyTorch 2.0 はトレーニング時に 1.5 倍優れたパフォーマンスを提供できます」と述べています。 Transformers モデル。2.0 倍のスピードアップ。これは、混合精度トレーニングの導入以来、最もエキサイティングなことです!」

PyTorch と Google の TensorFlow が最も人気のある 2 つです深層学習フレームワーク。世界中の何千もの教育機関が PyTorch を使用して深層学習アプリケーションを開発しており、その使用量は増加しています。

PyTorch 2.0 のリリースは、ディープラーニングと人工知能アプリケーションの開発を加速するのに役立つと、Lightning AI の最高技術責任者であり、 PyTorch Lightning Luca Antiga 氏は次のように述べています:

## 「PyTorch 2.0 は深層学習フレームワークの未来を体現しています。PyTorch プログラムをキャプチャするためにユーザーの介入は必要なく、外部から使用できます。このボックスの生成と、デバイスの巨大な高速化により、この可能性は AI 開発者にとってまったく新しい次元を開きます。」

参考資料:

https://www.php.cn/link/d6f84c02e2a54908d96f410083beb6e0

https://www.php.cn/link/89b9e0a6f6d1505fe13dea0f18a2dcfa

https:// www.php.cn/link/3b2acfe2e38102074656ed938abf4ac3


以上がPyTorch 2.0正式版がリリースされました! 1 行のコードで 2 倍高速化、100% 下位互換性ありの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明
この記事は51CTO.COMで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。
外挿の包括的なガイド外挿の包括的なガイドApr 15, 2025 am 11:38 AM

導入 数週間で作物の進行を毎日観察する農民がいるとします。彼は成長率を見て、さらに数週間で彼の植物がどれほど背が高くなるかについて熟考し始めます。 thから

ソフトAIの台頭とそれが今日のビジネスにとって何を意味するかソフトAIの台頭とそれが今日のビジネスにとって何を意味するかApr 15, 2025 am 11:36 AM

ソフトAIは、おおよその推論、パターン認識、柔軟な意思決定を使用して特定の狭いタスクを実行するように設計されたAIシステムとして定義されていますが、曖昧さを受け入れることにより、人間のような思考を模倣しようとします。 しかし、これはBusineにとって何を意味しますか

AIフロンティア向けの進化するセキュリティフレームワークAIフロンティア向けの進化するセキュリティフレームワークApr 15, 2025 am 11:34 AM

答えは明確です。クラウドコンピューティングには、クラウドネイティブセキュリティツールへの移行が必要であるため、AIはAIの独自のニーズに特化した新しい種類のセキュリティソリューションを要求します。 クラウドコンピューティングとセキュリティレッスンの台頭 で

3つの方法生成AIは起業家を増幅します:平均に注意してください!3つの方法生成AIは起業家を増幅します:平均に注意してください!Apr 15, 2025 am 11:33 AM

起業家とAIと生成AIを使用して、ビジネスを改善します。同時に、すべてのテクノロジーと同様に、生成的AIが増幅器であることを覚えておくことが重要です。厳密な2024年の研究o

Andrew Ngによる埋め込みモデルに関する新しいショートコースAndrew Ngによる埋め込みモデルに関する新しいショートコースApr 15, 2025 am 11:32 AM

埋め込みモデルのパワーのロックを解除する:Andrew Ngの新しいコースに深く飛び込む マシンがあなたの質問を完全に正確に理解し、応答する未来を想像してください。 これはサイエンスフィクションではありません。 AIの進歩のおかげで、それはRになりつつあります

大規模な言語モデル(LLMS)の幻覚は避けられませんか?大規模な言語モデル(LLMS)の幻覚は避けられませんか?Apr 15, 2025 am 11:31 AM

大規模な言語モデル(LLM)と幻覚の避けられない問題 ChatGpt、Claude、GeminiなどのAIモデルを使用した可能性があります。 これらはすべて、大規模なテキストデータセットでトレーニングされた大規模な言語モデル(LLMS)、強力なAIシステムの例です。

60%の問題 -  AI検索がトラフィックを排出す​​る方法60%の問題 - AI検索がトラフィックを排出す​​る方法Apr 15, 2025 am 11:28 AM

最近の研究では、AIの概要により、産業と検索の種類に基づいて、オーガニックトラフィックがなんと15〜64%減少する可能性があることが示されています。この根本的な変化により、マーケティング担当者はデジタルの可視性に関する戦略全体を再考することになっています。 新しい

AI R&Dの中心に人間が繁栄するようにするMITメディアラボAI R&Dの中心に人間が繁栄するようにするMITメディアラボApr 15, 2025 am 11:26 AM

Elon UniversityがDigital Future Centerを想像している最近のレポートは、300人近くのグローバルテクノロジーの専門家を調査しました。結果のレポート「2035年に人間である」は、ほとんどがTを超えるAIシステムの採用を深めることを懸念していると結論付けました。

See all articles

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

mPDF

mPDF

mPDF は、UTF-8 でエンコードされた HTML から PDF ファイルを生成できる PHP ライブラリです。オリジナルの作者である Ian Back は、Web サイトから「オンザフライ」で PDF ファイルを出力し、さまざまな言語を処理するために mPDF を作成しました。 HTML2FPDF などのオリジナルのスクリプトよりも遅く、Unicode フォントを使用すると生成されるファイルが大きくなりますが、CSS スタイルなどをサポートし、多くの機能強化が施されています。 RTL (アラビア語とヘブライ語) や CJK (中国語、日本語、韓国語) を含むほぼすべての言語をサポートします。ネストされたブロックレベル要素 (P、DIV など) をサポートします。

SAP NetWeaver Server Adapter for Eclipse

SAP NetWeaver Server Adapter for Eclipse

Eclipse を SAP NetWeaver アプリケーション サーバーと統合します。

WebStorm Mac版

WebStorm Mac版

便利なJavaScript開発ツール

MinGW - Minimalist GNU for Windows

MinGW - Minimalist GNU for Windows

このプロジェクトは osdn.net/projects/mingw に移行中です。引き続きそこでフォローしていただけます。 MinGW: GNU Compiler Collection (GCC) のネイティブ Windows ポートであり、ネイティブ Windows アプリケーションを構築するための自由に配布可能なインポート ライブラリとヘッダー ファイルであり、C99 機能をサポートする MSVC ランタイムの拡張機能が含まれています。すべての MinGW ソフトウェアは 64 ビット Windows プラットフォームで実行できます。

VSCode Windows 64 ビットのダウンロード

VSCode Windows 64 ビットのダウンロード

Microsoft によって発売された無料で強力な IDE エディター