ホームページ > 記事 > テクノロジー周辺機器 > データ競争での勝利の秘密を明らかにする: 200 試合で分析した A100 の利点
2022 年は AI にとってもデータ コンテストにとっても重要な年であり、すべてのプラットフォームの賞金総額は 500 万ドルを超えています。
最近、機械学習競争分析プラットフォーム ML Contests は、2022 年のデータ競争に関する大規模な統計を実施しました。新しいレポートでは、2022 年の注目すべき出来事をすべて概観しています。以下は原文を編集したものです。
ハイライト:
賞金が最も高額なコンテストは、米国開拓局が主催する Drivendata の Snow Cast Showdown Contest です。参加者は賞金 50 万ドルを受け取り、西部のさまざまな地域の正確な雪水流量推定値を提供することで、給水管理の改善に貢献することを目的としています。いつものように、Drivendata はこの対戦について詳細な記事を書き、詳細な解決策レポートを掲載しているので、一読の価値があります。
2022 年に最も人気のあるコンテストは、顧客がローンを返済するかどうかを予測することを目的とした Kaggle の American Express Default Prediction コンテストです。 4,000 チーム以上が参加し、賞金 10 万ドルが上位 4 チームに分配されました。今年初めて、ニューラル ネットワークと LightGBM モデルのアンサンブルを使用した 1 人チームが初エントリーを獲得しました。
最大の独立系コンテストはスタンフォード大学の AI Audit Challenge で、最高の「モデル、ソリューション、データセット、ツール」に 71,000 ドルの賞金が与えられます。 「違法な差別的AI審査システム」について。
財務予測に基づく 3 つのコンテストはすべて Kaggle 上にあります。JPX の東京証券取引所の予測、Ubiquant の市場予測、G-Research の仮想通貨の予測です。
さまざまな方向で比較すると、コンピューター ビジョンが最も高い割合を占め、NLP が 2 位にランクされ、逐次的意思決定問題 (強化学習) が増加しています。 Kaggle は、2020 年にシミュレーション コンペティションを導入することで、この人気の高まりに応えました。 Aicrowd は強化学習コンテストも多数主催しています。 2022 年には、これらのインタラクティブ イベントのうち 25 件の総額が 30 万ドルを超えました。
NeurIPS 2022 の公式競技会リアル ロボット チャレンジでは、参加者は 3 本指ロボットを制御して立方体を目標位置に移動したり、空間内の特定の点に配置したりする方法を学ばなければなりません。そして正しい方向を向いてください。参加者の戦略は毎週物理ロボット上で実行され、結果はリーダーボードで更新されます。この賞は賞金 5,000 ドルと、NeurIPS シンポジウムでの講演という学術的栄誉に与えられます。
Kaggle と Tianchi はよく知られていますが、現在、活発なエコシステムを形成する機械学習の競争プラットフォームが多数存在します。
下の図は、2022 年のプラットフォームの比較を示しています。
いくつか挙げてください。例:
コンテストの賞金のほとんどは、産業界の大規模なプラットフォームで運営されています。しかし、イザベル・ガイヨン氏が今年の NeurIPS 招待講演で論じたように、機械学習コンテストには明らかに学界においてより豊かな歴史があります。
NeurIPS は、世界で最も権威のある学術機械学習カンファレンスの 1 つです。このカンファレンスでは、AlexNet、GAN、Transformer など、過去 10 年間の最も重要な機械学習論文が頻繁に発表されます。そしてGPT-3。
NeurIPS は、2014 年に初めて機械学習におけるデータ チャレンジ (CIML) ワークショップを開催し、2017 年からはコンペティション コンポーネントを開催しています。それ以来、競争と賞金総額は増え続け、2022 年 12 月には 40 万ドル近くに達しました。
CVPR、ICPR、IJCAI、ICRA、ECCV、PCIC、AutoML など、他の機械学習カンファレンスでもコンテストが開催されます。
すべての機械学習コンテストの約半数には、賞金総額が 10,000 ドルを超えています。多くの興味深いコンテストには少額の賞が設けられていることに疑いの余地はなく、このレポートでは賞金や学術的栄誉のあるコンテストのみを対象としています。多くの場合、権威ある学術会議に関連したデータコンテストでは、優勝者に会議に出席するための交通費が支給されます。
一部のトーナメント プラットフォームは他のトーナメント プラットフォームよりも平均して賞金プールが大きい傾向がありますが (プラットフォーム比較表を参照)、多くのプラットフォームは 2022 年の非常に大きなコンテストで少なくとも 1 つの賞金プールを主催しています。賞金総額のトップ 10 コンテストには、DrivenData、Kaggle、CodaLab、AIcrowd で開催されたコンテストが含まれます。
この調査では、アンケートとコード観察を通じて、勝利アルゴリズムで使用されているテクニックを分析します。
まったく一貫して、コンテストの勝者が選んだ言語は Python でしたが、これは人々にとって予想外の結果ではないかもしれません。 Python を使用するユーザーのうち、約半数は主に Jupyter Notebook を使用し、残りの半数は標準の Python スクリプトを使用します。
主に R を使用した勝利のソリューションは次のとおりです: Amir Ghazi が Kaggle で勝利し、2022 年のアメリカ男子大学バスケットボール トーナメントの優勝者を予測しましたゲーム。彼は、Kaggle グランドマスターである Darius Barušauskas が作成した 2018 年のコンテストで優勝したソリューションのコードを使用して (明らかにそのままコピーして) これを実行しました。信じられないことに、ダリウスは2022年にもこのレースに出場し、新たなアプローチを用いて593位でフィニッシュした。
受賞ソリューションで使用されたパッケージを見ると、結果は、すべての受賞者が Python をある程度 PyData スタックを使用していることを示しました。
最も人気のあるソフトウェア パッケージは、コア ツールキット、NLP カテゴリ、およびコンピューター ビジョン カテゴリの 3 つのカテゴリに分類されます。
その中でも、ディープ ラーニング フレームワーク PyTorch の成長は安定しており、2021 年から 2022 年にかけての飛躍は非常に明白です。勝利のソリューションであることが 77% から 96% に増加しました。
ディープラーニングを使用した受賞ソリューション 46 件のうち、44 件は主要なフレームワークとして PyTorch を使用し、TensorFlow を使用したのは 2 件だけでした。さらに顕著なのは、TensorFlow を使用して優勝した 2 つのコンテストのうちの 1 つである Kaggle のグレート バリア リーフ コンペティションでは、TensorFlow を使用した優勝チームに追加の賞金 50,000 ドルが提供されているということです。 TensorFlow を使用して優勝した別のコンテストでは、高レベルの Keras API が使用されていました。
pytorch-lightning を使用した勝者が 3 名、fastai を使用した勝者が 1 名でしたが、両方とも上記の PyTorch 上に構築されましたが、大多数の人は PyTorch を直接使用します。
少なくともデータ競争においては、PyTorch が機械学習フレームワークの戦いに勝利したと言えるかもしれません。これは、より広範な機械学習研究の傾向と一致しています。
注目すべきことに、JAX (Google が構築し DeepMind が使用)、PaddlePaddle (Baidu が開発)、MindSpore (ファーウェイが開発)。
ツールは世界を支配する傾向がありますが、テクノロジーはそうではありません。 CVPR 2022 では、ConvNext アーキテクチャが「2020 年代の ConvNet」として紹介され、最近の Transformer ベースのモデルを上回るパフォーマンスを発揮することが証明されました。 CNN は、少なくとも 2 つのコンペティションで優勝したコンピューター ビジョン ソリューションで使用されており、全体として、現在に至るまでコンピューター ビジョン コンペティションの勝者の間で最も人気のあるニューラル ネットワーク アーキテクチャであり続けています。
#コンピュータ ビジョンは、ImageNet などの公開データセットでの事前トレーニング済みモデルの使用における言語モデリングと非常に似ています。 )で訓練されたわかりやすいアーキテクチャ。最も人気のあるリポジトリは Hugging Face Hub で、timm を通じてアクセスでき、数十の異なるコンピューター ビジョン モデルの事前トレーニング済みバージョンをロードするのが非常に便利です。
事前トレーニングされたモデルを使用する利点は明らかです。現実世界の画像と人間が生成したテキストにはいくつかの共通の特徴があり、事前トレーニングされたモデルを使用すると、同様の常識的な知識を得ることができます。 to Yu は、より大規模でより一般的なトレーニング データセットを使用しました。
通常、事前トレーニングされたモデルは、タスク固有のデータ (競技主催者によって提供されるデータなど) に基づいて微調整され、さらにトレーニングされますが、常にそうとは限りません。イメージ マッチング チャレンジの優勝者は、微調整をまったく行わずに事前トレーニングされたモデルを使用しました。「このコンテストではトレーニング データとテスト データの (異なる) 品質のため、提供されたトレーニングを使用して微調整しませんでした。あまり効果的ではないと思いました。」 この決断は功を奏しました。
これまでのところ、2022 年の受賞者の中で最も人気のある事前トレーニング済みコンピューター ビジョン モデル タイプは EfficientNet で、その名前が示すように、他の多くのモデルよりもリソースの消費が少ないという利点があります。モデル。
自然言語処理トランスフォーマーベースのモデルは、2017 年の開始以来、自然言語処理の主流を占めてきました。言語処理 (NLP) の分野。 Transformer は BERT と GPT の「T」であり、ChatGPT の中核でもあります。
したがって、自然言語処理コンテストで優勝したすべてのソリューションの中核に Transformer ベースのモデルがあることは驚くべきことではありません。それらがすべて PyTorch で実装されていることは驚くべきことではありません。これらはすべて、Hugging Face の Transformers ライブラリを使用して読み込まれた事前トレーニング済みモデルを使用し、ほとんどすべてが Microsoft Research の DeBERTa モデル (通常は deberta-v3-large) バージョンを使用していました。
それらの多くは、大量のコンピューティング リソースを必要とします。たとえば、Google AI4Code の勝者は、A100 (80GB) を約 10 日間実行して、最終ソリューション用に単一の deberta-v3-large をトレーニングしました。このアプローチは例外です (単一マスター モデルと固定トレイン/評価分割を使用)。他のすべてのソリューションではアンサンブル モデルが多用され、ほとんどすべてのソリューションで何らかの形式の k 分割相互検証が使用されます。たとえば、Jigsaw Toxic Comments コンテストの優勝者は、15 のモデルの出力の加重平均を使用しました。
Transformer ベースのアンサンブルは、LSTM または LightGBM と組み合わせて使用されることがあります。また、優れたソリューションに効果的に使用された疑似ラベル付けのインスタンスが少なくとも 2 つあります。
XGBoost はかつて Kaggle の代名詞でした。ただし、LightGBM が 2022 年の勝者にとってお気に入りの GBDT ライブラリであることは明らかです。勝者は、CatBoost と XGBoost を合わせた数と同じくらい多くの回数、ソリューション レポートやアンケートで LightGBM について言及し、CatBoost が 2 位となり、XGBoost は驚くべきことに 3 位にランクされました。
##大まかに予想したように、ほとんどの勝者はトレーニングに GPU を使用しました。勾配ブースト ツリーのトレーニング パフォーマンスを向上させるもので、ディープ ニューラル ネットワークには実際に必要です。かなりの数の受賞者が、雇用主または大学が提供するクラスター (GPU を含む) にアクセスできます。
やや意外なことに、Google のテンソル処理ユニットである TPU を使用して勝利モデルをトレーニングした例は見つかりませんでした。また、2022 年 5 月から PyTorch でサポートされている Apple の M シリーズ チップでトレーニングされた優勝モデルも見つかりませんでした。
Google のクラウド ノートブック ソリューション Colab は人気があり、無料プランで 1 名、Pro プランで 1 名、Pro でもう 1 名が優勝しました (4 番目の優勝者は確認できません)。 Colab で使用されるパッケージ)。
ローカルのパーソナル ハードウェアはクラウド ハードウェアよりも人気があり、9 人の受賞者がトレーニングに使用した GPU について言及しましたが、ローカル GPU とクラウド GPU のどちらを使用したかは明らかにしませんでした。
#最も人気のある GPU は、最新のハイエンド AI アクセラレータ カード NVIDIA A100 (ここでは、A100 40GB と A100 80GB です)たとえば、Zindi の Turtle Recall コンテストの優勝者は 8 つの A100 (40GB) GPU を使用し、他の 2 つの優勝者は 4 つの A100 を使用しました。チーム編成
多くのコンテストでは、1 チームあたり最大 5 人の参加者が許可されており、チームは結果提出期限前の時点で個人またはより小規模なチームで構成できます。チームを「統合」します。締め切り前に一緒に。一部の競技会では、より大規模なチームが参加できます。たとえば、Waymo のオープン データ チャレンジでは、1 チームあたり最大 10 人が参加できます。
#結論
2023 年には多くのエキサイティングな新しいコンテストが予定されており、その終了に合わせてさらに詳しい情報を公開できることを楽しみにしています。
以上がデータ競争での勝利の秘密を明らかにする: 200 試合で分析した A100 の利点の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。