ホームページ > 記事 > テクノロジー周辺機器 > HuggingFace が SOTA ビジュアル モデルの作り方を教えます
以前は OpenAI の GPT-4o があり、その後、Google の高度なマルチモーダル大型モデルが次々とヒットしました。
他の実践者たちはショックを受け、これらのスーパーモデルに再び追いつく方法を考え始めました。
HuggingFace とフランスのソルボンヌ大学によるこの論文では、大規模なビジュアル モデルを構築する際の重要な経験を要約し、開発者向けの方法を指摘しています。
写真
これらの体験は、モデル アーキテクチャの選択、トレーニング方法、トレーニング データなどの多くの側面をカバーしています。著者は、複数の比較を経て、次のような詳細な概要を示しました。
HFはこれらの経験を頼りに、同スケールのSOTAビジュアルモデルであるIdefics2を作成することができたと言えます。
Idefics2 は Mistral-7B に基づいており、全体のパラメーター量は 8B で、手書きフォントを正確に認識できます。
写真
これは専門家による優れたレビューであり、これは優れた調査レポートであり、ビジュアルモデル開発者にとって非常に役立つと言っていますが、同時に、これを万能薬として扱ってはいけないことを思い出させるものでもあります。
写真
もちろん、アーキテクチャ データは単なるクラウドであり、GPU の搭載が最も重要であると冗談を言う人もいます。
写真
これにはいくつかの真実がありますが、冗談はさておき、HuggingFace が私たちにどのような経験をもたらしたかを見てみましょう。
HuggingFace 論文のこれらの経験は、ビジュアル モデル Idefics2 の開発プロセスから来ています。
同じスケールの旧 SOTA である前世代の Idefics1 および Flamingo と比較すると、Idefics2 は複数のデータセットで優れたパフォーマンスを発揮し、より大きな 13B モデルをも上回ります。
同時に、COCO データセット上の Idefics2 よりわずかに優れている MM1 と比較して、Idefics2 は各ピクチャで消費するトークンが大幅に少なくなります。
写真
Idefics2 の実際の開発から、HuggingFace が私たちにもたらした経験には、少なくとも次の側面が含まれています:
現在の大規模なビジュアルモデルは主に言語モデル+ビジュアルエンコーダの形式で開発されており、著者はこの2つの全体的なパフォーマンスへの影響を個別に評価しました。
結果は、言語モデルの品質が視覚モデルよりも重要であることを示しています。
同じ数のパラメーターを使用して、より優れた言語モデル (Llama-7B を Mistral-7B に置き換えるなど) を使用すると、下流のタスクにおける大規模なビジュアル モデルのパフォーマンスを大幅に向上させることができます。
ビジュアル エンコーダーのアップグレードによってもたらされる改善は比較的限定的であるため、トレードオフを行う最善の方法は、より強力な言語モデルを優先することです。
Pictures
もちろん、これは、ビジュアル エンコーダーをアップグレードしても効果がないという意味ではありません。条件が許せば、より優れたビジュアル エンコーダーを選択すると、パフォーマンスが向上する可能性があります。
さらに、下流タスクに一致する選択に注意を払う必要があります。たとえば、テキスト認識タスクでは、タスクが高い推論速度を必要とする場合、より軽量なモデルを使用することができます。選択されます。
そして、実際のアプリケーションでは、推論速度とメモリ使用量も考慮する必要がある要素です。Idefics2 が選択した SigLIP-SO400M は、パフォーマンスと効率のバランスが取れています。
アーキテクチャの選択に関して、このホワイトペーパーでは、完全自己回帰とクロスアテンションという 2 つの一般的なアーキテクチャについて説明します。
完全な自己回帰アーキテクチャは、シーケンス全体の依存関係を考慮して、自己回帰的な方法で各出力を生成します。
後者では、モデルが 1 つのモダリティを処理するときに、別のモダリティの異なる部分に動的に焦点を当てることができ、より柔軟な相互接続を実現します。モーダルインタラクション。
特定の研究において、著者は、どのアーキテクチャのパフォーマンスが向上するかは、事前トレーニングされたバックボーンがフリーズされているかどうかに依存することを発見しました。
(簡単に言うと、事前トレーニングされたバックボーンが正式なトレーニング プロセスに参加している場合は凍結されておらず、参加していない場合は凍結されています)
凍結されていない場合、完全自己回帰アーキテクチャのパフォーマンスが向上します、逆も同様で、クロスアテンション アーキテクチャのパフォーマンスが向上します。
写真
バックボーンを凍結する必要があるかどうかについては、開発者のニーズの焦点によって異なります。
リソースが限られている状況で、高いパフォーマンスが必要で、レイテンシに非常に敏感な場合は、フリーズがより適切です。
モデルに高い柔軟性と適応性を持たせたい場合は、フリーズしないトレーニング方法を選択する必要があります。
特に Idefics2 では、バックボーンをフリーズしないことを選択したため、それに応じて完全な自己回帰アーキテクチャを採用しました。
写真
適切なアーキテクチャを選択することは重要ですが、トレーニングプロセスも重要です。Idefics2 のトレーニングプロセス中に、著者は参考のためにこれらの経験を要約しました:
最初。全体として段階的な事前トレーニング戦略を採用し、初期段階では低解像度の画像を使用し、その後高解像度の PDF ドキュメントを導入します。このアプローチにより、モデルの複数の機能を徐々に構築できます。
2 つ目は、画像特徴を言語モデルに直接フィードする代わりに学習済みプーリングを使用することです。これにより、画像トークンの数が大幅に削減され、トレーニングと推論の効率が大幅に向上し、パフォーマンスも向上します。
3 番目の方法は、画像を複数のサブ画像に分割し、トレーニング中にそれらをモデルに送信することで、推論時のパフォーマンスを向上させることができます。これは、テキストなどのタスクで特に効果的です。すべての画像をこのように扱う必要があるわけではありません。
4 番目に、命令の微調整フェーズでより多様なデータとタスクを使用すると、モデルの一般化と堅牢性を向上させることができます。
さらに、トレーニングを安定させるために、事前トレーニングされたシングルモーダル バックボーンがトレーニングに参加するとき (フリーズされていない)、著者は LoRA テクノロジーを使用して事前トレーニング パラメーターも適応させます。
トレーニング プロセス自体に加えて、選択されたデータもモデルのパフォーマンスに大きな影響を与えます。
収集段階の初めから、複数のタイプのデータの選択に注意を払う必要があります。たとえば、Idefics2 で使用されるデータには、画像とテキストが配置されたドキュメント (Web ページなど)、画像とテキストのペアの 3 つのカテゴリが含まれます。 (写真のタイトルなど)、OCR 注釈付きの PDF ドキュメント。
さまざまな種類のデータの割合も、単に均等に分割するのではなく、実際のニーズに応じて適切にバランスをとる必要があります。
データサイズに関しては、条件が許せば大きいほど良いですが、もちろん、低品質のデータを除外することに注意を払う必要があります。
もちろん、収集はトレーニングデータを取得するための単なるステップです。モデルを適切にトレーニングしたい場合は、特定の処理が必要です。
さまざまな種類のデータに対して異なる前処理と強化戦略を採用します。たとえば、OCR データの場合は高解像度の画像を使用する必要がありますが、他のデータの場合は低解像度を使用できます。
ここで注意する必要があるのは、画像を処理するときに元のアスペクト比と解像度を保持する必要があるということです。これにより、モデルの適応性を向上させながら、トレーニングと推論の計算オーバーヘッドを大幅に節約できます。
これらの経験があなたにインスピレーションを与えたと思われる場合は、詳細について元の論文を読むことができます。また、コメント エリアで開発経験を共有することも歓迎します。
書類のアドレス: https://www.php.cn/link/52c8b8d56837155b4870fc2658b676f0
以上がHuggingFace が SOTA ビジュアル モデルの作り方を教えますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。