ホームページ > 記事 > テクノロジー周辺機器 > 2人の中国のGoogle研究者が初の純粋に視覚的な「モバイルUI理解」モデルを発表、SOTAを刷新する4つの主要なタスク
AI にとって、「携帯電話で遊ぶ」ことは簡単なことではありません。さまざまなユーザー インターフェイス (UI) を識別するだけでも大きな問題になります。各コンポーネントの種類を識別するだけでなく、その記号の使用も識別する必要があります。コンポーネントの機能を決定するための位置。
#モバイル デバイスの UI を理解すると、UI の自動化など、人間とコンピューターのさまざまな対話タスクを実現するのに役立ちます。 これまでのモバイル UI のモデリングは、通常、画面のビュー階層情報に依存し、UI の構造データを直接利用することで、画面ピクセルから始まるコンポーネントの識別の問題を回避していました。 ただし、すべてのビュー階層がすべてのシナリオで使用できるわけではありません。この方法では通常、オブジェクトの説明が欠落していたり、構造情報が正しく配置されていないため、不正確な結果が出力されるため、ビュー階層を使用すると、短期的なパフォーマンスは向上しますが、最終的にはパフォーマンスが低下する可能性があります。モデルの適用性と一般化パフォーマンス。 最近、Google Research の 2 人の研究者が、モバイル UI の理解に使用できる純粋に視覚的な方法である Spotlight を提案しました。視覚言語モデルに基づいて、ユーザー インターフェイスのスクリーンショットとユーザーの感覚を組み合わせるだけで済みます。画面上の関心領域 (フォーカス) を入力として使用できます。 論文リンク: https://arxiv.org/pdf/2209.14927.pdfSpotlight の一般的なアーキテクチャは非常に簡単に拡張可能ですさまざまなユーザー インターフェイス モデリング タスクを実行できます。 この記事の実験結果は、Spotlight モデルがいくつかの代表的なユーザー インターフェイス タスクで優れたパフォーマンスを達成し、スクリーンショットやビュー階層を入力として使用する以前の方法をうまく上回ったことを示しています。 さらに、この記事では、Spotlight モデルのマルチタスク学習と少数ショット プロンプト機能についても調査し、マルチタスク学習の方向で有望な実験結果も示しています。 この論文の著者であるヤン・リーは、Google Research Center の上級研究員であり、ワシントン大学 CSE の提携教員であり、中国科学院でコンピュータ サイエンスの博士号を取得しています。カリフォルニア大学バークレー校の EECS で博士研究員として研究を実施。彼は Next Android App Prediction の開発を主導し、Android でのオンデバイス インタラクティブ機械学習の先駆者であり、ジェスチャー検索などを開発しています。 スポットライト: モバイル インターフェイスの理解ユーザー インターフェイスの計算による理解は、インテリジェントな UI 動作を実現するための重要なステップです。 これに先立って、チームは、ウィンドウ タイトル (ウィジェット)、画面要約 (画面要約)、コマンドグラウンディングなど、さまざまな UI モデリング タスクを研究しました。これらのタスクは、さまざまな対話シナリオの自動化と使いやすさを解決しました。アクセシビリティの問題。 その後、これらの関数は、「ユーザー エクスペリエンス実践者」がクリック可能性の混乱を診断することで UI の品質を向上させるのに機械学習がどのように役立つかを実証するためにも使用され、UI デザインを改善するためのアイデアを提供しました。これらは共に、ディープ ニューラル ネットワークがエンドユーザー エクスペリエンスとインタラクション デザインの実践を潜在的にどのように変えることができるかを示しています。 「単一 UI タスク」の処理にはある程度の成功を収めましたが、次の問題は、「 から実行できるかどうか」です。具体的には「UI認識」タスクにおける「一般UI」の処理能力を向上させます。 Spotlight モデルは、この問題を解決する最初の試みでもあります。研究者らは、一連の UI タスクを同時に処理するマルチタスク モデルを開発しました。作業にはある程度の進歩が見られましたが、課題はいくつかあります。まだ問題があります。 以前の UI モデルは、Web ページのドキュメント オブジェクト モデルなど、モバイル UI 画面の構造またはメタデータである UI ビュー階層に大きく依存していました。モデルは、Web ページ上の UI オブジェクトを直接取得します。画面の種類、テキストの内容、場所などの詳細。この種のメタデータにより、以前のモデルは純粋に視覚的なモデルよりも有利になりましたが、ビュー階層データへのアクセスが大きな問題となり、オブジェクトの説明の欠落や構造情報の不適切な位置合わせなどの問題が頻繁に発生しました。
したがって、ビュー階層を使用すると短期的にはメリットがありますが、最終的にはモデルのパフォーマンスと適用性が妨げられる可能性があります。さらに、以前のモデルは、データセットや UI タスク全体で異種の情報を処理する必要があり、多くの場合、最終的にタスク全体でスケールしたり汎用化したりすることが困難な、より複雑なモデル アーキテクチャをもたらしました。
純粋に視覚的な Spotlight アプローチは、完全に生のピクセルからユニバーサル ユーザー インターフェイスの理解機能を実現することを目的としています。
研究者は、さまざまな UI タスクを表現するための統一されたアプローチを導入しています。情報は、ビジュアルと言語の 2 つのコア モードで普遍的に表現できます。ビジュアル モードは、ユーザーが UI 画面から見たものをキャプチャします。コンテンツと言語パターンは、自然言語またはタスク関連のトークン シーケンスです。
Spotlight モデルの入力は、スクリーンショット、画面上の関心領域、タスクのテキスト説明の 3 つの要素です。出力は、関心領域に関するテキストの説明または応答です。 。
モデルのこの単純な入出力表現はより一般的で、さまざまな UI タスクに適用でき、さまざまなモデル アーキテクチャに拡張できます。
このモデルは、特定のタスクの微調整からマルチタスクの学習に至るまで、一連の学習戦略と設定を可能にするように設計されています。ショット学習。
Spotlight モデルは、高リソースの一般的なビジュアル言語フィールドで事前トレーニングされた ViT や T5 などの既存のアーキテクチャ ビルディング ブロックを利用でき、これらの一般的なドメイン モデルの上に直接構築できます。
UI タスクは通常、画面上の特定のオブジェクトまたは領域に関連しているため、モデルは対象のオブジェクトまたは領域に焦点を合わせることができる必要があります。研究者は、フォーカス領域抽出器 (Focus Regional Extractor) を導入しました。 ) を視覚言語モデルに取り込み、モデルが画面コンテキストに基づいてその領域に焦点を当てることができるようにします。
研究者らはまた、領域境界ボックスによって生成されたアテンション クエリを使用して、ViT エンコーディングに基づいて画面領域の潜在表現を取得する領域サマライザーを設計しました。
具体的には、各座標の境界ボックス (左、上、右、または下を含むスカラー値) であり、スクリーンショットでは黄色のボックスとして表されます。
まず、多層パーセプトロン (MLP) を通じて入力を一連の密ベクトルに変換し、それを Transformer モデルにフィードバックして、座標に応じた埋め込みベクトル (座標型埋め込み) を取得します。密ベクトルとそれに対応する座標タイプの埋め込みは、各座標値との関係を示すために色分けされています。
次に、座標クエリが「クロスアテンション」を通じて ViT 出力の画面エンコーディングに参加し、最後に Transformer のアテンション出力が地域別の出力として使用されます。 T5 ダウンストリーム デコードの表現。
研究者らは、C4 コーパスに基づく内部データ セットと内部モバイル データ セットである 2 つのラベルなし (ラベルなし) データ セットを使用して Spotlight モデルを事前トレーニングしました。 、合計 250 万のモバイル UI 画面と 8,000 万の Web ページが含まれています。
次に、事前トレーニングされたモデルが、タイトル、概要、グルーディング、クリック可能性という 4 つの下流タスクに合わせて微調整されます。
ウィンドウ タイトル (ウィジェット キャプション) および画面概要タスクの場合は、CIDEr メトリクスを使用して、モデルのテキスト説明が評価者によって作成された一連の参照にどの程度類似しているかを測定します。コマンド グラウンディング タスクの場合は、精度が測定されます。メトリクスは、ユーザーに対するモデルの応答です。ターゲット オブジェクトの位置を正常に特定したコマンドの割合です。クリック可能性の予測には、F1 スコアを使用して、クリック可能なオブジェクトとクリック不可能なオブジェクトを区別するモデルの能力を測定します。
実験では、Spotlight をいくつかのベースライン モデルと比較しました。WidgetCaption は、ビュー階層と各 UI オブジェクトの画像を使用して、オブジェクトのテキスト説明を生成します。Screen2Words は、ビュー階層、スクリーンショット、およびアクセシビリティ機能 (アプリ プログラムなど) を使用します。説明) 画面の概要を生成します。VUT はスクリーンショットとビュー階層を組み合わせて複数のタスクを実行します。元の Tappability モデルは、ビュー階層とスクリーンショットからのオブジェクト メタデータを利用して、オブジェクトの Tappability を予測します。
Spotlight は、以前の sota モデルを大幅に上回りました。 4 つの UI モデリング タスクで構成されます。
より困難なタスク設定では、モデルは複数のタスクを同時に学習する必要があります。これは、マルチタスク モデルを使用すると学習時間が大幅に短縮されるためです。モデルのエネルギー消費量 (モデルのフットプリント) の結果は、Spotlight モデルのパフォーマンスが依然として競争力があることを示しています。
Region Summarizer によって Spotlight がどのようにして画面上のターゲット領域と関連領域に焦点を合わせることができるのかを理解するために、研究者らはウィンドウを分析しました。タイトルと画面の概要タスクは、モデルがスクリーンショットのどこに注目しているかを示します。
下の図では、ウィンドウ タイトル タスクについて、モデルが「チェルシー チームを選択する」と予測した場合、左側のチェック ボックスがオンになります。は赤い枠線で強調表示されており、右側のアテンション ヒート マップから、モデルがチェックボックスのターゲット領域に注意を払うことを学習しただけでなく、一番左のテキスト「チェルシー」にも注意を払うことを学習したことがわかります。 」とタイトルを生成します。
画面概要タスクの場合、モデルは「学習アプリのチュートリアルを表示するページ」を予測し、左側のスクリーンショットを考えると、この例では、ターゲット領域は画面全体であり、モデルは要約のために画面の重要な部分を処理する方法を学習できます。
参考資料:
https://www.php.cn/link/64517d8435994992e682b3e4aa0a0661
以上が2人の中国のGoogle研究者が初の純粋に視覚的な「モバイルUI理解」モデルを発表、SOTAを刷新する4つの主要なタスクの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。