検索
ホームページテクノロジー周辺機器AISOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案

この記事では、AAAI 2023 に掲載された論文を紹介します。この論文は、上海交通大学およびクイーンズ大学ベルファストのスケーラブル コンピューティングおよびシステムの上海主要研究所の Hua Yang 氏と Louis Ann 氏によって書かれました。那州州立大学が共同で完成させた。

SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案

  • 紙のリンク: https://arxiv.org/abs/2212.01197
  • コードリンク (ALA モジュールの使用手順を含む): https://github.com/TsingZ0/FedALA

本論文は、クライアントが必要とする情報をグローバルモデルから自動的に取得することにより、フェデレーテッドラーニングにおける統計的不均一性問題に対処するフェデレーテッドラーニングのための適応型ローカル集約手法を提案する。著者は 11 個の SOTA モデルを比較し、最適な方法を 3.27% 上回る優れたパフォーマンスを達成しました。著者は、適応型ローカル集約モジュールを他のフェデレーテッド ラーニング手法に適用し、最大 24.19% の改善を達成しました。

1 はじめに

フェデレーション ラーニング (FL) は、ユーザーのプライバシー データを広めずにローカルに保存することで、プライバシーを保護しながら、人々がお互いを完全に理解し、学び合うのに役立ちます。ユーザーデータに。ただし、クライアント間のデータは目に見えないため、データの統計的な不均一性 (非独立で同一に分散されたデータ (非 IID) およびデータ量の不均衡) が FL の大きな課題の 1 つとなっています。データの統計的不均一性により、従来のフェデレーション学習手法 (FedAvg など) では、FL プロセス トレーニングを通じて各クライアントに適した単一のグローバル モデルを取得することが困難になります。

近年、データの統計的不均一性に対処できるため、パーソナライズされたフェデレーテッド ラーニング (pFL) 手法がますます注目を集めています。高品質のグローバル モデルを求める従来の FL とは異なり、pFL アプローチは、フェデレーション ラーニングの協調的なコンピューティング能力を使用して、各クライアントに適したパーソナライズされたモデルをトレーニングすることを目的としています。サーバー上でのモデルの集約に関する既存の pFL 研究は、次の 3 つのカテゴリに分類できます。

(1) 単一のグローバル モデルを学習して微調整する方法 (Per-FedAvg など)および FedRep;

(2) pFedMe や同上など、追加のパーソナライゼーション モデルを学習する方法;

(3) パーソナライゼーションによる集約 (またはローカル アグリゲーション) ローカル モデルを学習するためのメソッド (FedAMP、FedPHP、FedFomo、APPLE、PartialFed など)。

カテゴリ (1) および (2) の pFL メソッドは、ローカル初期化 (各反復でのローカル トレーニングの前にローカル モデルを初期化することを指します) にグローバル モデルからのすべての情報を使用します。ただし、グローバル モデルでは、ローカル モデルの品質を向上させる情報 (ローカルのトレーニング目標を満たす、クライアントが必要とする情報) のみがクライアントにとって有益です。グローバル モデルには、単一のクライアントに必要な情報と不要な情報の両方が含まれるため、一般化が不十分です。したがって、研究者らは、パーソナライズされた集約を通じてグローバル モデルで各クライアントが必要とする情報を取得するカテゴリー (3) の pFL 手法を提案しています。ただし、カテゴリ (3) の pFL メソッドは依然として存在しており、(a) クライアントのローカル トレーニング目標を考慮せず (FedAMP や FedPHP など)、(b) 計算コストと通信コストが高くなります (FedFomo や APPLE など)、(c)プライバシー漏洩などの問題 (FedFomo や APPLE など)、および (d) パーソナライズされた集計とローカルのトレーニング目標の間の不一致 (PartialFed など)。さらに、これらのメソッドは FL プロセスに大幅な変更を加えているため、これらのメソッドが使用するパーソナライズされた集計メソッドは、ほとんどの既存の FL メソッドでは直接使用できません。

FedAvg と比較して反復ごとの通信コストを増加させることなく、クライアントが必要とする情報をグローバル モデルから正確に取得するために、著者はフェデレーション Learning Adaptive Local Aggregation の手法を提案しました。メソッド (FedALA)。図 1 に示すように、FedALA は、各ローカル トレーニングの前に、適応ローカル アグリゲーション (ALA) モジュールを通じてグローバル モデルとローカル モデルを集約することにより、グローバル モデル内の必要な情報を取得します。 FedALA は、FedAvg と比較して、他の FL プロセスを変更せずに各反復でローカル モデルの初期化プロセスを変更するために ALA のみを使用するため、ALA は他のほとんどの既存の FL メソッドに直接適用して、それぞれのパフォーマンスを向上させることができます。

SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案

#図 1: 反復におけるクライアント上のローカル学習プロセス

2 メソッド

##2.1 適応型ローカル集約 ( ALA)

SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案

図 2: アダプティブ ローカル アグリゲーション (ALA) プロセス

適応型ローカル アグリゲーション (ALA) プロセスを図 2 に示します。従来のフェデレーテッド ラーニングと比較して、ダウンロードされたグローバル モデル

はローカル モデル で直接上書きされ、ローカル初期化モデルを取得します。 の方法 (つまり、) では、FedALA は、各パラメータのローカル集約の重みを学習することにより、適応型ローカル集約を実行します。

SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案


その中で、著者は

「renew」と呼んでいます。さらに、作者は要素ごとの重み枝刈りメソッド SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 を通じて正則化を実装し、SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 の値を [0,1] に制限します。 SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案ディープ ニューラル ネットワーク (DNN) の下位層ネットワークは上位層に比べて相対的に一般的な情報を学習する傾向があり、一般的な情報は各ローカル モデルに必要な情報であるため、したがって、グローバル モデルの下位ネットワークの情報のほとんどは、ローカル モデルの下位ネットワークで必要な情報と一致します。ローカル集約の重みを学習するために必要な計算コストを削減するために、著者は ALA の範囲を制御するハイパーパラメータ p を導入し、グローバル モデルの下位層のネットワーク パラメータがローカル モデルの下位層のネットワークを直接カバーするようにします。上位層のみ ALA を有効にします。

SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案このうち、

SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 のニューラル ネットワーク層の数を表します。 (またはニューラル ネットワーク ブロックの数)、SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 の下位ネットワークの形状と一致しており、SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 の残りの部分と一致しています。 p 層の上位ネットワークは同じ形状です。 SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案

作成者は、SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 のすべての値を 1 に初期化し、ローカル初期化の各ラウンド中に古い SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 に基づいて SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 を更新します。計算コストをさらに削減するために、著者はランダム サンプリング s

SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案

を使用します。ここで、SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 は学習です。 SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 レートを更新します。 SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 を学習する過程で、著者は SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 を除く他の学習可能なパラメータを凍結しました。

SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案

図 3: MNIST および Cifar10 データセットにおけるクライアント 8 の学習曲線

より小さい p 値を選択すると、FedALA のパフォーマンスに影響を与えることなく、ALA のトレーニングに必要なパラメーターを大幅に削減できます。さらに、図 3 に示すように、最初のトレーニング セッションで収束するようにトレーニングされると、その後の反復でトレーニングされたとしても、ローカル モデルの品質に大きな影響を与えないことを著者らは観察しました。つまり、各クライアントは古い SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 を再利用して、必要な情報を取得できます。著者は、計算コストを削減するために、後続の反復で SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 を微調整する方法を採用しています。 SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案

2.2 ALA 分析

分析に影響を与えることなく、簡単にするために、作成者は SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 を無視し、SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 と仮定します。上記の式により、SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 が得られます。SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 を表します。作成者は、ALA の SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 の更新を SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 の更新と考えることができます。

SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案

勾配項SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案は、各ラウンドで要素ごとにスケールされます。ローカル モデルのトレーニング (または微調整) 方法とは異なり、上記の SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 の更新プロセスは、グローバル モデル内の共通情報を認識できます。異なる反復ラウンド間で、動的に変化する SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案 によって ALA モジュールに動的な情報が導入され、FedALA が複雑な環境に適応しやすくなります。

3 実験

著者は、ResNet-18 を使用して、実際のデータ異種混合環境における Tiny-ImageNet データセットのハイパーパラメータ s と p を比較しました。 FedALA の影響を表 1 に示します。の場合、ALA モジュール学習によりランダムにサンプリングされたローカル トレーニング データを使用すると、パーソナライズされたモデルのパフォーマンスが向上しますが、計算コストも増加します。 ALA を使用する場合、 のサイズは各クライアントの計算能力に基づいて調整できます。表からわかるように、FedALA は、非常に小さい s (s=5 など) を使用した場合でも優れたパフォーマンスを発揮します。 p については、異なる p 値はパーソナライズされたモデルのパフォーマンスにほとんど影響を与えませんが、計算コストには大きな違いがあります。この現象は、モデルを分割し、ニューラル ネットワーク層をクライアントにアップロードせずに出力の近くに保持する FedRep などの手法の有効性を、ある側面から示しています。 ALA を使用する場合、パーソナライズされたモデルのパフォーマンス機能を確保しながら、より小さく適切な p 値を使用して計算コストをさらに削減できます。

SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案

#表 1: ハイパーパラメータとその FedALA への影響に関する調査

#著者は、FedALAと11のSOTA手法を、病理学的データ異種環境と実践データ異種環境において比較分析した。表 2 に示すように、データは、これらのケースで FedALA がこれら 11 の SOTA メソッドよりも優れていることを示しています。ここで、「TINY」とは、Tiny-ImageNet で 4 層 CNN を使用することを意味します。たとえば、TINY の場合、FedALA は最適なベースラインを 3.27% 上回っています。

SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案

#表 2: 病理学的データと実データの異種環境下での実験結果

さらに、著者はFedALA のパフォーマンスも、さまざまな異種環境とクライアントの総数の下で評価されました。表 3 に示すように、FedALA はこれらの条件下でも依然として優れたパフォーマンスを維持しています。

SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案

#表 3: その他の実験結果

表 3 に基づく実験その結果、ALA モジュールを他の方法に適用すると、最大 24.19% の改善を達成できます。

最後に、著者は、図 4 に示すように、MNIST 上の元の FL プロセスでのモデル トレーニングに対する ALA モジュールの追加の影響も視覚化しました。 ALA がアクティブ化されていない場合、モデル トレーニングの軌跡は FedAvg を使用した場合と一致します。 ALA がアクティブ化されると、グローバル モデルでキャプチャされたトレーニングに必要な情報を使用して、モデルは最適な目標に向かって直接最適化できます。

SOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案

図 4: クライアント No. 4 でのモデル トレーニングの軌跡の視覚化

以上がSOTAを3.27%上回り、上海交通大学などが適応型ローカル集約の新たな手法を提案の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明
この記事は51CTO.COMで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。
革新を調理する:人工知能がフードサービスを変革する方法革新を調理する:人工知能がフードサービスを変革する方法Apr 12, 2025 pm 12:09 PM

食品の準備を強化するAI まだ初期の使用中ですが、AIシステムは食品の準備にますます使用されています。 AI駆動型のロボットは、ハンバーガーの製造、SAの組み立てなど、食品の準備タスクを自動化するためにキッチンで使用されています

Pythonネームスペースと可変スコープに関する包括的なガイドPythonネームスペースと可変スコープに関する包括的なガイドApr 12, 2025 pm 12:00 PM

導入 Python関数における変数の名前空間、スコープ、および動作を理解することは、効率的に記述し、ランタイムエラーや例外を回避するために重要です。この記事では、さまざまなASPを掘り下げます

ビジョン言語モデル(VLM)の包括的なガイドビジョン言語モデル(VLM)の包括的なガイドApr 12, 2025 am 11:58 AM

導入 鮮やかな絵画や彫刻に囲まれたアートギャラリーを歩くことを想像してください。さて、各ピースに質問をして意味のある答えを得ることができたらどうでしょうか?あなたは尋ねるかもしれません、「あなたはどんな話を言っていますか?

MediaTekは、Kompanio UltraとDimenity 9400でプレミアムラインナップをブーストしますMediaTekは、Kompanio UltraとDimenity 9400でプレミアムラインナップをブーストしますApr 12, 2025 am 11:52 AM

製品のケイデンスを継続して、今月MediaTekは、新しいKompanio UltraやDimenity 9400を含む一連の発表を行いました。これらの製品は、スマートフォン用のチップを含むMediaTekのビジネスのより伝統的な部分を埋めます

今週のAIで:Walmartがファッションのトレンドを設定する前に設定します今週のAIで:Walmartがファッションのトレンドを設定する前に設定しますApr 12, 2025 am 11:51 AM

#1 GoogleはAgent2Agentを起動しました 物語:月曜日の朝です。 AI駆動のリクルーターとして、あなたはより賢く、難しくありません。携帯電話の会社のダッシュボードにログインします。それはあなたに3つの重要な役割が調達され、吟味され、予定されていることを伝えます

生成AIは精神障害に会います生成AIは精神障害に会いますApr 12, 2025 am 11:50 AM

私はあなたがそうであるに違いないと思います。 私たちは皆、精神障害がさまざまな心理学の用語を混ぜ合わせ、しばしば理解できないか完全に無意味であることが多い、さまざまなおしゃべりで構成されていることを知っているようです。 FOを吐き出すために必要なことはすべてです

プロトタイプ:科学者は紙をプラスチックに変えますプロトタイプ:科学者は紙をプラスチックに変えますApr 12, 2025 am 11:49 AM

今週公開された新しい研究によると、2022年に製造されたプラスチックの9.5%のみがリサイクル材料から作られていました。一方、プラスチックは埋め立て地や生態系に積み上げられ続けています。 しかし、助けが近づいています。エンジンのチーム

AIアナリストの台頭:これがAI革命で最も重要な仕事になる理由AIアナリストの台頭:これがAI革命で最も重要な仕事になる理由Apr 12, 2025 am 11:41 AM

主要なエンタープライズ分析プラットフォームAlteryxのCEOであるAndy Macmillanとの私の最近の会話は、AI革命におけるこの重要でありながら過小評価されている役割を強調しました。 MacMillanが説明するように、生のビジネスデータとAI-Ready情報のギャップ

See all articles

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

MinGW - Minimalist GNU for Windows

MinGW - Minimalist GNU for Windows

このプロジェクトは osdn.net/projects/mingw に移行中です。引き続きそこでフォローしていただけます。 MinGW: GNU Compiler Collection (GCC) のネイティブ Windows ポートであり、ネイティブ Windows アプリケーションを構築するための自由に配布可能なインポート ライブラリとヘッダー ファイルであり、C99 機能をサポートする MSVC ランタイムの拡張機能が含まれています。すべての MinGW ソフトウェアは 64 ビット Windows プラットフォームで実行できます。

SublimeText3 Linux 新バージョン

SublimeText3 Linux 新バージョン

SublimeText3 Linux 最新バージョン

DVWA

DVWA

Damn Vulnerable Web App (DVWA) は、非常に脆弱な PHP/MySQL Web アプリケーションです。その主な目的は、セキュリティ専門家が法的環境でスキルとツールをテストするのに役立ち、Web 開発者が Web アプリケーションを保護するプロセスをより深く理解できるようにし、教師/生徒が教室環境で Web アプリケーションを教え/学習できるようにすることです。安全。 DVWA の目標は、シンプルでわかりやすいインターフェイスを通じて、さまざまな難易度で最も一般的な Web 脆弱性のいくつかを実践することです。このソフトウェアは、

AtomエディタMac版ダウンロード

AtomエディタMac版ダウンロード

最も人気のあるオープンソースエディター

Safe Exam Browser

Safe Exam Browser

Safe Exam Browser は、オンライン試験を安全に受験するための安全なブラウザ環境です。このソフトウェアは、あらゆるコンピュータを安全なワークステーションに変えます。あらゆるユーティリティへのアクセスを制御し、学生が無許可のリソースを使用するのを防ぎます。