Rumah >Peranti teknologi >AI >Mudah dan universal: 3 kali pecutan latihan tanpa kehilangan rangkaian asas visual, Tsinghua EfficientTrain++ dipilih untuk TPAMI 2024

Mudah dan universal: 3 kali pecutan latihan tanpa kehilangan rangkaian asas visual, Tsinghua EfficientTrain++ dipilih untuk TPAMI 2024

WBOY
WBOYasal
2024-06-10 14:54:28961semak imbas

Pengarang kertas perbincangan ini, Wang Yulin, ialah pelajar kedoktoran langsung 2019 di Jabatan Automasi, Universiti Tsinghua. Beliau belajar di bawah Ahli Akademik Wu Cheng dan Profesor Madya Huang Gao. penglihatan komputer, dsb. Beliau telah menerbitkan kertas perbincangan sebagai pengarang pertama dalam jurnal dan persidangan seperti TPAMI, NeurIPS, ICLR, ICCV, CVPR, ECCV, dll. Beliau telah menerima Biasiswa Baidu, Microsoft Scholar, CCF-CV Academic Emerging Award, ByteDance Scholarship dan kepujian lain . Halaman utama peribadi: wyl.cool.

Artikel ini terutamanya memperkenalkan artikel yang baru sahaja diterima oleh IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI): EfficientTrain++: Pembelajaran Kurikulum Umum untuk Latihan Tulang Belakang Visual yang Cekap.

简单通用:视觉基础网络3倍无损训练加速,清华EfficientTrain++入选TPAMI 2024

  • Pautan kertas: https://arxiv.org/pdf/2405.08768
  • Kod dan model pra-latihan telah menjadi sumber terbuka: THLagit/Legitcom: /EfficientTrain
  • Kertas versi persidangan (ICCV 2023): https://arxiv.org/pdf/2211.09703

" dalam beberapa tahun kebelakangan ini, "menjadi salah satu penskalaan komputer" . Dengan peningkatan dalam saiz model dan skala data latihan, kemajuan algoritma pembelajaran, dan aplikasi meluas teknologi penyelarasan dan peningkatan data, rangkaian asas visual diperoleh melalui latihan berskala besar (seperti Vision Transformer dan MAE yang dilatih pada ImageNet1K/22K , DINOv2, dsb.) telah mencapai prestasi yang menakjubkan dalam banyak tugas visual penting seperti pengecaman visual, pengesanan sasaran dan pembahagian semantik. Walau bagaimanapun, "penskalaan" sering membawa

overhed latihan model tinggi

yang melarang, yang dengan ketara menghalang pembangunan lanjut dan aplikasi industri model penglihatan asas. Untuk menyelesaikan masalah ini, pasukan penyelidik Universiti Tsinghua mencadangkan algoritma pembelajaran kurikulum umum:

EfficientTrain++

. Idea teras adalah untuk mempromosikan paradigma pembelajaran kursus tradisional iaitu "menyaring dan menggunakan data daripada mudah kepada sukar, dan melatih model secara beransur-ansur" kepada "tidak menapis dimensi data, sentiasa menggunakan semua data latihan, tetapi secara beransur-ansur mendedahkan setiap ciri semasa proses latihan. " Ciri atau corak (corak) daripada mudah kepada sukar bagi setiap sampel data."

    EfficientTrain++ mempunyai beberapa sorotan penting:
  1. Palam dan mainkan pelaksanaan rangkaian asas visual 1.5−3.0× pecutan latihan tanpa kehilangan
  2. . Prestasi model huluan mahupun hiliran tidak hilang. Kelajuan yang diukur adalah konsisten dengan keputusan teori. Terpakai secara universal untuk saiz data latihan yang berbeza
  3. (seperti ImageNet-1K/22K, kesan 22K lebih jelas). Biasa digunakan untuk pembelajaran diselia dan pembelajaran diselia sendiri (seperti MAE). Biasa kepada kos latihan yang berbeza (cth. sepadan dengan 0-300 atau lebih zaman). Biasa digunakan dalam
  4. ViT, ConvNet dan struktur rangkaian lain
  5. (lebih daripada 20 model pelbagai saiz dan jenis telah diuji dalam artikel ini, dan ia konsisten dan berkesan). Untuk model yang lebih kecil, selain pecutan latihan, ia juga boleh meningkatkan prestasi dengan ketara (contohnya, tanpa bantuan maklumat tambahan dan tanpa overhed latihan tambahan, 81.3% DeiT-S diperolehi pada ImageNet-1K
  6. , setanding dengan Swin-Tiny yang asal). Dibangunkan latihan, seperti melatih model besar pada ImageNet-22K menggunakan 64 atau lebih GPU. Seterusnya, mari kita lihat butiran kajian. Satu. Motivasi penyelidikan

Dalam beberapa tahun kebelakangan ini, perkembangan pesat model asas berskala besar telah menggalakkan kemajuan kecerdasan buatan dan pembelajaran mendalam. Dalam bidang penglihatan komputer, kerja perwakilan seperti Vision Transformer (ViT), CLIP, SAM dan DINOv2 telah membuktikan bahawa meningkatkan saiz rangkaian saraf dan data latihan boleh mengembangkan tugas visual penting seperti kognisi, pengesanan dan segmentasi dengan ketara. sempadan prestasi.

Walau bagaimanapun, model asas yang besar selalunya mempunyai overhed latihan yang tinggi, Rajah 1 memberikan dua contoh tipikal. Mengambil lapan NVIDIA V100 atau GPU berprestasi tinggi sebagai contoh, ia akan mengambil masa bertahun-tahun atau bahkan beberapa dekad untuk menyelesaikan hanya satu sesi latihan untuk GPT-3 dan ViT-G. Kos latihan yang tinggi sedemikian adalah perbelanjaan yang besar yang sukar untuk dimiliki oleh kedua-dua ahli akademik dan industri Selalunya hanya beberapa institusi peringkat tinggi menggunakan sejumlah besar sumber untuk memajukan kemajuan pembelajaran mendalam. Oleh itu, masalah segera yang perlu diselesaikan ialah: bagaimana untuk meningkatkan kecekapan latihan model pembelajaran mendalam berskala besar secara berkesan? . proses pembelajaran Semasa proses latihan model, kami bermula dengan data latihan "paling mudah" dan secara beransur-ansur memperkenalkan data dari mudah kepada sukar. . asas visual Sebab utama kaedah umum model ialah terdapat dua kesesakan utama, seperti yang ditunjukkan dalam Rajah 3. Pertama, mereka bentuk kurikulum latihan (kurikulum) yang berkesan bukanlah mudah. Membezakan antara sampel "mudah" dan "sukar" selalunya memerlukan bantuan model pra-latihan tambahan, mereka bentuk algoritma AutoML yang lebih kompleks, memperkenalkan pembelajaran pengukuhan, dsb., dan mempunyai serba boleh yang lemah. Kedua, pemodelan pembelajaran kursus itu sendiri agak tidak munasabah. Data visual dalam pengedaran semula jadi selalunya mempunyai tahap kepelbagaian yang tinggi Contoh diberikan di bawah dalam Rajah 3 (gambar burung nuri dipilih secara rawak daripada ImageNet Data latihan model mengandungi sejumlah besar burung kakak tua dengan pergerakan yang berbeza, burung kakak tua pada jarak yang berbeza dari kamera, Burung kakak tua dari perspektif dan latar belakang yang berbeza, serta interaksi yang pelbagai antara burung kakak tua dan orang atau objek, dsb., ia sebenarnya merupakan kaedah yang agak kasar untuk membezakan data yang pelbagai itu hanya dengan penunjuk dimensi tunggal "mudah" dan "sukar". " dan kaedah pemodelan yang dibuat-buat.

简单通用:视觉基础网络3倍无损训练加速,清华EfficientTrain++入选TPAMI 2024Rajah 3 Dua kesesakan utama yang menghalang aplikasi pembelajaran kursus berskala besar dalam melatih model asas visual

2. Pengenalan Kaedah

简单通用:视觉基础网络3倍无损训练加速,清华EfficientTrain++入选TPAMI 2024Diinspirasikan oleh cabaran di atas, artikel ini mencadangkan paradigma pembelajaran kurikulum umum Idea teras adalah untuk "menyaring dan menggunakan data daripada mudah kepada sukar dan secara beransur-ansur melatih model" Paradigma pembelajaran kursus tradisional diperluaskan. kepada "

Tiada penapisan dimensi data, semua data latihan sentiasa digunakan, tetapi ciri-ciri atau corak daripada mudah kepada sukar bagi setiap sampel data secara beransur-ansur didedahkan semasa proses latihan

", yang berkesan mengelakkan Had dan reka bentuk suboptimum yang disebabkan oleh paradigma saringan data dihapuskan, seperti yang ditunjukkan dalam Rajah 4.

Rajah 4 Pembelajaran kurikulum tradisional (dimensi sampel) vs pembelajaran kurikulum umum (dimensi ciri) 简单通用:视觉基础网络3倍无损训练加速,清华EfficientTrain++入选TPAMI 2024

Cadangan paradigma ini terutamanya berdasarkan fenomena yang menarik: Dalam proses latihan model , walaupun Model sentiasa boleh mendapatkan semua maklumat yang terkandung dalam data pada bila-bila masa, tetapi model secara semula jadi akan mula-mula belajar untuk mengenali beberapa ciri diskriminasi yang lebih mudah (corak) yang terkandung dalam data, dan kemudian secara beransur-ansur belajar untuk mengenali ciri-ciri diskriminasi yang lebih sukar ( corak) atas dasar ini . Selain itu, peraturan ini agak universal, dan ciri diskriminasi "agak mudah" boleh didapati dengan mudah dalam kedua-dua domain frekuensi dan domain spatial. Kertas kerja ini mereka bentuk satu siri eksperimen yang menarik untuk menunjukkan penemuan di atas, seperti yang diterangkan di bawah.

Dari perspektif domain frekuensi, "ciri frekuensi rendah" adalah "agak mudah" untuk model. Dalam Rajah 5, pengarang artikel ini melatih model DeiT-S menggunakan data latihan ImageNet-1K standard, dan menggunakan penapis laluan rendah dengan lebar jalur yang berbeza untuk menapis set pengesahan, mengekalkan hanya komponen frekuensi rendah imej pengesahan, dan melaporkan berdasarkan ini. Ketepatan DeiT-S pada data pengesahan lulus rendah semasa proses latihan Lengkung ketepatan yang diperolehi berbanding proses latihan ditunjukkan di sebelah kanan Rajah 5.

Kita dapat melihat fenomena menarik: pada peringkat awal latihan, hanya menggunakan data pengesahan ditapis lulus rendah tidak mengurangkan ketepatan dengan ketara, dan titik pemisahan antara lengkung dan ketepatan set pengesahan biasa meningkat dengan penapis lebar jalur meningkat dan beransur-ansur bergerak ke kanan. Fenomena ini menunjukkan bahawa walaupun model sentiasa mempunyai akses kepada bahagian frekuensi rendah dan tinggi dalam data latihan, proses pembelajarannya secara semula jadi bermula dengan memfokuskan hanya pada maklumat frekuensi rendah, dan keupayaan untuk mengenal pasti ciri frekuensi tinggi diperoleh secara beransur-ansur. kemudian dalam latihan (fenomena ini Untuk keterangan lanjut, sila rujuk teks asal). . model? Berikan input visual maklumat frekuensi rendah pada mulanya, dan kemudian secara beransur-ansur memperkenalkan maklumat frekuensi tinggi?

Rajah 6 menyiasat idea untuk melaksanakan penapisan laluan rendah pada data latihan hanya semasa fasa latihan awal dengan panjang tertentu, meninggalkan proses latihan yang selebihnya tidak berubah. Dapat diperhatikan daripada keputusan bahawa walaupun peningkatan prestasi akhir adalah terhad, adalah menarik untuk diperhatikan bahawa ketepatan akhir model boleh dikekalkan pada tahap yang besar walaupun hanya komponen frekuensi rendah disediakan kepada model untuk tempoh yang agak besar. tempoh fasa latihan awal, yang Ia juga bertepatan dengan pemerhatian dalam Rajah 5 bahawa "model ini memberi tumpuan terutamanya kepada pembelajaran mengenal pasti ciri frekuensi rendah pada peringkat awal latihan". 简单通用:视觉基础网络3倍无损训练加速,清华EfficientTrain++入选TPAMI 2024

Penemuan ini memberi inspirasi kepada pengarang artikel ini untuk memikirkan tentang kecekapan latihan: Memandangkan model hanya memerlukan komponen frekuensi rendah dalam data pada peringkat awal latihan, dan komponen frekuensi rendah mengandungi kurang maklumat daripada data asal , bolehkah model memproses input asal pada kadar yang lebih cepat daripada Cekap belajar daripada komponen frekuensi rendah sahaja dengan kos pengiraan yang kurang?

Rajah 6 Menyediakan hanya komponen frekuensi rendah kepada model untuk tempoh latihan awal yang panjang tidak akan menjejaskan prestasi akhir dengan ketara

Malah, idea ini boleh dilaksanakan sepenuhnya. Seperti yang ditunjukkan di sebelah kiri Rajah 7, pengarang artikel ini memperkenalkan operasi pemangkasan dalam spektrum Fourier imej untuk memotong bahagian frekuensi rendah dan memetakannya kembali ke ruang piksel. Operasi pemangkasan frekuensi rendah ini dengan tepat mengekalkan semua maklumat frekuensi rendah sambil mengurangkan saiz input imej, jadi kos pengiraan model pembelajaran daripada input dapat dikurangkan secara eksponen.

Jika anda menggunakan operasi pemangkasan frekuensi rendah ini untuk memproses input model pada peringkat awal latihan, anda boleh menjimatkan kos latihan keseluruhan dengan ketara, tetapi masih tidak mengalami kerugian dalam prestasi kerana maklumat yang diperlukan untuk pembelajaran model adalah dikekalkan ke tahap maksimum Model akhir, keputusan eksperimen ditunjukkan di sudut kanan bawah Rajah 7. 简单通用:视觉基础网络3倍无损训练加速,清华EfficientTrain++入选TPAMI 2024

Rajah 7 Pemotongan frekuensi rendah: Jadikan model cekap belajar hanya daripada maklumat frekuensi rendah

Selain daripada operasi domain frekuensi, dari perspektif transformasi domain spatial, model juga boleh didapati Dalam syarat ciri "agak mudah"

. Sebagai contoh, maklumat imej semula jadi yang terkandung dalam input visual mentah yang tidak mengalami peningkatan data yang kukuh atau pemprosesan herotan selalunya "lebih mudah" untuk model dan lebih mudah untuk model untuk belajar kerana ia diperoleh daripada pengedaran dunia sebenar, dan tambahan maklumat, invarian, dsb. yang diperkenalkan oleh teknik prapemprosesan seperti peningkatan data selalunya sukar untuk dipelajari oleh model (contoh biasa diberikan di sebelah kiri Rajah 8). 简单通用:视觉基础网络3倍无损训练加速,清华EfficientTrain++入选TPAMI 2024

Malah, penyelidikan sedia ada juga mendapati bahawa penambahan data memainkan peranan terutamanya dalam peringkat latihan yang lebih akhir (seperti "Meningkatkan Auto-Augment melalui Perkongsian Berat Badan-Bijak Augmentasi", NeurIPS'20).

Dalam dimensi ini, untuk mencapai paradigma pembelajaran kursus umum, ia boleh dicapai dengan mudah dengan hanya mengubah intensiti penambahan data untuk menyediakan model dengan hanya maklumat imej semula jadi yang lebih mudah dipelajari dalam data latihan dalam peringkat awal latihan. Bahagian kanan Rajah 8 menunjukkan idea ini menggunakan RandAugment sebagai contoh yang mewakili RandAugment mengandungi satu siri transformasi peningkatan data spatial biasa (seperti putaran rawak, perubahan ketajaman, transformasi afin, perubahan pendedahan, dll.).

Boleh diperhatikan bahawa melatih model bermula daripada penambahan data yang lebih lemah boleh meningkatkan prestasi akhir model dengan berkesan, dan teknik ini serasi dengan pemangkasan frekuensi rendah.

简单通用:视觉基础网络3倍无损训练加速,清华EfficientTrain++入选TPAMI 2024Rajah 8 Mencari ciri "lebih mudah dipelajari" model dari perspektif ruang udara: perspektif peningkatan data

Sehingga ke tahap ini, artikel ini telah mencadangkan rangka kerja teras dan andaian kursus umum pembelajaran, dan dengan mendedahkan Dua fenomena utama dalam domain kekerapan dan domain spatial membuktikan rasionaliti dan keberkesanan pembelajaran kursus umum. Atas dasar ini, makalah ini melengkapkan lagi satu siri kerja sistematik, yang disenaraikan di bawah. Disebabkan keterbatasan ruang, sila rujuk kertas asal untuk mendapatkan butiran penyelidikan lanjut.

  1. Sepadukan dua penemuan teras domain kekerapan dan domain spatial, cadangkan dan tingkatkan algoritma pengoptimuman yang direka khas, dan wujudkan pelan pembelajaran kursus umum EfficientTrain++ yang bersatu dan bersepadu.
  2. Membincangkan kaedah khusus untuk pelaksanaan operasi pemangkasan frekuensi rendah yang cekap pada perkakasan sebenar, dan membandingkan dua kaedah yang boleh dilaksanakan untuk mengekstrak maklumat frekuensi rendah daripada kedua-dua perspektif teori dan eksperimen: pemotongan frekuensi rendah dan pensampelan imej, perbezaan dan menyambung.
  3. Membangunkan teknologi pengoptimuman kecekapan praktikal khas untuk dua situasi praktikal biasa yang mencabar: 1) CPU/cakera keras tidak cukup berkuasa, dan kecekapan prapemprosesan data tidak dapat bersaing dengan GPU 2) Latihan selari berskala besar, seperti dalam ImageNet -Latih model besar pada 22K menggunakan 64 atau lebih GPU.

Pelan pembelajaran kursus umum EfficientTrain++ akhirnya diperolehi dalam artikel ini ditunjukkan dalam Rajah 9. EfficientTrain++ secara dinamik melaraskan lebar jalur pemangkasan frekuensi rendah domain frekuensi dan keamatan peningkatan data domain spatial berdasarkan peratusan penggunaan daripada jumlah overhed pengkomputeran latihan model.

Perlu diambil perhatian bahawa sebagai kaedah pasang dan main, EfficientTrain++ boleh digunakan secara langsung pada pelbagai rangkaian asas visual dan senario latihan model yang pelbagai tanpa pelarasan atau carian hiperparameter selanjutnya, dan kesannya agak stabil .

简单通用:视觉基础网络3倍无损训练加速,清华EfficientTrain++入选TPAMI 2024Rajah 9 Pelan pembelajaran kursus umum bersepadu dan bersepadu: EfficientTrain++

III. Keputusan percubaan

Sebagai kaedah pasang dan main, EfficientTrain++ mengurangkan overhed latihan sebenar pelbagai rangkaian asas visual sebanyak kira-kira 1.5 kali pada ImageNet-1K tanpa kehilangan atau meningkatkan prestasi pada dasarnya.

简单通用:视觉基础网络3倍无损训练加速,清华EfficientTrain++入选TPAMI 2024Rajah 10 Keputusan percubaan ImageNet-1K: Prestasi EfficientTrain++ pada pelbagai rangkaian asas visual

Keuntungan EfficientTrain++ adalah universal untuk belanjawan overhed latihan yang berbeza, prestasi yang lebih baik/Swin pada ImageNet Nisbah pecutan latihan pada -1K adalah kira-kira 2-3 kali.

简单通用:视觉基础网络3倍无损训练加速,清华EfficientTrain++入选TPAMI 2024Rajah 11 Keputusan percubaan ImageNet-1K: Prestasi EfficientTrain++ di bawah belanjawan overhed latihan yang berbeza

EfficientTrain++ boleh mencapai 2-3 kali prestasi tanpa kehilangan pecutan pra-latihan pada ImageNet-22k

简单通用:视觉基础网络3倍无损训练加速,清华EfficientTrain++入选TPAMI 2024Rajah 12 Keputusan percubaan ImageNet-22K: Prestasi EfficientTrain++ pada data latihan berskala lebih besar

Untuk model yang lebih kecil, EfficientTrain++ boleh mencapai peningkatan prestasi yang ketara.

. .

简单通用:视觉基础网络3倍无损训练加速,清华EfficientTrain++入选TPAMI 2024

Rajah 15 pengesanan sasaran COCO, pembahagian contoh COCO dan keputusan percubaan segmentasi semantik ADE20K

Atas ialah kandungan terperinci Mudah dan universal: 3 kali pecutan latihan tanpa kehilangan rangkaian asas visual, Tsinghua EfficientTrain++ dipilih untuk TPAMI 2024. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn