Rumah >Peranti teknologi >AI >7262 kertas telah diserahkan, ICLR 2024 menjadi popular, dan dua kertas domestik telah dicalonkan untuk kertas tertunggak.
Sebanyak 5 anugerah kertas cemerlang dan 11 sebutan kehormat telah dipilih pada tahun ini.
ICLR bermaksud Persidangan Antarabangsa mengenai Perwakilan Pembelajaran Tahun ini adalah persidangan ke-12, yang diadakan di Vienna, Austria dari 7 hingga 11 Mei.
Dalam komuniti pembelajaran mesin, ICLR ialah persidangan akademik teratas yang agak "muda" Ia dihoskan oleh gergasi pembelajaran mendalam dan pemenang Anugerah Turing Yoshua Bengio dan Yann LeCun Ia baru sahaja mengadakan sesi pertamanya pada tahun 2013. Walau bagaimanapun, ICLR dengan cepat mendapat pengiktirafan luas daripada penyelidik akademik dan dianggap sebagai persidangan akademik teratas mengenai pembelajaran mendalam.
Persidangan ini menerima sejumlah 7262 kertas kerja yang diserahkan, dan menerima 2260 kertas kerja Kadar penerimaan keseluruhan adalah kira-kira 31%, sama seperti tahun lepas (31.8%). Selain itu, bahagian kertas Spotlights ialah 5% dan bahagian kertas Lisan ialah 1.2%. . R Untuk kertas ICLR terdahulu, dalam kertas pemenang anugerah yang diumumkan baru-baru ini, persidangan itu memilih 5 anugerah tesis cemerlang dan 11 anugerah pencalonan kehormat. Anugerah Kertas Cemerlang 5 bersih / pdf?id=ANvmVS2Yr0
Institusi: New York University, Collège de FrancePengarang: Zahra Kadkhodaie, Florentin Guth, Eero P. Simoncelli, Stéphane Mallat
Artikel umum yang diimport ini analisis memori yang mendalam. Penulis mengkaji secara empirikal apabila model penjanaan imej beralih daripada input memori kepada mod generalisasi, dan menghubungkannya dengan idea analisis harmonik melalui perwakilan harmonik adaptif geometri, seterusnya menerangkan fenomena ini dari perspektif bias aruhan seni bina. Artikel ini merangkumi bahagian penting yang hilang dalam pemahaman kita tentang model penglihatan generatif dan mempunyai implikasi yang besar untuk penyelidikan masa depan.Kertas: Belajar Simulator Dunia Sebenar Interaktif
Alamat kertas: https://openreview.net/forum?id=sFyTZEqmUY
Alamat kertas: https://openreview.net/forum?id=sFyTZEqmUY
, Institusi Google: Deep, Google MIT Universiti Berta
Seperti yang ditunjukkan dalam Rajah 3 di bawah, UniSim boleh mensimulasikan satu siri tindakan yang kaya, seperti mencuci tangan, mengambil mangkuk, memotong lobak merah, dan mengeringkan tangan di bahagian atas sebelah kanan Rajah 3 menunjukkan menekan suis yang berbeza; Rajah 3 menunjukkan dua adegan navigasi.
Adegan navigasi di sebelah kanan bawah Rajah 3
Thesis: Tidak pernah berlatih dari awal: Perbandingan adil model urutan panjang memerlukan data yang didorong oleh Jonathan Berant, Ankit Gupta
Makalah ini menyelidiki keupayaan model ruang negeri yang dicadangkan baru-baru ini dan seni bina pengubah untuk memodelkan kebergantungan jujukan jangka panjang. Anehnya, pengarang mendapati bahawa melatih model pengubah dari awal menyebabkan prestasinya dipandang rendah, dan peningkatan prestasi yang ketara boleh dicapai dengan tetapan pra-latihan dan penalaan halus. Makalah ini cemerlang dalam fokusnya pada kesederhanaan dan pandangan sistematik.
Kertas: Penemuan Protein dengan Persampelan Walk-Jump Diskret
Alamat kertas: https://openreview.net/forum?id=zMPHKOmQNb
Pengarang: Nathan C. Frey, Dan Berenberg, Karina Zadorozhny, Joseph Kleinhenz, Julien Lafrance-Vanasse, Isidro Hotzel, Yan Wu, Stephen Ra, Richard Bonneau, Kyunghyun Cho, Andreas Loukas, Vladimir Gligorijevic, Saeed Saremi
Untuk tujuan ini, penulis memperkenalkan kaedah pemodelan baharu yang inovatif dan berkesan yang disasarkan khusus kepada masalah pemprosesan data jujukan protein diskret. Di samping mengesahkan kaedah dalam silico, penulis melakukan eksperimen makmal basah yang meluas untuk mengukur pertalian mengikat antibodi in vitro, menunjukkan keberkesanan kaedah yang dihasilkan mereka.
Pengarang: Timothée Darce t. Maxime Oquab, Julien Mairal, Piotr Bojanowski
Pengarang mencadangkan andaian utama tentang bagaimana fenomena ini berlaku dan menyediakan penyelesaian yang ringkas tetapi elegan menggunakan token daftar tambahan untuk menangani kesan ini, dengan itu meningkatkan prestasi model dalam pelbagai tugas. Cerapan yang diperoleh daripada kerja ini juga boleh memberi kesan kepada bidang aplikasi lain.
Selain 5 kertas kerja yang belum selesai." ICLR 2024 juga memilih 11 sebutan kehormat.
Institusi: University of Montreal, University of Oxford
Pengarang: Edward J Hu, Moksh Jain, Ericness Elmoznind Lajodar, Youness Elmoznino Bendarie , Nikolay Malkin
Alamat kertas: https://openreview.net/forum?id=Ouj6p4ca60
Ini adalah kertas bertulis yang sangat jelas yang menyumbang secara signifikan untuk menyelesaikan masalah penting untuk membangunkan penyelesai Nash yang cekap dan berskala.
Kertas: Beyond Weisfeiler-Lehman: Rangka Kerja Kuantitatif untuk Ekspresi GNN
Institusi: Universiti Peking, Institut Penyelidikan Kecerdasan Buatan Zhiyuan Beijing
Pengarang: Ying Wei Gai Wei Heng Heng Qi Wei Heng Qi Weiheng
Kertas: Flow Matching on General Geometries
?alamat TL: https://o.
Makalah ini mencadangkan kaedah penyeliaan kendiri novel , iaitu dengan latihan daripada Belajar daripada video berterusan. Kertas kerja ini menyumbang kedua-dua jenis data baharu dan kaedah untuk belajar daripada data baharu.
Kertas: Pembelajaran Berterusan Meta Disemak Semula: Secara Tersirat Meningkatkan Penghampiran Hessian Dalam Talian melalui Pengurangan VariansPengarang mencadangkan varians pembelajaran meta-berterusan baharu kaedah pengurangan. Kaedah ini berfungsi dengan baik dan bukan sahaja mempunyai kesan praktikal tetapi juga disokong oleh analisis penyesalan.
Artikel ini memfokuskan pada masalah mampatan cache KV (masalah ini memberi kesan yang besar kepada Transformer- berasaskan LLM), dengan idea mudah yang mengurangkan memori dan boleh digunakan tanpa penalaan halus atau latihan semula yang mahal. Kaedah ini sangat mudah dan telah terbukti sangat berkesan.
Kertas ini menggunakan kaedah yang mudah dan elegan untuk menguji sama ada set data pembelajaran yang diselia telah dimasukkan dalam model bahasa besar dalam latihan.
Kertas: Ejen teguh belajar model dunia kausalalamatforum: https://Paperid
pOoKI3ouv1Kertas kerja ini membuat kemajuan besar dalam meletakkan asas teori untuk memahami peranan penaakulan kausal dalam keupayaan ejen untuk membuat generalisasi kepada domain baharu, dengan implikasi untuk pelbagai bidang berkaitan.
Kertas: Asas mekanistik pergantungan data dan pembelajaran mendadak dalam tugas pengelasan dalam konteks
Ini adalah kajian yang tepat pada masanya dan sangat sistematik yang meneroka hubungan antara pembelajaran dalam konteks dan pembelajaran dalam berat apabila kita mula memahami fenomena ini.
Kertas kerja ini mewujudkan asas statistik untuk pemilihan subset data dan mengenal pasti kelemahan kaedah pemilihan data yang popular.
Pautan rujukan: https://blog.iclr.cc/2024/05/06/iclr-2024-outstanding-paper-awards/🎜🎜🎜Atas ialah kandungan terperinci 7262 kertas telah diserahkan, ICLR 2024 menjadi popular, dan dua kertas domestik telah dicalonkan untuk kertas tertunggak.. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!