Rumah >Peranti teknologi >AI >Google: LLM tidak dapat mencari ralat inferens, tetapi boleh membetulkannya
Tahun ini, model bahasa besar (LLM) telah menjadi tumpuan ramai dalam bidang kecerdasan buatan. LLM telah mencapai kemajuan yang ketara dalam pelbagai tugas pemprosesan bahasa semula jadi (NLP), terutamanya dalam penaakulan. Walau bagaimanapun, pada tugas penaakulan yang kompleks, prestasi LLM masih perlu dipertingkatkan
Bolehkah LLM menentukan bahawa terdapat kesilapan dalam penaakulannya sendiri? Baru-baru ini, kajian yang dijalankan secara bersama oleh University of Cambridge dan Google Research mendapati bahawa LLM tidak dapat mengesan ralat penaakulan dengan sendirinya, tetapi ia boleh menggunakan kaedah backtracking yang dicadangkan dalam kajian untuk membetulkan ralat
beberapa kontroversi, seseorang membangkitkan bantahan terhadap perkara ini. Sebagai contoh, di Berita Hacker, seseorang mengulas bahawa tajuk kertas itu dibesar-besarkan dan sedikit clickbait. Yang lain mengkritik kaedah yang dicadangkan dalam kertas kerja untuk membetulkan kesilapan logik sebagai berdasarkan padanan pola dan bukannya menggunakan kaedah logik Kaedah ini terdedah kepada kegagalan
Huang et al namun" Tegaskan: Pembetulan kendiri mungkin berkesan dalam meningkatkan gaya dan kualiti keluaran model, tetapi terdapat sedikit bukti bahawa LLM mempunyai keupayaan untuk mengenal pasti dan membetulkan ralat penaakulan dan logiknya sendiri tanpa maklum balas luaran. Sebagai contoh, kedua-dua Refleks dan RCI menggunakan hasil pembetulan kebenaran asas sebagai isyarat untuk menghentikan kitaran pembetulan diri.
Pembetulan output melibatkan pengubahsuaian separa atau lengkap output yang dijana sebelum ini. Pembetulan kendiri bermaksud pembetulan dilakukan oleh model yang sama yang menghasilkan output. Walaupun LLM tidak mempunyai keupayaan untuk mengesan ralat, kertas ini menunjukkan bahawa jika maklumat tentang ralat itu diberikan (seperti melalui model ganjaran kecil yang diselia), LLM boleh membetulkan output menggunakan kaedah penjejakan ke belakang.
Set Data Kesilapan Bangku BESAR
Bangku BESAR mengandungi 2186 set maklumat trajektori menggunakan gaya CoT. Setiap trajektori dijana oleh PaLM 2-L-Unicorn dan lokasi ralat logik pertama telah diberi penjelasan. Jadual 1 menunjukkan contoh trajektori di mana ralat berlaku dalam langkah 4
🎜🎜Trajektori ini adalah daripada 5 tugasan dalam set data BIG-Bench: pengisihan perkataan, menjejak objek yang dikocok, potongan logik, Aritmetik berbilang langkah dan bahasa Dyck. 🎜🎜
Untuk menjawab soalan setiap tugasan, mereka menggunakan kaedah reka bentuk segera CoT untuk memanggil PaLM 2. Untuk memisahkan trajektori CoT kepada langkah yang jelas, mereka menggunakan kaedah yang dicadangkan dalam "React: Synergizing reasoning and acting in language models" untuk menjana setiap langkah secara berasingan dan menggunakan baris baharu sebagai penanda henti
Apabila menjana semua trajektori, Dalam ini set data, apabila suhu = 0, ketepatan jawapan ditentukan oleh padanan tepat
Pada set data penemuan pepijat baharu, GPT-4-Turbo, GPT-4 dan Ketepatan GPT- 3.5-Turbo ditunjukkan dalam Jadual 4
Setiap soalan mempunyai dua kemungkinan jawapan: sama ada betul atau salah. Jika ia adalah ralat, nilai N akan menunjukkan langkah di mana ralat pertama berlaku
Semua model telah dimasukkan dengan 3 gesaan yang sama. Mereka menggunakan tiga kaedah reka bentuk segera yang berbeza:
ditulis semula ialah: Perbincangan Berkaitan
Keputusan menunjukkan bahawa ketiga-tiga model menghadapi kesukaran menghadapi set data penemuan ralat baharu ini. GPT berprestasi terbaik, tetapi ia hanya boleh mencapai ketepatan keseluruhan 52.87 dalam reka bentuk segera peringkat langkah langsung.
Ini menunjukkan bahawa LLM tercanggih semasa menghadapi kesukaran mencari ralat, walaupun dalam kes yang paling mudah dan jelas. Sebaliknya, manusia boleh mencari kesilapan tanpa kepakaran khusus dan dengan konsistensi yang tinggi.
Penyelidik membuat spekulasi bahawa ketidakupayaan LLM untuk mengesan ralat adalah sebab utama mengapa LLM tidak dapat membetulkan kesilapan penaakulan sendiri. . Rajah 1 menunjukkan pertukaran ini
Para penyelidik percaya bahawa sebab untuk ini mungkin bilangan output model. Ketiga-tiga kaedah memerlukan penjanaan output yang semakin kompleks: kaedah reka bentuk segera yang menjana trajektori secara langsung memerlukan satu token, kaedah reka bentuk segera yang secara langsung menjana langkah memerlukan satu token setiap langkah, dan kaedah reka bentuk segera peringkat langkah CoT memerlukan satu token setiap langkah Pelbagai ayat. Jika terdapat sedikit kebarangkalian kadar ralat bagi setiap panggilan binaan, lebih banyak panggilan bagi setiap surih, lebih besar peluang model akan mengenal pasti sekurang-kurangnya satu ralat
Beberapa sampel dengan lokasi ralat sebagai proksi untuk ketepatan Reka Bentuk Segera
Para penyelidik meneroka sama ada kaedah reka bentuk segera ini boleh menentukan ketepatan trajektori dan bukannya kedudukannya yang salah.
Mereka mengira purata skor F1 berdasarkan sama ada model boleh meramal dengan betul sama ada terdapat ralat dalam trajektori. Sekiranya terdapat ralat, trajektori yang diramalkan oleh model dianggap sebagai "jawapan yang salah". Jika tidak, trajektori yang diramalkan oleh model dianggap sebagai "jawapan betul"Menggunakan betul_an dan salah_an sebagai label positif dan ditimbang mengikut bilangan kejadian setiap label, penyelidik mengira purata skor F1, dan hasilnya adalah ditunjukkan dalam Jadual 5.
Skor F1 berwajaran ini menunjukkan bahawa mencari ralat melalui gesaan adalah strategi yang lemah untuk menentukan ketepatan jawapan akhir.
Backtracking
Huang et al menegaskan bahawa LLM tidak boleh membetulkan sendiri ralat logik tanpa maklum balas luaran. Walau bagaimanapun, dalam banyak aplikasi dunia nyata, selalunya tiada maklum balas luaran yang tersedia Dalam kajian ini, penyelidik menggunakan alternatif: pengelas ringan yang dilatih pada sejumlah kecil data maklum balas. Sama seperti model ganjaran dalam pembelajaran pengukuhan tradisional, pengelas ini boleh mengesan sebarang ralat logik dalam trajektori CoT sebelum menyalurkannya kembali kepada model penjana untuk meningkatkan output. Jika anda ingin memaksimumkan peningkatan, anda boleh melakukan berbilang lelaran.
Penyelidik mencadangkan kaedah mudah untuk menambah baik output model dengan menjejaki semula lokasi ralat logik
Kaedah jejak balik tidak bergantung pada mana-mana teks gesaan atau perkataan tertentu, sekali gus mengurangkan keutamaan yang berkaitan.
Δketepatan✓ merujuk kepada perbezaan ketepatan_ans pada set trajektori apabila jawapan asal adalah betul.
Untuk keputusan lintasan jawapan yang salah, ketepatan perlu dikira semula
Hasil skor ini menunjukkan bahawa keuntungan membetulkan trajektori yang salah adalah lebih besar daripada kerugian yang disebabkan oleh menukar jawapan asal yang betul. Tambahan pula, walaupun penanda aras rawak juga mendapat peningkatan, keuntungannya adalah jauh lebih kecil daripada apabila menggunakan lokasi ralat sebenar. Ambil perhatian bahawa dalam penanda aras rawak, peningkatan prestasi lebih berkemungkinan berlaku pada tugasan yang melibatkan lebih sedikit langkah, kerana ia lebih berkemungkinan untuk mencari lokasi ralat sebenar.Untuk meneroka model ganjaran tahap ketepatan yang diperlukan apabila label yang baik tidak tersedia, mereka bereksperimen dengan menggunakan penjejakan ke belakang melalui model ganjaran simulasi, matlamat reka bentuk model ganjaran simulasi ini adalah untuk menghasilkan Label tahap ketepatan yang berbeza. Mereka menggunakan accuracy_RM untuk mewakili ketepatan model ganjaran simulasi di lokasi ralat yang ditentukan.
Apabila ketepatan_RM model ganjaran yang diberikan ialah X%, gunakan lokasi yang salah daripada BIG-Bench Mistake X% pada setiap masa. Untuk baki (100 − X)%, lokasi ralat diambil secara rawak. Untuk mensimulasikan gelagat pengelas biasa, lokasi ralat dijadikan sampel dalam cara yang sepadan dengan pengedaran set data. Para penyelidik juga menemui cara untuk memastikan lokasi sampel yang salah tidak sepadan dengan lokasi yang betul. Keputusan ditunjukkan dalam Rajah 2.
Dapat diperhatikan apabila kadar kerugian mencapai 65%, ketepatan Δ mula stabil. Malah, untuk kebanyakan tugasan, Δketepatan ✓ sudah melebihi Δketepatan ✗ apabila ketepatan_RM adalah kira-kira 60-70%. Ini menunjukkan bahawa walaupun ketepatan yang lebih tinggi membawa kepada hasil yang lebih baik, penjejakan ke belakang masih berfungsi walaupun tanpa label lokasi ralat standard emas
Atas ialah kandungan terperinci Google: LLM tidak dapat mencari ralat inferens, tetapi boleh membetulkannya. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!