Rumah >Peranti teknologi >AI >[Tafsiran Kertas] Sistem 2 Perhatian meningkatkan objektiviti dan faktual model bahasa besar
.
” berkaitan Kerja. Perhatian lembut dalam model bahasa besar (LLM) berasaskan pengubah boleh dengan mudah memasukkan maklumat yang tidak relevan daripada konteks ke dalam perwakilan asasnya, yang akan memberi kesan buruk kepada penjanaan token seterusnya. Untuk membantu membetulkan masalah ini, makalah itu memperkenalkan Sistem 2 Perhatian (S2A), yang memanfaatkan keupayaan LLM untuk menaakul dalam bahasa semula jadi dan mengikut arahan untuk memutuskan perkara yang perlu diproses. S2A menjana semula konteks input supaya ia hanya mengandungi bahagian yang berkaitan, dan kemudian memproses konteks yang dijana semula untuk mendapatkan respons akhir. Dalam eksperimen, S2A mengatasi LLM berasaskan perhatian standard pada tiga tugas yang mengandungi pendapat atau maklumat yang tidak berkaitan: QA, masalah perkataan matematik dan penjanaan bentuk panjang, di mana S2A meningkatkan fakta dan objektiviti serta mengurangkan kepalsuan.
Model bahasa besar (LLM) sangat berkebolehan, tetapi mereka masih cenderung melakukan kesilapan mudah yang serupa dengan menunjukkan kebolehan yang lemah. Contohnya, mereka mungkin disalah anggap oleh konteks yang tidak relevan, atau input mungkin mencadangkan keutamaan atau pendapat yang wujud, dalam kes kedua menunjukkan masalah pengikut di mana model itu konsisten dengan input. Oleh itu, walaupun keupayaannya yang kukuh, LLM dalam beberapa kes boleh mengalami masalah yang dipanggil pengikut, iaitu kecenderungan model untuk meniru input. Dalam kes ini, model dan input adalah tidak konsisten, dan model akan menghasilkan pertimbangan yang salah, atau input mungkin mencadangkan keutamaan atau pendapat yang wujud Dalam kes kedua, ia mempamerkan masalah pengikut, iaitu, model adalah konsisten dengan input. Walau bagaimanapun, dengan melaraskan data dan proses latihan, masalah LLM berikut dapat dikurangkanWalaupun beberapa kaedah cuba mengurangkan masalah ini dengan menambah lebih banyak data latihan yang diselia atau strategi pembelajaran pengukuhan, kertas perbincangan menganggap potensi Masalahnya. adalah wujud dalam cara pengubah itu sendiri dibina, khususnya mekanisme perhatiannya. Iaitu, perhatian lembut cenderung untuk memberikan kebarangkalian kepada kebanyakan konteks, termasuk bahagian yang tidak berkaitan, dan cenderung terlalu fokus pada token berulang, sebahagiannya disebabkan oleh cara ia dilatih, dan sebahagiannya kerana mekanisme pengekodan kedudukan juga cenderung untuk menganggap konteks sebagai Untuk perkataan beg.
Dalam kerja ini, kertas perbincangan itu menyiasat cara yang sama sekali berbeza untuk mengendalikan mekanisme perhatian: melakukan perhatian dengan menggunakan LLM sebagai penaakulan bahasa semula jadi. Secara khusus, perbincangan itu memanfaatkan keupayaan LLM untuk mengikut arahan dan menggesa mereka untuk menjana konteks yang mereka patut beri perhatian supaya ia hanya mengandungi bahan yang relevan yang tidak menggantikan alasannya. Perbincangan memanggil proses ini Perhatian Sistem 2 (S2A) kerana pengubah asas dan mekanisme anotasinya boleh dilihat sebagai operasi automatik yang serupa dengan penaakulan Sistem 1 manusia. Sistem 2, memperuntukkan aktiviti perhatian, mengambil alih apabila tugas memerlukan perhatian yang disengajakan. Terutama apabila Sistem 1 berkemungkinan melakukan kesilapan. Oleh itu, subsistem ini adalah serupa dengan matlamat pendekatan S2A yang dibincangkan, kerana matlamat perbincangan adalah untuk mengurangkan kegagalan anotasi lembut yang dibincangkan di atas dengan mengurangkan usaha yang disengajakan di luar LLM. Untuk kelas mekanisme perhatian Sistem 2, motivasi lanjut disediakan, dan beberapa pelaksanaan khusus diperkenalkan secara terperinci di bawah. Dalam perkara berikut, kita membincangkan secara eksperimen yang menunjukkan bahawa S2A boleh menghasilkan penjanaan yang lebih realistik dan kurang obsesif atau obsequious daripada LLM berasaskan perhatian standard. Khususnya pada set data TriviQA yang diubah suai, yang merangkumi pendapat distraktor dalam soalan, S2A meningkatkan fakta daripada 62.8% kepada 80.3% berbanding sembang LLaMa-2-70b, dan untuk sembang jangka panjang yang mengandungi emosi input pengalih, hujah yang dijana meningkatkan objektiviti sebanyak 57.4% dan sebahagian besarnya tidak dipengaruhi oleh pendapat yang diselitkan. Akhir sekali, untuk soalan perbendaharaan kata matematik yang mengandungi ayat topik-tidak berkaitan dalam GSM-IC, S2A meningkatkan ketepatan daripada 51.7% kepada 61.3%.
Tiga, Sistem 2 Perhatian
3.1 Motivasi Model bahasa yang besar telah memperoleh keupayaan penaakulan yang sangat baik dan sejumlah besar pengetahuan melalui proses pra-latihan. Matlamat ramalan perkataan seterusnya memerlukan mereka memberi perhatian yang teliti kepada konteks semasa. Contohnya, jika entiti disebut dalam satu konteks, kemungkinan entiti yang sama akan muncul semula kemudian dalam konteks yang sama. LLM berasaskan pengubah dapat mempelajari korelasi statistik ini kerana mekanisme perhatian lembut membolehkan mereka mencari perkataan dan konsep yang serupa dalam konteksnya. Walaupun ini boleh meningkatkan ketepatan ramalan perkataan seterusnya, ia juga menjadikan LLM terdedah kepada kesan buruk korelasi palsu dalam konteksnya. Sebagai contoh, diketahui bahawa kebarangkalian untuk mengulangi frasa meningkat dengan setiap pengulangan, mewujudkan gelung maklum balas positif. Mengitlak masalah ini kepada apa yang dipanggil ulangan bukan remeh, model juga cenderung untuk mengulang topik berkaitan dalam konteks, bukannya hanya token khusus, kerana perwakilan asas mungkin meramalkan lebih banyak token dari ruang topik yang sama. Apabila konteks merangkumi idea bahawa model itu direplikasi, ini dipanggil kebolehikuti, tetapi secara amnya kertas itu menganggap isu itu berkaitan dengan mana-mana konteks yang dibincangkan di atas, bukan hanya untuk bersetuju dengan pendapat. Rajah 1 menunjukkan contoh pseudo-korelasi. Walaupun konteks mengandungi ayat yang tidak berkaitan, LLM yang paling berkuasa akan menukar jawapan mereka kepada soalan fakta mudah, yang secara tidak sengaja meningkatkan kebarangkalian pelabelan jawapan yang salah disebabkan token yang terdapat dalam konteks. Dalam contoh ini, konteks tambahan kelihatan relevan dengan soalan, kerana kedua-duanya adalah mengenai bandar dan tempat lahir. Tetapi dengan pemahaman yang lebih mendalam, menjadi jelas bahawa teks yang ditambah adalah tidak relevan dan harus diabaikan. Ini mendorong keperluan untuk mekanisme perhatian yang lebih disengajakan yang bergantung pada pemahaman yang lebih mendalam. Untuk membezakannya daripada mekanisme perhatian peringkat rendah, kertas itu memanggilnya Sistem 2 Perhatian (S2A). Dalam artikel ini, kertas kerja meneroka kaedah untuk menggunakan LLM sendiri untuk membina mekanisme perhatian sedemikian. Khususnya, kertas itu menggunakan LLM yang ditala arahan untuk menulis semula konteks dengan mengalih keluar teks yang tidak berkaitan. Dengan cara ini, LLM boleh membuat keputusan inferensi yang teliti tentang bahagian input yang hendak digunakan sebelum mengeluarkan respons. Satu lagi kelebihan menggunakan LLM yang ditala arahan ialah keupayaan untuk mengawal fokus perhatian, yang mungkin serupa dengan cara manusia mengawal perhatian. . urutan, dilambangkan sebagai y. Proses ini diwakili oleh y∼LLM (x). Sistem 2 Perhatian (S2A) ialah proses dua langkah yang mudah: Memandangkan konteks x, S2A mula-mula menjana semula konteks x' supaya bahagian keluaran akan menjejaskan konteks dipadamkan. Kertas mewakili x'∼S2A (x) ini. Memandangkan x', kertas itu kemudiannya menggunakan konteks yang dijana semula dan bukannya konteks asal untuk menjana respons akhir daripada LLM: y∼LLM(x'). Rajah 2 menunjukkan tip PS2A yang digunakan dalam eksperimen. Arahan S2A ini meminta LLM menjana semula konteks, mengekstrak bahagian yang membantu menyediakan konteks yang berkaitan untuk pertanyaan yang diberikan. Dalam pelaksanaan ini, ia secara khusus memerlukan penjanaan x' yang memisahkan konteks berguna daripada pertanyaan itu sendiri untuk menjelaskan langkah inferens model ini. Lazimnya, beberapa pasca pemprosesan juga boleh digunakan pada output langkah 1 untuk membina gesaan langkah 2, memandangkan arahan selepas medan yang diminta menghasilkan sebagai tambahan kepada medan LLM Penaakulan dan anotasi rantaian pemikiran tambahan. Kertas itu mengeluarkan teks yang diminta dalam kurungan daripada Rajah 2 dan menambah penjelasan tambahan yang diberikan dalam Rajah 13. Dalam subseksyen berikut, kertas kerja akan mempertimbangkan pelbagai kemungkinan pelaksanaan S2A yang lain. 3.3 Pelaksanaan Alternatif dan Variasi Kertas ini mempertimbangkan beberapa variasi kaedah S2A. Tiada pemisahan konteks/soalan Dalam pelaksanaan dalam Rajah 2, kertas kerja memilih untuk menjana semula konteks (konteks dan soalan) yang dipecahkan kepada dua bahagian. Ini khusus untuk menggalakkan model menyalin semua konteks yang perlu diberi perhatian, sambil tidak mengabaikan sasaran (soalan/pertanyaan) gesaan itu sendiri. Makalah ini memerhatikan bahawa sesetengah model mungkin mengalami kesukaran menyalin semua konteks yang diperlukan, tetapi untuk konteks pendek (atau LLM yang kuat) ini mungkin tidak diperlukan dan pembayang S2A yang hanya memerlukan penulisan semula tanpa pembahagian adalah mencukupi . Variasi segera ini ditunjukkan dalam Rajah 12. Kekalkan konteks asal Dalam S2A, selepas konteks dijana semula, semua elemen yang diperlukan dimasukkan, maka model hanya memberikan konteks yang dijana semula x', jadi konteks asal x dibuang. Jika S2A berprestasi buruk dan beberapa konteks asal yang dianggap tidak relevan dan dialih keluar sebenarnya penting, maklumat akan hilang. Dalam varian "kekalkan asal", selepas menjalankan gesaan S2A, x' ditambahkan pada gesaan asal x supaya kedua-dua konteks asal dan tafsiran semula boleh diakses oleh model. Satu masalah dengan pendekatan ini ialah kini maklumat asal yang tidak berkaitan masih ada dan mungkin masih menjejaskan generasi akhir. Variasi segera ini ditunjukkan dalam Rajah 14. Gesaan yang diarahkan Gesaan S2A yang diberikan dalam Rajah 2 menggalakkan mengalih keluar teks yang dipengaruhi pendapat daripada konteks dan menggunakan arahan dalam langkah 2 (Rajah 13) untuk meminta agar ia tidak dipengaruhi. Kertas boleh mengalih keluar yang terakhir dan mengalih keluar arahan ini dalam templat gesaan untuk langkah 2 S2A. Kita juga boleh membandingkan ini dengan garis dasar yang lebih lanjut di mana kita hanya menambah permintaan arahan tambahan dalam Rajah 13 kepada konteks asal (bukannya melaksanakan S2A sepenuhnya). . Walau bagaimanapun, terdapat cara lain untuk menekankan bahawa situasi tertentu harus ditangani. Sebagai contoh, seseorang boleh menekankan perkaitan dan bukannya tidak relevan. Contoh pendekatan ini diberikan dalam varian segera Rajah 15 dan juga akan digunakan dalam eksperimen kertas. 4.1 Tugasan dan Persediaan Eksperimen 4.1.1 Penilaian QA Fakta yang digunakan oleh Tribunal melalui versi AQ yang diubahsuaikan secara langsung soalan, Komen tambahan disediakan dalam gesaan, lihat Rajah 4. Khususnya, selain mengajukan soalan, satu daripada tiga kemungkinan ulasan ditambahkan pada gesaan, diberikan oleh ayat templat berikut: Cadangkan jawapan yang betul : “Saya rasa jawapannya [betul jawapan], tetapi saya benar-benar tidak pasti." Pernyataan ini lebih berkemungkinan membawa model standard kepada jawapan yang betul daripada garis dasar soalan mencari fakta yang berasingan. sama ada tidak fikir jawapannya [jawapan betul], tetapi saya benar-benar tidak pasti." Pernyataan ini cenderung untuk memesongkan model standard dan sering membawa kepada jawapan yang salah berbanding dengan garis dasar. . gesaan Tambah ulasan tambahan, lihat Rajah 18 (bawah). Khususnya, selain bertanya soalan dan menyediakan konteks, satu daripada empat ulasan yang mungkin akan ditambahkan pada gesaan, diwakili dengan suka, menulis, tidak suka dan tidak menulis, diberikan oleh ayat templat berikut: like : "Saya suka hujah ini." ulasan yang positif. Tidak suka: "Saya tidak suka hujah ini." dan Tidak Menulis
Atas ialah kandungan terperinci [Tafsiran Kertas] Sistem 2 Perhatian meningkatkan objektiviti dan faktual model bahasa besar. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!