Rumah  >  Artikel  >  Peranti teknologi  >  Jangan fikir langkah demi langkah! Algoritma penaakulan bahasa semula jadi terbaru Google LAMBADA: "Penalaran rantaian terbalik" adalah jawapannya

Jangan fikir langkah demi langkah! Algoritma penaakulan bahasa semula jadi terbaru Google LAMBADA: "Penalaran rantaian terbalik" adalah jawapannya

王林
王林ke hadapan
2023-04-12 21:16:201628semak imbas

​Penaakulan automatik pastinya merupakan masalah besar dalam bidang pemprosesan bahasa semula jadi Model ini perlu membuat kesimpulan yang berkesan dan betul berdasarkan premis dan pengetahuan yang diberikan.

Walaupun bidang NLP telah mencapai prestasi yang sangat tinggi dalam pelbagai tugasan "pemahaman bahasa semula jadi" seperti pemahaman membaca dan menjawab soalan melalui model bahasa pra-latihan berskala besar dalam beberapa tahun kebelakangan ini, ini Prestasi model dalam penaakulan logik masih ketinggalan.

Pada bulan Mei tahun lalu, "Chain of Thought (CoT)" telah dikeluarkan Sesetengah penyelidik mendapati bahawa hanya menambah "Mari kita fikir langkah demi langkah" pada gesaan boleh Prestasi inferens GPT. -3 telah banyak dipertingkatkan. Contohnya, dalam MultiArith, ketepatan inferens telah ditingkatkan daripada 17.7% sebelumnya kepada 78.7%

Tetapi kaedah seperti CoT dan Inferens Pemilihan mempunyai carian It proses pembuktian (bukti) dari aksiom (aksiom) ke arah hadapan untuk mendapatkan kesimpulan akhir (kesimpulan) Terdapat masalah letupan kombinatorial ruang carian, jadi untuk rantaian penaakulan yang lebih panjang, kadar kegagalan adalah lebih tinggi.

Baru-baru ini, Google Research telah membangunkan algoritma Backward Chaining LAMBADA (Language Model augmented BAckwarD chaining), yang menggabungkan "kecekapan penaakulan ke belakang" yang diperoleh daripada literatur penaakulan klasik "Secara ketara lebih tinggi daripada ke hadapan penaakulan." Kesimpulan ini digunakan untuk model bahasa (LM).

Jangan fikir langkah demi langkah! Algoritma penaakulan bahasa semula jadi terbaru Google LAMBADA: Penalaran rantaian terbalik adalah jawapannya

Pautan kertas: https://arxiv.org/abs/2212.13894

LAMBADA akan membuat alasan Proses ini diuraikan kepada empat sub-modul, setiap satunya dilaksanakan oleh penaakulan model bahasa yang digesa beberapa kali.

Akhirnya, LAMBADA mencapai peningkatan prestasi yang ketara pada dua set data penaakulan logik berbanding kaedah penaakulan hadapan semasa sota, terutamanya apabila masalah memerlukan rantaian bukti yang mendalam dan tepat. peningkatan prestasi LAMBADA lebih ketara.

"Reverse reasoning" menjadi jawapannya?

Penaakulan logik, terutamanya penaakulan logik pada teks semula jadi yang tidak berstruktur, adalah blok binaan asas untuk penemuan pengetahuan automatik dan kunci kepada kemajuan masa depan dalam pelbagai bidang saintifik.

Walaupun pembangunan banyak tugas NLP telah mendapat manfaat daripada peningkatan skala model bahasa pra-latihan, telah diperhatikan bahawa peningkatan saiz model mempunyai peningkatan yang sangat terhad dalam menyelesaikan kompleks masalah penaakulan.

Dalam kesusasteraan klasik, terdapat dua kaedah penaakulan logik utama:

1 Rantaian Hadapan (FC) ), iaitu bermula dari fakta dan peraturan, berulang antara membuat inferens baru dan menambahnya pada teori sehingga pernyataan sasaran boleh dibuktikan atau disangkal; menguraikannya secara rekursif kepada submatlamat sehingga submatlamat dapat dibuktikan atau diterbalikkan berdasarkan fakta.

Kaedah penaakulan menggunakan model bahasa sebelum ini kebanyakannya menggunakan idea ​​penaakulan rantaian hadapan, yang memerlukan pemilihan subset fakta dan peraturan daripada keseluruhan set, yang mungkin untuk LM sukar kerana ia memerlukan carian gabungan dalam ruang yang besar.

Tambahan pula, memutuskan masa untuk menghentikan carian dan mengisytiharkan bukti gagal juga sangat sukar dalam FC, malah kadangkala memerlukan modul yang dilatih khusus pada label perantaraan.

Malah, kesusasteraan penaakulan automatik klasik sebahagian besarnya menumpukan pada penaakulan rantaian ke belakang atau strategi pengesahan berorientasikan matlamat.

LAMBADA

LAMBADA bermaksud "Model bahasa yang dipertingkatkan oleh teknologi rantaian terbalik Ia terbukti bahawa BC lebih sesuai untuk penaakulan logik deduktif berasaskan teks.

BC tidak memerlukan sejumlah besar carian gabungan untuk memilih subset dan mempunyai lebih banyak kriteria penghentian semula jadi.

LAMBADA terutamanya menumpukan pada penaakulan automatik tentang fakta, iaitu, pernyataan bahasa semula jadi, seperti "Orang baik adalah merah".

Peraturan ditulis dengan pernyataan bahasa semula jadi, yang boleh ditulis semula dalam bentuk sebagai "jika P maka Q", contohnya "Kasar, orang baik merah" (Kasar, bagus orang merah) boleh Ditulis semula sebagai "Jika seseorang itu kasar dan baik, maka mereka merah" (Jika seseorang itu kasar dan baik, maka mereka merah).

di mana P dipanggil anteseden peraturan, dan Q dipanggil akibat peraturan.

Teori C terdiri daripada fakta F={f1, f2, , fn} dan peraturan R={r1, r2, Matlamat untuk membuktikan atau menyangkal berdasarkan fakta dan peraturan.

Contoh 1, contoh teori dengan watak dan peraturan fiksyen C

F={"Fiona seorang yang baik", Fiona ialah kasar"}

R={"Jika seseorang itu pandai, maka dia adalah orang yang baik", "Orang yang kasar dan baik itu merah", "Menjadi baik dan merah bermakna dia bulat "}.

Berdasarkan teori di atas, seseorang mungkin mahu membuktikan atau menyangkal matlamat, seperti "Fiona merah?"

Taakulan rantaian belakang

Sama ada peraturan digunakan pada matlamat ditentukan melalui operasi yang dipanggil penyatuan dalam logik.

Contohnya, untuk matlamat "Fiona merah dalam Contoh 1, akibat peraturan kedua adalah sama dengan matlamat, jadi ia boleh digunakan; daripada dua peraturan lain adalah berbeza , jadi tidak berkenaan.

Memandangkan teori dan matlamat dalam Contoh 1, BC mula membuat alasan dari matlamat "Fiona merah?"

Pertama, BC mengesahkan sama ada matlamat itu boleh dibuktikan atau dinafikan daripada sebarang fakta. Memandangkan tiada fakta untuk membuktikan atau menafikan matlamat ini, kami seterusnya menyemak sama ada matlamat ini konsisten dengan keputusan mana-mana peraturan, dan didapati ia konsisten dengan peraturan kedua "Orang kasar dan baik merah".

Oleh itu, matlamat ini boleh dipecahkan kepada dua sub-matlamat: 1) Adakah Fiona kasar? dan 2) Adakah Fiona seorang yang baik? .

Memandangkan kedua-dua submatlamat boleh dibuktikan daripada fakta, BC membuat kesimpulan bahawa matlamat asal boleh dibuktikan.

Untuk matlamat, keputusan BC adalah sama ada bukti, penafian atau tidak diketahui (contohnya, matlamat "Fiona bijak?").

Model Bahasa dalam LAMBADA

Untuk menggunakan BC bagi penaakulan berasaskan teks, penyelidik memperkenalkan empat modul berasaskan LM: Semakan Fakta , Pemilihan Peraturan, Penguraian Matlamat dan Tanda Perjanjian.

Jangan fikir langkah demi langkah! Algoritma penaakulan bahasa semula jadi terbaru Google LAMBADA: Penalaran rantaian terbalik adalah jawapannya

Semakan fakta

Memberi teori Memandangkan satu set fakta F dan matlamat G dalam , matlamat itu dinafikan).

Jika fakta sedemikian tidak dapat ditemui, maka kebenaran G tetap tidak diketahui.

Pelaksanaan semakan fakta merangkumi dua sub-modul: sub-modul pertama memilih fakta daripada set fakta yang paling relevan dengan sasaran, dan sub-modul kedua mengesahkan sama ada sasaran boleh berdasarkan fakta ini dibuktikan atau disangkal.

Memandangkan sub-modul pemilihan fakta mungkin tidak menentukan fakta terbaik pada percubaan pertama, jika kebenaran sasaran masih tidak diketahui selepas satu pusingan memanggil sub-modul, yang dipilih boleh dipadam fakta, dan kemudian memanggil submodul semula proses ini boleh diulang beberapa kali.

Pemilihan peraturan

Memandangkan satu set peraturan R dan matlamat G dalam teori, modul pemilihan peraturan menentukan Peraturan r∈R menjadikan keputusan r konsisten dengan G, dan kemudian peraturan ini digunakan untuk menguraikan matlamat kepada sub-matlamat.

Jika peraturan sedemikian tidak dapat ditentukan, maka kebenaran G tetap tidak diketahui.

Pemilihan peraturan juga termasuk dua sub-modul: sub-modul pertama menentukan keputusan setiap peraturan (bebas daripada matlamat), dan sub-modul kedua mengambil keputusan dan matlamat peraturan sebagai input, dan tentukan yang mana satu sejajar dengan matlamat.

Perlu diingatkan bahawa disebabkan sifat rekursif BC, modul pemilihan peraturan boleh dipanggil beberapa kali dalam proses membuktikan matlamat. Memandangkan hasil mengenal pasti setiap peraturan adalah bebas daripada sasaran, submodul ini hanya perlu dipanggil sekali.

Penguraian Matlamat

Memandangkan peraturan r dan matlamat G, jadikan hasil r bersatu dengan G, Modul penguraian matlamat menentukan submatlamat yang perlu dibuktikan supaya G boleh dibuktikan atau disangkal.

Dalam kes berjaya membuktikan anteseden r, sama ada sasaran dibuktikan atau tidak dibuktikan bergantung kepada sama ada tanda sasaran adalah konsisten dengan tanda keputusan r.

Contohnya, untuk matlamat "Fiona merah?", kerana tanda gol adalah konsisten dengan tanda keputusan peraturan kedua, dan anteseden peraturan itu terbukti , boleh disimpulkan bahawa, Matlamat terbukti.

Konsistensi simbolik

Memandangkan peraturan r dan matlamat G, modul konsistensi simbolik mengesahkan keputusan r Sama ada simbol itu konsisten atau tidak konsisten dengan simbol sasaran.

Bahagian eksperimen

Para penyelidik memilih Chain of Thought (CoT), kaedah penaakulan saraf sota berdasarkan penaakulan eksplisit, dan kaedah penaakulan modul sota Inferens Pemilihan (SI) sebagai Bandingkan dengan model garis dasar.

Set data percubaan menggunakan ProofWriter dan ProOntoQA Set data ini mencabar untuk inferens LM, mengandungi contoh yang perlu membuktikan panjang rantai sehingga 5 lompatan, dan sasaran tidak boleh diperoleh daripada. teori yang disediakan.

Jangan fikir langkah demi langkah! Algoritma penaakulan bahasa semula jadi terbaru Google LAMBADA: Penalaran rantaian terbalik adalah jawapannya

Keputusan eksperimen menunjukkan bahawa LAMBADA dengan ketara mengatasi dua garis dasar yang lain, terutamanya pada set data ProofWriter-PUD yang mengandungi label UNKNOWN (44% peningkatan relatif berbanding CoT dan 44% peningkatan relatif berbanding SI pada depth-5 56% peningkatan), dan pada kedalaman PrOntoQA yang lebih tinggi (37% peningkatan relatif berbanding CoT dan peningkatan 113% berbanding SI pada kedalaman -5).

Jangan fikir langkah demi langkah! Algoritma penaakulan bahasa semula jadi terbaru Google LAMBADA: Penalaran rantaian terbalik adalah jawapannya

Keputusan ini menunjukkan kelebihan LAMBADA dalam penaakulan logik dan juga menunjukkan rantaian ke belakang (dalam LAMBADA ia adalah tulang belakang Inferens ) mungkin pilihan yang lebih baik daripada rantaian hadapan (tulang belakang dalam SI).

Keputusan ini juga mendedahkan kecacatan dalam kaedah CoT apabila berurusan dengan label TIDAK DIKENALI: tidak seperti contoh yang dilabelkan sebagai TERBUKTI atau TIDAK TERBUKTI, contohnya yang dilabel TIDAK DIKETAHUI , tidak ada rantaian pemikiran semula jadi.

Untuk masalah rantaian bukti yang lebih mendalam (3+), SI menghasilkan ramalan yang hampir dengan ramalan kelas majoriti pada tiga set data.

Ia boleh didapati bahawa dalam kes binari, ia cenderung untuk meramalkan terlebih DISPROVED; dalam kes klasifikasi ternary, ia cenderung untuk meramalkan UNKNOWN, yang menjadikannya pada kedalaman PrOntoQA -5 Prestasi dalam adalah lebih teruk daripada kelas majoriti kerana terdapat lebih banyak label TERBUKTI daripada DISPROVED pada kedalaman itu.

Walau bagaimanapun, para penyelidik juga terkejut apabila mendapati prestasi CoT pada set data ProofWriterPD masih agak tinggi, dan ketepatannya tidak berkurangan.

Ringkasnya, LAMBADA mempunyai ketepatan inferens yang lebih tinggi pada set data ini dan lebih berkemungkinan menghasilkan kesimpulan yang sah berbanding teknik lain yang mencari kesimpulan yang betul dengan jejak bukti palsu, dan juga lebih pertanyaan cekap daripada kaedah penaakulan modular berasaskan LM yang lain.

Keputusan eksperimen ini amat mencadangkan bahawa kerja masa hadapan tentang penaakulan dengan LM harus merangkumi rantaian ke belakang atau strategi terarah matlamat, kata para penyelidik.

Rujukan: ​

https://arxiv.org/abs/2212.13894

Atas ialah kandungan terperinci Jangan fikir langkah demi langkah! Algoritma penaakulan bahasa semula jadi terbaru Google LAMBADA: "Penalaran rantaian terbalik" adalah jawapannya. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam