Rumah  >  Artikel  >  Peranti teknologi  >  GPT-4 telah meningkatkan ketepatannya sebanyak 13.7% melalui latihan DeepMind, mencapai keupayaan induksi dan potongan yang lebih baik.

GPT-4 telah meningkatkan ketepatannya sebanyak 13.7% melalui latihan DeepMind, mencapai keupayaan induksi dan potongan yang lebih baik.

WBOY
WBOYke hadapan
2023-10-14 20:13:03843semak imbas

Pada masa ini, Model Bahasa Besar (LLM) menunjukkan keupayaan yang menakjubkan pada tugasan inferens, terutamanya apabila contoh dan langkah perantaraan disediakan. Walau bagaimanapun, kaedah segera biasanya bergantung pada pengetahuan tersirat dalam LLM, dan apabila pengetahuan tersirat salah atau tidak konsisten dengan tugas, LLM mungkin memberikan jawapan yang salah

GPT-4 telah meningkatkan ketepatannya sebanyak 13.7% melalui latihan DeepMind, mencapai keupayaan induksi dan potongan yang lebih baik.

Sekarang, daripada Google, Institut Mila, dsb. Penyelidik dari penyelidikan institusi bersama-sama meneroka kaedah baharu - membenarkan LLM mempelajari peraturan inferens, dan mencadangkan rangka kerja baharu yang dipanggil Hipotesis-kepada-Teori (HtT). Kaedah baharu ini bukan sahaja menambah baik penaakulan pelbagai langkah, tetapi juga mempunyai kelebihan kebolehtafsiran dan kebolehpindahan

GPT-4 telah meningkatkan ketepatannya sebanyak 13.7% melalui latihan DeepMind, mencapai keupayaan induksi dan potongan yang lebih baik.

Alamat kertas: https://arxiv.org/abs/2310.07064

cording

Experience

keputusan mengenai masalah penaakulan berangka dan penaakulan hubungan menunjukkan bahawa kaedah HtT menambah baik kaedah dorongan sedia ada dan meningkatkan ketepatan sebanyak 11-27%. Pada masa yang sama, peraturan yang dipelajari juga boleh dipindahkan kepada model yang berbeza atau bentuk yang berbeza dari masalah yang sama

Pengenalan kepada kaedah

Secara amnya, rangka kerja HtT mengandungi dua peringkat - peringkat induktif dan deduktif peringkat. Sama seperti latihan dan ujian dalam pembelajaran mesin tradisional.

GPT-4 telah meningkatkan ketepatannya sebanyak 13.7% melalui latihan DeepMind, mencapai keupayaan induksi dan potongan yang lebih baik.

Dalam fasa induksi, LLM terlebih dahulu perlu menjana dan mengesahkan satu set peraturan untuk contoh latihan. Kajian ini menggunakan CoT untuk mengisytiharkan peraturan dan memperoleh jawapan, menilai kekerapan dan ketepatan peraturan, mengumpul peraturan yang kerap muncul dan membawa kepada jawapan yang betul, dan membentuk asas peraturan

Dengan asas peraturan yang baik, langkah seterusnya ialah bagaimana untuk mengaplikasikan penyelidikan ini Peraturan ini menyelesaikan masalah. Untuk tujuan ini, dalam fasa potongan, kajian ini menambah asas peraturan dengan segera dan memerlukan LLM untuk mendapatkan semula peraturan daripada asas peraturan untuk melakukan potongan, menukar penaakulan tersirat kepada penaakulan eksplisit.

Walau bagaimanapun, kajian mendapati bahawa walaupun LLM yang sangat berkuasa (seperti GPT-4) mengalami kesukaran untuk mendapatkan semula peraturan yang betul pada setiap langkah. Oleh itu, kajian ini membangunkan teknik penanda XML untuk meningkatkan keupayaan mendapatkan semula konteks LLM

GPT-4 telah meningkatkan ketepatannya sebanyak 13.7% melalui latihan DeepMind, mencapai keupayaan induksi dan potongan yang lebih baik.

Hasil eksperimen

Untuk menilai HtT, kajian ini menjalankan penaakulan pelbagai penanda aras ke atas dua masalah. Keputusan eksperimen menunjukkan bahawa HtT menambah baik kaedah segera beberapa sampel. Penulis juga melakukan kajian ablasi yang meluas untuk memberikan pemahaman yang lebih komprehensif tentang HtT.

Mereka menilai kaedah baharu mengenai penaakulan berangka dan masalah penaakulan hubungan. Dalam inferens berangka, mereka melihat peningkatan 21.0% dalam ketepatan untuk GPT-4. Dalam penaakulan hubungan, GPT-4 mencapai peningkatan ketepatan 13.7%, dan GPT-3.5 mendapat lebih banyak manfaat, menggandakan prestasi. Keuntungan prestasi terutamanya datang daripada pengurangan ilusi peraturan.

GPT-4 telah meningkatkan ketepatannya sebanyak 13.7% melalui latihan DeepMind, mencapai keupayaan induksi dan potongan yang lebih baik.

Secara khusus, Jadual 1 di bawah menunjukkan keputusan pada pangkalan data asas-16, asas-11 dan asas-9 aritmetik. Di antara semua sistem asas, CoT 0-shot mempunyai prestasi paling teruk dalam kedua-dua LLM.

GPT-4 telah meningkatkan ketepatannya sebanyak 13.7% melalui latihan DeepMind, mencapai keupayaan induksi dan potongan yang lebih baik.

Jadual 2 membentangkan keputusan membandingkan kaedah berbeza pada CLUTRR. Dapat diperhatikan bahawa CoT 0-shot mempunyai prestasi terburuk dalam GPT3.5 dan GPT4. Untuk kaedah gesaan beberapa pukulan, CoT dan LtM melakukan yang sama. Dari segi ketepatan purata, HtT secara konsisten mengatasi kaedah pembayang untuk kedua-dua model sebanyak 11.1-27.2%. Perlu diingat bahawa GPT3.5 tidak buruk untuk mendapatkan semula peraturan CLUTRR dan mendapat lebih banyak manfaat daripada HtT berbanding GPT4, mungkin kerana terdapat lebih sedikit peraturan dalam CLUTRR daripada dalam aritmetik.

Perlu dinyatakan bahawa menggunakan peraturan GPT4, prestasi CoT pada GPT3.5 dipertingkatkan sebanyak 27.2%, iaitu lebih daripada dua kali ganda prestasi CoT dan hampir dengan prestasi CoT pada GPT4. Oleh itu, penulis percaya bahawa HtT boleh berfungsi sebagai bentuk penyulingan pengetahuan baharu daripada LLM kuat kepada LLM lemah.

GPT-4 telah meningkatkan ketepatannya sebanyak 13.7% melalui latihan DeepMind, mencapai keupayaan induksi dan potongan yang lebih baik.

Jadual 3 menunjukkan bahawa HtT meningkatkan prestasi GPT-4 (versi teks) dengan ketara. Peningkatan ini tidak ketara untuk GPT3.5, kerana ia sering menghasilkan ralat selain daripada ilusi peraturan semasa memproses input teks.

GPT-4 telah meningkatkan ketepatannya sebanyak 13.7% melalui latihan DeepMind, mencapai keupayaan induksi dan potongan yang lebih baik.

GPT-4 telah meningkatkan ketepatannya sebanyak 13.7% melalui latihan DeepMind, mencapai keupayaan induksi dan potongan yang lebih baik.

Atas ialah kandungan terperinci GPT-4 telah meningkatkan ketepatannya sebanyak 13.7% melalui latihan DeepMind, mencapai keupayaan induksi dan potongan yang lebih baik.. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam