Rumah  >  Artikel  >  Peranti teknologi  >  Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun "peringkat token"

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun "peringkat token"

王林
王林asal
2024-06-24 15:04:43536semak imbas
Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token
Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com

Dalam proses pembangunan bidang kecerdasan buatan, kawalan dan bimbingan model bahasa besar (LLM) sentiasa menjadi salah satu cabaran utama, bertujuan untuk memastikan model ini Berkhidmat kepada masyarakat manusia dengan kuat dan selamat. Usaha awal tertumpu pada mengurus model ini melalui kaedah pembelajaran pengukuhan dengan maklum balas manusia (RLHF), dengan hasil yang mengagumkan menandakan langkah penting ke arah AI yang lebih mirip manusia.

Walaupun kejayaannya hebat, RLHF sangat intensif sumber semasa latihan. Oleh itu, sejak kebelakangan ini, para sarjana terus meneroka laluan pengoptimuman dasar yang lebih mudah dan cekap berdasarkan asas kukuh yang diletakkan oleh RLHF, yang melahirkan pengoptimuman keutamaan langsung (DPO). DPO memperoleh pemetaan langsung antara fungsi ganjaran dan strategi optimum melalui penaakulan matematik, menghapuskan proses latihan model ganjaran, mengoptimumkan model strategi secara langsung pada data keutamaan, dan mencapai lonjakan intuitif daripada "maklum balas kepada strategi". Ini bukan sahaja mengurangkan kerumitan, tetapi juga meningkatkan keteguhan algoritma, dengan cepat menjadi kegemaran baharu dalam industri.

Walau bagaimanapun, DPO tertumpu terutamanya pada pengoptimuman dasar di bawah kekangan perbezaan songsang KL. DPO sangat baik dalam meningkatkan prestasi penjajaran disebabkan sifat pencarian mod bagi perbezaan songsang KL, tetapi sifat ini juga cenderung untuk mengurangkan kepelbagaian semasa proses penjanaan, yang berpotensi mengehadkan keupayaan model. Sebaliknya, walaupun DPO mengawal perbezaan KL dari perspektif peringkat ayat, proses penjanaan model pada asasnya adalah token-by-token. Mengawal perbezaan KL pada peringkat ayat secara intuitif menunjukkan bahawa DPO mempunyai batasan dalam kawalan halus dan mempunyai keupayaan yang lemah untuk melaraskan perbezaan KL, yang mungkin menjadi salah satu faktor utama penurunan pesat dalam kepelbagaian generatif LLM semasa latihan DPO.

Untuk tujuan ini, pasukan Wang Jun dan Zhang Haifeng dari Chinese Academy of Sciences dan University College London mencadangkan algoritma penjajaran model besar yang dimodelkan daripada perspektif peringkat token: TDPO.

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token

  • Tajuk kertas: Pengoptimuman Keutamaan Langsung peringkat Token

  • Alamat kertas: https://arxiv.org/abs/2404.11999

  • alamat Cohub /Token-level-Direct-Preference-Optimization

Untuk menangani penurunan ketara dalam kepelbagaian penjanaan model, TTDPO mentakrifkan semula fungsi objektif keseluruhan proses penjajaran daripada perspektif peringkat token, dan mengubah Bradley -Model Terry ke dalam Menukarkannya ke dalam bentuk fungsi kelebihan membolehkan keseluruhan proses penjajaran akhirnya dianalisis dan dioptimumkan dari tahap peringkat Token. Berbanding dengan DPO, sumbangan utama TDPO adalah seperti berikut:

  • Kaedah pemodelan peringkat token: TDPO memodelkan masalah dari perspektif peringkat Token dan menjalankan analisis RLHF yang lebih terperinci

  • Fine-grained; kekangan perbezaan: Kekangan perbezaan KL ke hadapan secara teorinya diperkenalkan pada setiap token, membenarkan kaedah untuk mengekang pengoptimuman model dengan lebih baik

  • Kelebihan prestasi yang jelas: berbanding DPO , TTDPO mampu mencapai prestasi penjajaran yang lebih baik dan menjana hadapan Pareto yang pelbagai.

Perbezaan utama antara DPO dan TDPO ditunjukkan dalam rajah di bawah:                                                                                                                        Penjajaran TDPO TDPO untuk dioptimumkan seperti ditunjukkan di bawah. DPO dimodelkan daripada perspektif peringkat ayat

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token

Rajah 2: Kaedah pengoptimuman penjajaran TDPO. Model TDPO dari perspektif tahap token dan memperkenalkan kekangan perbezaan KL hadapan tambahan pada setiap token, seperti yang ditunjukkan dalam bahagian merah dalam rajah, yang bukan sahaja mengawal tahap mengimbangi model, tetapi juga berfungsi sebagai garis dasar untuk penjajaran model

Proses terbitan khusus kedua-dua kaedah diperkenalkan di bawah. Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token

Latar Belakang: Pengoptimuman Keutamaan Langsung (DPO) DPO memperoleh pemetaan langsung antara fungsi ganjaran dan dasar optimum melalui derivasi matematik, menghapuskan peringkat pemodelan ganjaran dalam proses RLHF:

(

) (

) digantikan ke dalam model keutamaan Bradley-Terry (BT) untuk mendapatkan fungsi kehilangan pengoptimuman dasar langsung (DPO):

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token

di mana Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token ialah pasangan keutamaan yang terdiri daripada respons segera, menang dan kalah daripada set data keutamaan D. . abjad (Glosari).

Apabila penjanaan teks dimodelkan sebagai proses keputusan Markov, keadaan ditakrifkan sebagai gabungan gesaan dan token yang telah dijana sehingga langkah semasa, diwakili oleh , manakala tindakan sepadan dengan token yang dijana seterusnya, diwakili oleh ialah , ganjaran peringkat token ditakrifkan sebagai

.

Berdasarkan takrifan yang diberikan di atas, TDPO menetapkan fungsi tindakan keadaan , fungsi nilai keadaan

dan fungsi kelebihan

untuk polisi : Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat tokenDaripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat tokenDaripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token

di mana

mewakili faktor diskaun. Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat tokenDaripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat tokenDaripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat tokenPembelajaran Peneguhan Maklum Balas Manusia daripada Perspektif Peringkat Token

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat tokenTDPO secara teorinya mengubah suai fasa pemodelan ganjaran dan fasa penalaan halus RL RLHF, memanjangkannya kepada matlamat pengoptimuman yang dipertimbangkan dari perspektif peringkat token. Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat tokenDaripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat tokenUntuk peringkat pemodelan ganjaran, TDPO mewujudkan korelasi antara model Bradley-Terry dan fungsi kelebihan: Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token

Untuk peringkat penalaan halus RL, TDPO mentakrifkan fungsi objektif berikut:

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token

Bermula dari objektif (4), TDPO memperoleh hubungan pemetaan antara strategi optimum Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token dan fungsi tindakan keadaan

pada setiap token:

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token

Di mana, Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token mewakili fungsi partition.

Menggantikan persamaan (5) ke dalam persamaan (3), kita dapat:

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token

di mana, Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token mewakili perbezaan dalam fungsi ganjaran tersirat yang diwakili oleh model dasar Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token dan model rujukan Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token, dinyatakan sebagai

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token manakala

ialah Menandakan perbezaan jujukan peringkat hadapan KL bagi perbezaan

dan Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token, ditimbang dengan Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token, dinyatakan sebagai Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat tokenDaripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token Berdasarkan Persamaan (8), fungsi kemungkinan kehilangan maksimum TDPO boleh dimodelkan sebagai:

Memandangkan bahawa dalam amalan, kehilangan Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token cenderung meningkat

, menguatkan perbezaan antara

dan Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token. Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat tokenDi sini, Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token bermaksud Hentikan pengendali perambatan kecerunan. Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token

Kami meringkaskan fungsi kehilangan TTDO dan DPO seperti berikut:

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat tokenDapat dilihat bahawa TDPO memperkenalkan kawalan divergence KL hadapan ini pada setiap token, membolehkan kawalan KL yang lebih baik semasa proses pengoptimuman berubah tanpa menjejaskan prestasi penjajaran , dengan itu mencapai bahagian hadapan Pareto yang lebih baik.

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat tokenTetapan percubaan

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat tokenTDPO menjalankan eksperimen pada set data IMDb, Anthropic/hh-rlhf, MT-Bench.

IMDb

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token

Pada set data IMDb, pasukan menggunakan GPT-2 sebagai model asas, dan kemudian menggunakan siebert/sentiment-roberta-large-english sebagai model ganjaran untuk menilai output model dasar Hasil percubaan ditunjukkan dalam Rajah 3. . TTDPO berprestasi sangat baik dalam kawalan divergence KL, yang jauh lebih baik daripada keupayaan kawalan divergence KL bagi algoritma DPO.

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat tokenAnthropic HH

Pada set data Anthropic/hh-rlhf, pasukan menggunakan Pythia 2.8B sebagai model asas dan menggunakan dua kaedah untuk menilai kualiti penjanaan model: 1) menggunakan penunjuk sedia ada; GPT-4.

Untuk kaedah penilaian pertama, pasukan menilai pertukaran dalam prestasi penjajaran (Ketepatan) dan kepelbagaian penjanaan (Entropi) model yang dilatih dengan algoritma berbeza, seperti ditunjukkan dalam Jadual 1.

Dapat dilihat bahawa algoritma TDPO bukan sahaja lebih baik daripada DPO dan f-DPO dalam prestasi penjajaran (Ketepatan), tetapi juga mempunyai kelebihan dalam kepelbagaian penjanaan (Entropi), yang merupakan penunjuk utama tindak balas dihasilkan oleh kedua-dua model besar ini.

Untuk kaedah penilaian kedua, pasukan menilai ketekalan antara model yang dilatih oleh algoritma yang berbeza dan keutamaan manusia, dan membandingkannya dengan respons yang menang dalam set data, seperti yang ditunjukkan dalam Rajah 4. Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token

Algoritma DPO, TDPO1 dan TDPO2 semuanya mampu mencapai kadar kemenangan lebih tinggi daripada 50% untuk memenangi tindak balas pada pekali suhu 0.75, yang lebih baik sejajar dengan pilihan manusia.

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat tokenMT-Bench

Dalam percubaan terakhir dalam kertas kerja, pasukan menggunakan model Pythia 2.8B yang dilatih pada set data Anthropic HH untuk menggunakannya secara langsung untuk penilaian set data MT-Bench 5 Tunjukkan.

Di MT-Bench, TDPO mampu mencapai kebarangkalian kemenangan yang lebih tinggi daripada algoritma lain, yang menunjukkan sepenuhnya kualiti respons yang lebih tinggi yang dihasilkan oleh model yang dilatih oleh algoritma TDPO.

Selain itu, terdapat kajian berkaitan membandingkan algoritma DPO, TDPO, dan SimPO Sila rujuk pautan: https://www.zhihu.com/question/651021172/answer/3513696851Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token

Berdasarkan skrip eval yang disediakan oleh. eurus, penilaian Prestasi model asas qwen-4b, mistral-0.1, dan deepseek-math-base diperoleh dengan latihan penalaan halus berdasarkan algoritma penjajaran berbeza DPO, TDPO dan SimPO Berikut adalah keputusan eksperimen:

Jadual 2: DPO, Perbandingan prestasi algoritma TTDPO dan SimPODaripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun peringkat token

Untuk hasil lebih lanjut, sila rujuk kertas asal.

Atas ialah kandungan terperinci Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun "peringkat token". Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn