Rumah >Peranti teknologi >AI >Bagaimana kerja LLM: Pembelajaran Penguatkuasaan, RLHF, DeepSeek R1, Openai O1, AlphaGo
Selamat datang ke bahagian 2 dari menyelam saya yang mendalam. Jika anda belum membaca Bahagian 1, saya sangat menggalakkan anda untuk menyemaknya terlebih dahulu.
Sebelum ini, kami merangkumi dua peringkat utama latihan LLM:
Sekarang, kita menyelam ke peringkat utama seterusnya: Pembelajaran Penguatkuasaan (RL) . Walaupun pra-latihan dan SFT mantap, RL masih berkembang tetapi telah menjadi bahagian penting dalam saluran paip latihan.
Saya telah mengambil rujukan dari YouTube 3.5 jam yang popular di Andrej Karpathy. Andrej adalah ahli pengasas Openai, pandangannya adalah emas - anda mendapat idea.
mari kita pergi?
manusia dan LLMS memproses maklumat secara berbeza. Apa yang intuitif untuk kita - seperti aritmetik asas - mungkin bukan untuk LLM, yang hanya melihat teks sebagai urutan token. Sebaliknya, LLM dapat menjana tindak balas peringkat pakar pada topik kompleks semata-mata kerana ia telah melihat contoh yang cukup semasa latihan.
Perbezaan dalam kognisi ini menjadikannya mencabar bagi annotator manusia untuk menyediakan set label "sempurna" yang secara konsisten membimbing LLM ke arah jawapan yang betul.
RL menjembatani jurang ini dengan membenarkan model untuk belajar dari pengalamannya sendiri . Daripada hanya bergantung pada label yang jelas, model meneroka urutan token yang berbeza dan menerima maklum balas - isyarat ganjaran - di mana output paling berguna. Dari masa ke masa, ia belajar untuk menyelaraskan lebih baik dengan niat manusia.
intuisi di belakang rlLLMS adalah stokastik - yang bermaksud respons mereka tidak ditetapkan. Walaupun dengan prompt yang sama, output berbeza -beza kerana ia diambil dari taburan kebarangkalian.
selari
. Fikirkannya sebagai model meneroka laluan yang berbeza - beberapa yang baik, beberapa yang buruk.Matlamat kami adalah untuk menggalakkannya untuk mengambil jalan yang lebih baik lebih kerap. Untuk melakukan ini, kami melatih model pada urutan token yang membawa kepada hasil yang lebih baik. Tidak seperti penalaan halus yang diselia, di mana pakar manusia menyediakan data berlabel, pembelajaran tetulang membolehkan model untuk
belajar dari dirinya sendiri.
Model mendapati respons yang paling baik, dan selepas setiap langkah latihan, kami mengemas kini parameternya. Dari masa ke masa, ini menjadikan model lebih cenderung untuk menghasilkan jawapan yang berkualiti tinggi apabila diberi petunjuk yang sama pada masa akan datang.
Tetapi bagaimana kita menentukan respons mana yang terbaik? Dan berapa banyak RL yang harus kita lakukan? Butirannya adalah rumit, dan membuat mereka betul tidak remeh. Contoh hebat kuasa RL ialah DeepMind's AlphaGo, AI pertama yang mengalahkan pemain Go Professional dan kemudian melampaui permainan peringkat manusia. Dalam Kertas Alam 2016 (graf di bawah), apabila model dilatih semata-mata oleh SFT (memberikan model banyak contoh yang baik untuk meniru), model itu dapat mencapai prestasi peringkat manusia, tetapi tidak pernah melepasi .
Ini kerana SFT adalah mengenai replikasi, bukan inovasi - ia tidak membenarkan model untuk menemui strategi baru di luar pengetahuan manusia.
Walau bagaimanapun, RL membolehkan Alphago bermain menentang dirinya sendiri, memperbaiki strateginya, dan akhirnya (garis biru).
RL mewakili sempadan yang menarik di AI - di mana model dapat meneroka strategi di luar imaginasi manusia ketika kita melatihnya di pelbagai masalah dan mencabar masalah untuk memperbaiki strategi pemikirannya.
rl asas recap mari kita cepat rekap komponen utama persediaan RL biasa:
dari masa ke masa.
Dasar
Dasar adalah strategi ejen. Jika ejen mengikuti dasar yang baik, ia secara konsisten akan membuat keputusan yang baik, yang membawa kepada ganjaran yang lebih tinggi dalam banyak langkah. (πθ (a | s)) Anggaran betapa baiknya dalam keadaan tertentu, memandangkan ganjaran jangka panjang yang diharapkan. Untuk LLM, ganjaran mungkin datang dari maklum balas manusia atau model ganjaran. ia adalah persediaan RL yang popular yang menggabungkan dua komponen: Bagaimana ia berfungsi:
DeepSeek-R1-Zero dan DeepSeek-R1.
mengapa grpo over ppo?
GRPO menghapuskan model pengkritik dengan menggunakan penilaian relatif
Bayangkan pelajar menyelesaikan masalah. Daripada seorang guru yang menggred mereka secara individu, mereka membandingkan jawapan, belajar dari satu sama lain. Dari masa ke masa, prestasi menumpu ke arah kualiti yang lebih tinggi.
bagaimana GRPO sesuai dengan proses latihan keseluruhan?
Seperti manusia yang berfikir melalui soalan yang sukar, COT membolehkan model memecahkan masalah ke dalam langkah -langkah pertengahan, meningkatkan keupayaan penalaran yang kompleks. Model Openai O1 juga memanfaatkannya, seperti yang dinyatakan dalam laporan September 2024: Prestasi O1 bertambah dengan lebih banyak RL (pengiraan masa kereta api) dan lebih banyak masa alasan (pengiraan masa ujian).
DeepSeek-R1-Zero mempamerkan kecenderungan reflektif, secara autonomi menyempurnakan penalarannya. Grafik utama (di bawah) dalam kertas menunjukkan peningkatan pemikiran semasa latihan, yang membawa kepada lebih lama (lebih banyak token), lebih terperinci dan lebih baik.
Tanpa pengaturcaraan yang jelas, ia mula mengkaji semula langkah -langkah penalaran masa lalu, meningkatkan ketepatan. Ini menyoroti pemikiran rantaian yang dipikirkan sebagai harta yang muncul dalam latihan RL.
Model ini juga mempunyai "momen aha" (di bawah) - contoh yang menarik tentang bagaimana RL boleh membawa kepada hasil yang tidak dijangka dan canggih. NOTA: Tidak seperti DeepSeek-R1, Openai tidak menunjukkan rantaian pemikiran penuh pemikiran yang tepat di O1 kerana mereka bimbang tentang risiko penyulingan-di mana seseorang masuk dan cuba meniru jejak penalaran itu dan memulihkan banyak prestasi penalaran dengan hanya meniru. Sebaliknya, O1 hanya ringkasan rantai pemikiran ini. pembelajaran tetulang dengan maklum balas manusia (RLHF)
mari kita lihat pendekatan naif dengan beberapa nombor sewenang -wenangnya.
Perhatikan bahawa RLHF tidak sama dengan RL tradisional.
Untuk empirikal, domain yang dapat disahkan (mis. Matematik, pengekodan), RL boleh berjalan selama -lamanya dan menemui strategi novel. RLHF, sebaliknya, lebih seperti langkah penalaan halus untuk menyelaraskan model dengan keutamaan manusia.
Kesimpulan Dan itulah bungkus! Saya harap anda menikmati bahagian 2? Sekiranya anda belum membaca Bahagian 1 - periksa di sini. rl bukan "baru" - ia dapat melepasi kepakaran manusia (AlphaGo, 2016)
Pembuat keputusan atau keputusan. Ia mengamati keadaan semasa (
Dengan menggunakan maklum balas dari keadaan dan tindakan yang berbeza, ejen secara beransur -ansur mempelajari strategi optimum untuk memaksimumkan jumlah ganjaran Fungsi nilai
Senibina pelakon-kritikal
pelakon
meletakkan semuanya bersama -sama untuk llms
Negeri boleh menjadi teks semasa (prompt atau perbualan), dan tindakan itu boleh menjadi token seterusnya untuk menjana. Model ganjaran (contohnya maklum balas manusia), memberitahu model betapa baik atau buruknya teks yang dihasilkan.
Untuk menyerlahkan kepentingan RL, mari kita meneroka DeepSeek-R1, model pemikiran yang mencapai prestasi peringkat teratas sementara baki sumber terbuka. Kertas ini memperkenalkan dua model: DeepSeek-R1-Zero dilatih semata-mata melalui RL berskala besar, melangkaui penalaan yang diselia (SFT).
mari kita menyelam beberapa perkara utama ini.
Satu permainan utama mengubah algoritma RL adalah pengoptimuman dasar relatif kumpulan (GRPO), varian pengoptimuman dasar proksimal yang popular (PPO). GRPO diperkenalkan dalam kertas DeepSeekmath pada Februari 2024.
Bagaimana GRPO menangani cabaran ini:
PPO memerlukan model pengkritik yang berasingan, dengan berkesan menggandakan ingatan dan pengiraan.
kos pengiraan yang tinggi sebagai saluran paip RL menuntut sumber yang besar untuk menilai dan mengoptimumkan respons.
Kumpulkan data (tindak balas pertanyaan)
Berikan ganjaran - Setiap tindak balas dalam kumpulan dijaringkan ("ganjaran").
Kemas kini dasar lama sekali -sekala untuk memadankan dasar baru . Ini menyegarkan garis dasar untuk perbandingan pusingan seterusnya.
2. Rantaian Pemikiran (Cot)
Latihan LLM tradisional mengikuti pra-latihan → SFT → RL. Walau bagaimanapun, DeepSeek-R1-Zero
dilangkau sft
, yang membolehkan model untuk meneroka penalaran COT secara langsung.
Untuk tugas dengan output yang dapat disahkan (mis., Masalah matematik, Q & A faktual), respons AI dapat dengan mudah dinilai. Tetapi bagaimana dengan bidang seperti ringkasan atau penulisan kreatif, di mana tidak ada jawapan "betul" tunggal?
Responses ranking juga lebih mudah dan lebih intuitif daripada pemarkahan mutlak.
Upsides of rlHf
kelemahan rlhf
Ada soalan atau idea untuk apa yang harus saya sampaikan seterusnya? Jatuhkan mereka dalam komen - Saya suka mendengar pendapat anda. Jumpa anda dalam artikel seterusnya!
Atas ialah kandungan terperinci Bagaimana kerja LLM: Pembelajaran Penguatkuasaan, RLHF, DeepSeek R1, Openai O1, AlphaGo. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!