cari
RumahPeranti teknologiAIBagaimana kerja LLM: Pembelajaran Penguatkuasaan, RLHF, DeepSeek R1, Openai O1, AlphaGo

Selamat datang ke bahagian 2 dari menyelam saya yang mendalam. Jika anda belum membaca Bahagian 1, saya sangat menggalakkan anda untuk menyemaknya terlebih dahulu.

Sebelum ini, kami merangkumi dua peringkat utama latihan LLM:

  1. Pra-latihan-Belajar dari dataset besar-besaran untuk membentuk model asas.
  2. diselia halus (sft)-menyempurnakan model dengan contoh yang dikendalikan untuk menjadikannya berguna.

Sekarang, kita menyelam ke peringkat utama seterusnya: Pembelajaran Penguatkuasaan (RL) . Walaupun pra-latihan dan SFT mantap, RL masih berkembang tetapi telah menjadi bahagian penting dalam saluran paip latihan.

Saya telah mengambil rujukan dari YouTube 3.5 jam yang popular di Andrej Karpathy. Andrej adalah ahli pengasas Openai, pandangannya adalah emas - anda mendapat idea.

mari kita pergi?

Apakah tujuan pembelajaran tetulang (RL)?

manusia dan LLMS memproses maklumat secara berbeza. Apa yang intuitif untuk kita - seperti aritmetik asas - mungkin bukan untuk LLM, yang hanya melihat teks sebagai urutan token. Sebaliknya, LLM dapat menjana tindak balas peringkat pakar pada topik kompleks semata-mata kerana ia telah melihat contoh yang cukup semasa latihan.

Perbezaan dalam kognisi ini menjadikannya mencabar bagi annotator manusia untuk menyediakan set label "sempurna" yang secara konsisten membimbing LLM ke arah jawapan yang betul.

RL menjembatani jurang ini dengan membenarkan model untuk belajar dari pengalamannya sendiri . Daripada hanya bergantung pada label yang jelas, model meneroka urutan token yang berbeza dan menerima maklum balas - isyarat ganjaran - di mana output paling berguna. Dari masa ke masa, ia belajar untuk menyelaraskan lebih baik dengan niat manusia.

intuisi di belakang rl

LLMS adalah stokastik - yang bermaksud respons mereka tidak ditetapkan. Walaupun dengan prompt yang sama, output berbeza -beza kerana ia diambil dari taburan kebarangkalian.

kita boleh memanfaatkan rawak ini dengan menghasilkan beribu -ribu atau bahkan berjuta -juta respons yang mungkin

selari

. Fikirkannya sebagai model meneroka laluan yang berbeza - beberapa yang baik, beberapa yang buruk.

Matlamat kami adalah untuk menggalakkannya untuk mengambil jalan yang lebih baik lebih kerap. Untuk melakukan ini, kami melatih model pada urutan token yang membawa kepada hasil yang lebih baik. Tidak seperti penalaan halus yang diselia, di mana pakar manusia menyediakan data berlabel, pembelajaran tetulang membolehkan model untuk

belajar dari dirinya sendiri. Model mendapati respons yang paling baik, dan selepas setiap langkah latihan, kami mengemas kini parameternya. Dari masa ke masa, ini menjadikan model lebih cenderung untuk menghasilkan jawapan yang berkualiti tinggi apabila diberi petunjuk yang sama pada masa akan datang. Tetapi bagaimana kita menentukan respons mana yang terbaik? Dan berapa banyak RL yang harus kita lakukan? Butirannya adalah rumit, dan membuat mereka betul tidak remeh.

rl bukan "baru" - ia dapat melepasi kepakaran manusia (AlphaGo, 2016)

Contoh hebat kuasa RL ialah DeepMind's AlphaGo, AI pertama yang mengalahkan pemain Go Professional dan kemudian melampaui permainan peringkat manusia.

Dalam Kertas Alam 2016 (graf di bawah), apabila model dilatih semata-mata oleh SFT (memberikan model banyak contoh yang baik untuk meniru), model itu dapat mencapai prestasi peringkat manusia, tetapi tidak pernah melepasi .

garis bertitik mewakili prestasi Lee Sedol - pemain terbaik di dunia.

Ini kerana SFT adalah mengenai replikasi, bukan inovasi - ia tidak membenarkan model untuk menemui strategi baru di luar pengetahuan manusia. Walau bagaimanapun, RL membolehkan Alphago bermain menentang dirinya sendiri, memperbaiki strateginya, dan akhirnya

melebihi kepakaran manusia

(garis biru). RL mewakili sempadan yang menarik di AI - di mana model dapat meneroka strategi di luar imaginasi manusia ketika kita melatihnya di pelbagai masalah dan mencabar masalah untuk memperbaiki strategi pemikirannya. rl asas recap

mari kita cepat rekap komponen utama persediaan RL biasa:

Bagaimana kerja LLM: Pembelajaran Penguatkuasaan, RLHF, DeepSeek R1, Openai O1, AlphaGo

ejen

- Bagaimana kerja LLM: Pembelajaran Penguatkuasaan, RLHF, DeepSeek R1, Openai O1, AlphaGo
    Pembuat keputusan atau keputusan. Ia mengamati keadaan semasa (
  • state ), memilih tindakan, dan kemudian mengemas kini tingkah lakunya berdasarkan hasil ( ganjaran ). Alam Sekitar - Sistem luaran di mana ejen beroperasi.
  • State
  • - Snapshot persekitaran pada langkah tertentu t .
  • Pada setiap cap waktu, ejen melakukan tindakan dalam persekitaran yang akan mengubah keadaan persekitaran menjadi yang baru. Ejen itu juga akan menerima maklum balas yang menunjukkan betapa baik atau buruk tindakan itu. maklum balas ini dipanggil A Ganjaran positif menggalakkan tingkah laku itu, dan ganjaran negatif tidak menggalakkannya.
Dengan menggunakan maklum balas dari keadaan dan tindakan yang berbeza, ejen secara beransur -ansur mempelajari strategi optimum untuk memaksimumkan jumlah ganjaran

dari masa ke masa. Dasar Dasar adalah strategi ejen. Jika ejen mengikuti dasar yang baik, ia secara konsisten akan membuat keputusan yang baik, yang membawa kepada ganjaran yang lebih tinggi dalam banyak langkah.

Dalam istilah matematik, ia adalah fungsi yang menentukan kebarangkalian output yang berlainan untuk keadaan tertentu -

(πθ (a | s))

.

Fungsi nilai

Anggaran betapa baiknya dalam keadaan tertentu, memandangkan ganjaran jangka panjang yang diharapkan. Untuk LLM, ganjaran mungkin datang dari maklum balas manusia atau model ganjaran.

Senibina pelakon-kritikal

ia adalah persediaan RL yang popular yang menggabungkan dua komponen:

  1. pelakon - belajar dan mengemas kini polisi (πθ), memutuskan tindakan yang akan diambil dalam setiap negeri.
  2. Critic - Menilai fungsi nilai (v (s)) untuk memberi maklum balas kepada pelakon sama ada tindakan yang dipilihnya membawa kepada hasil yang baik.

Bagaimana ia berfungsi:

    pelakon
  • memilih tindakan berdasarkan dasar semasa.
  • pengkritik
  • menilai hasilnya (ganjaran negeri seterusnya) dan mengemas kini anggaran nilainya.
  • Maklum balas pengkritik membantu pelakon memperbaiki dasarnya supaya tindakan masa depan membawa kepada ganjaran yang lebih tinggi.
meletakkan semuanya bersama -sama untuk llms

Negeri boleh menjadi teks semasa (prompt atau perbualan), dan tindakan itu boleh menjadi token seterusnya untuk menjana. Model ganjaran (contohnya maklum balas manusia), memberitahu model betapa baik atau buruknya teks yang dihasilkan.

Dasar ini adalah strategi model untuk memilih token seterusnya, sementara fungsi nilai menganggarkan bagaimana menguntungkan konteks teks semasa, dari segi akhirnya menghasilkan respons berkualiti tinggi.

DeepSeek-R1 (diterbitkan 22 Jan 2025)

Untuk menyerlahkan kepentingan RL, mari kita meneroka DeepSeek-R1, model pemikiran yang mencapai prestasi peringkat teratas sementara baki sumber terbuka. Kertas ini memperkenalkan dua model:

DeepSeek-R1-Zero dan DeepSeek-R1.

    DeepSeek-R1-Zero dilatih semata-mata melalui RL berskala besar, melangkaui penalaan yang diselia (SFT).
  • DeepSeek-R1 membina di atasnya, menangani cabaran yang dihadapi.
Bagaimana kerja LLM: Pembelajaran Penguatkuasaan, RLHF, DeepSeek R1, Openai O1, AlphaGo mari kita menyelam beberapa perkara utama ini.

1. RL Algo: Pengoptimuman Dasar Relatif Kumpulan (GRPO)

Satu permainan utama mengubah algoritma RL adalah pengoptimuman dasar relatif kumpulan (GRPO), varian pengoptimuman dasar proksimal yang popular (PPO). GRPO diperkenalkan dalam kertas DeepSeekmath pada Februari 2024.

mengapa grpo over ppo?

PPO berjuang dengan tugas penalaran kerana:

  1. Ketergantungan pada model pengkritik.
    PPO memerlukan model pengkritik yang berasingan, dengan berkesan menggandakan ingatan dan pengiraan.
    kos pengiraan yang tinggi sebagai saluran paip RL menuntut sumber yang besar untuk menilai dan mengoptimumkan respons.
  2. Penilaian Ganjaran Mutlak
  3. Apabila anda bergantung pada ganjaran mutlak-yang bermaksud terdapat satu standard atau metrik untuk menilai sama ada jawapannya adalah "baik" atau "buruk"-sukar untuk menangkap nuansa tugas terbuka yang pelbagai di seluruh domain penalaran yang berbeza.

Bagaimana GRPO menangani cabaran ini:

GRPO menghapuskan model pengkritik dengan menggunakan penilaian relatif

- tanggapan dibandingkan dalam kumpulan dan bukannya dinilai oleh standard tetap.

Bayangkan pelajar menyelesaikan masalah. Daripada seorang guru yang menggred mereka secara individu, mereka membandingkan jawapan, belajar dari satu sama lain. Dari masa ke masa, prestasi menumpu ke arah kualiti yang lebih tinggi.

bagaimana GRPO sesuai dengan proses latihan keseluruhan?

GRPO mengubah bagaimana kerugian dikira sambil mengekalkan langkah -langkah latihan lain yang tidak berubah:

Kumpulkan data (tindak balas pertanyaan)

  1. - untuk LLMS, pertanyaan seperti soalan - dasar lama (snapshot model yang lebih tua) menghasilkan beberapa jawapan calon untuk setiap pertanyaan
    Berikan ganjaran
    - Setiap tindak balas dalam kumpulan dijaringkan ("ganjaran").
  2. mengira kerugian GRPO
  3. secara tradisinya, anda akan mengira kehilangan - yang menunjukkan sisihan antara ramalan model dan label yang benar. lebih buruk? keturunan kecerunan kembali penyebaran

    Kemas kini dasar lama sekali -sekala untuk memadankan dasar baru . Ini menyegarkan garis dasar untuk perbandingan pusingan seterusnya.
    2. Rantaian Pemikiran (Cot)

    Latihan LLM tradisional mengikuti pra-latihan → SFT → RL. Walau bagaimanapun, DeepSeek-R1-Zero
    dilangkau sft
    , yang membolehkan model untuk meneroka penalaran COT secara langsung.
  4. Seperti manusia yang berfikir melalui soalan yang sukar, COT membolehkan model memecahkan masalah ke dalam langkah -langkah pertengahan, meningkatkan keupayaan penalaran yang kompleks. Model Openai O1 juga memanfaatkannya, seperti yang dinyatakan dalam laporan September 2024: Prestasi O1 bertambah dengan lebih banyak RL (pengiraan masa kereta api) dan lebih banyak masa alasan (pengiraan masa ujian). DeepSeek-R1-Zero mempamerkan kecenderungan reflektif, secara autonomi menyempurnakan penalarannya.

    Grafik utama (di bawah) dalam kertas menunjukkan peningkatan pemikiran semasa latihan, yang membawa kepada lebih lama (lebih banyak token), lebih terperinci dan lebih baik. Tanpa pengaturcaraan yang jelas, ia mula mengkaji semula langkah -langkah penalaran masa lalu, meningkatkan ketepatan. Ini menyoroti pemikiran rantaian yang dipikirkan sebagai harta yang muncul dalam latihan RL. Model ini juga mempunyai "momen aha" (di bawah) - contoh yang menarik tentang bagaimana RL boleh membawa kepada hasil yang tidak dijangka dan canggih.

    Bagaimana kerja LLM: Pembelajaran Penguatkuasaan, RLHF, DeepSeek R1, Openai O1, AlphaGo

    NOTA: Tidak seperti DeepSeek-R1, Openai tidak menunjukkan rantaian pemikiran penuh pemikiran yang tepat di O1 kerana mereka bimbang tentang risiko penyulingan-di mana seseorang masuk dan cuba meniru jejak penalaran itu dan memulihkan banyak prestasi penalaran dengan hanya meniru. Sebaliknya, O1 hanya ringkasan rantai pemikiran ini.

    pembelajaran tetulang dengan maklum balas manusia (RLHF)

    Bagaimana kerja LLM: Pembelajaran Penguatkuasaan, RLHF, DeepSeek R1, Openai O1, AlphaGo Untuk tugas dengan output yang dapat disahkan (mis., Masalah matematik, Q & A faktual), respons AI dapat dengan mudah dinilai. Tetapi bagaimana dengan bidang seperti ringkasan atau penulisan kreatif, di mana tidak ada jawapan "betul" tunggal?

    ini adalah di mana maklum balas manusia datang - tetapi pendekatan RL naif tidak dapat dilupakan.

    mari kita lihat pendekatan naif dengan beberapa nombor sewenang -wenangnya.

    itu satu bilion penilaian manusia yang diperlukan! Ini terlalu mahal, perlahan dan tidak dapat dilupakan. Oleh itu, penyelesaian yang lebih bijak adalah untuk melatih "model ganjaran" AI untuk mempelajari keutamaan manusia, secara dramatik mengurangkan usaha manusia. Bagaimana kerja LLM: Pembelajaran Penguatkuasaan, RLHF, DeepSeek R1, Openai O1, AlphaGo

    Bagaimana kerja LLM: Pembelajaran Penguatkuasaan, RLHF, DeepSeek R1, Openai O1, AlphaGo Responses ranking juga lebih mudah dan lebih intuitif daripada pemarkahan mutlak.

    Bagaimana kerja LLM: Pembelajaran Penguatkuasaan, RLHF, DeepSeek R1, Openai O1, AlphaGo

    Upsides of rlHf

  • boleh digunakan untuk mana-mana domain, termasuk penulisan kreatif, puisi, ringkasan, dan tugas terbuka yang lain.
  • output ranking lebih mudah bagi labeller manusia daripada menghasilkan output kreatif sendiri.

kelemahan rlhf

  • Model ganjaran adalah penghampiran - ia mungkin tidak mencerminkan keutamaan manusia dengan sempurna.
  • rl baik dalam permainan model ganjaran - jika berjalan terlalu lama, model mungkin mengeksploitasi kelemahan, menghasilkan output yang tidak masuk akal yang masih mendapat skor tinggi.

Perhatikan bahawa RLHF tidak sama dengan RL tradisional. Untuk empirikal, domain yang dapat disahkan (mis. Matematik, pengekodan), RL boleh berjalan selama -lamanya dan menemui strategi novel. RLHF, sebaliknya, lebih seperti langkah penalaan halus untuk menyelaraskan model dengan keutamaan manusia. Kesimpulan

Dan itulah bungkus! Saya harap anda menikmati bahagian 2? Sekiranya anda belum membaca Bahagian 1 - periksa di sini.

Ada soalan atau idea untuk apa yang harus saya sampaikan seterusnya? Jatuhkan mereka dalam komen - Saya suka mendengar pendapat anda. Jumpa anda dalam artikel seterusnya!

Atas ialah kandungan terperinci Bagaimana kerja LLM: Pembelajaran Penguatkuasaan, RLHF, DeepSeek R1, Openai O1, AlphaGo. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Saya cuba pengekodan getaran dengan kursor AI dan ia menakjubkan!Saya cuba pengekodan getaran dengan kursor AI dan ia menakjubkan!Mar 20, 2025 pm 03:34 PM

Pengekodan Vibe membentuk semula dunia pembangunan perisian dengan membiarkan kami membuat aplikasi menggunakan bahasa semulajadi dan bukannya kod yang tidak berkesudahan. Diilhamkan oleh penglihatan seperti Andrej Karpathy, pendekatan inovatif ini membolehkan Dev

Cara Menggunakan Dall-E 3: Contoh, Contoh, dan CiriCara Menggunakan Dall-E 3: Contoh, Contoh, dan CiriMar 09, 2025 pm 01:00 PM

Dall-E 3: Alat Penciptaan Imej AI Generatif AI Generatif merevolusi penciptaan kandungan, dan Dall-E 3, model penjanaan imej terbaru OpenAI, berada di barisan hadapan. Dikeluarkan pada bulan Oktober 2023, ia dibina pada pendahulunya, Dall-E dan Dall-E 2

Top 5 Genai dilancarkan pada Februari 2025: GPT-4.5, Grok-3 & More!Top 5 Genai dilancarkan pada Februari 2025: GPT-4.5, Grok-3 & More!Mar 22, 2025 am 10:58 AM

Februari 2025 telah menjadi satu lagi bulan yang berubah-ubah untuk AI generatif, membawa kita beberapa peningkatan model yang paling dinanti-nantikan dan ciri-ciri baru yang hebat. Dari Xai's Grok 3 dan Anthropic's Claude 3.7 Sonnet, ke Openai's G

Bagaimana cara menggunakan Yolo V12 untuk pengesanan objek?Bagaimana cara menggunakan Yolo V12 untuk pengesanan objek?Mar 22, 2025 am 11:07 AM

Yolo (anda hanya melihat sekali) telah menjadi kerangka pengesanan objek masa nyata yang terkemuka, dengan setiap lelaran bertambah baik pada versi sebelumnya. Versi terbaru Yolo V12 memperkenalkan kemajuan yang meningkatkan ketepatan

Sora vs Veo 2: Mana yang mencipta video yang lebih realistik?Sora vs Veo 2: Mana yang mencipta video yang lebih realistik?Mar 10, 2025 pm 12:22 PM

Google's Veo 2 dan Openai's Sora: Generator Video AI Mana yang memerintah Supreme? Kedua -dua platform menghasilkan video AI yang mengagumkan, tetapi kekuatan mereka terletak di kawasan yang berbeza. Perbandingan ini, menggunakan pelbagai arahan, mendedahkan alat yang paling sesuai dengan keperluan anda. T

Google ' s Gencast: Peramalan Cuaca dengan Demo Mini GencastGoogle ' s Gencast: Peramalan Cuaca dengan Demo Mini GencastMar 16, 2025 pm 01:46 PM

Google Deepmind's Gencast: AI Revolusioner untuk Peramalan Cuaca Peramalan cuaca telah menjalani transformasi dramatik, bergerak dari pemerhatian asas kepada ramalan berkuasa AI yang canggih. Google Deepmind's Gencast, tanah air

AI mana yang lebih baik daripada chatgpt?AI mana yang lebih baik daripada chatgpt?Mar 18, 2025 pm 06:05 PM

Artikel ini membincangkan model AI yang melampaui chatgpt, seperti Lamda, Llama, dan Grok, menonjolkan kelebihan mereka dalam ketepatan, pemahaman, dan kesan industri. (159 aksara)

Adakah chatgpt 4 o tersedia?Adakah chatgpt 4 o tersedia?Mar 28, 2025 pm 05:29 PM

CHATGPT 4 kini tersedia dan digunakan secara meluas, menunjukkan penambahbaikan yang ketara dalam memahami konteks dan menjana tindak balas yang koheren berbanding dengan pendahulunya seperti ChATGPT 3.5. Perkembangan masa depan mungkin merangkumi lebih banyak Inter yang diperibadikan

See all articles

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
3 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
3 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Cara Memperbaiki Audio Jika anda tidak dapat mendengar sesiapa
3 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

ZendStudio 13.5.1 Mac

ZendStudio 13.5.1 Mac

Persekitaran pembangunan bersepadu PHP yang berkuasa

Penyesuai Pelayan SAP NetWeaver untuk Eclipse

Penyesuai Pelayan SAP NetWeaver untuk Eclipse

Integrasikan Eclipse dengan pelayan aplikasi SAP NetWeaver.

mPDF

mPDF

mPDF ialah perpustakaan PHP yang boleh menjana fail PDF daripada HTML yang dikodkan UTF-8. Pengarang asal, Ian Back, menulis mPDF untuk mengeluarkan fail PDF "dengan cepat" dari tapak webnya dan mengendalikan bahasa yang berbeza. Ia lebih perlahan dan menghasilkan fail yang lebih besar apabila menggunakan fon Unicode daripada skrip asal seperti HTML2FPDF, tetapi menyokong gaya CSS dsb. dan mempunyai banyak peningkatan. Menyokong hampir semua bahasa, termasuk RTL (Arab dan Ibrani) dan CJK (Cina, Jepun dan Korea). Menyokong elemen peringkat blok bersarang (seperti P, DIV),

SecLists

SecLists

SecLists ialah rakan penguji keselamatan muktamad. Ia ialah koleksi pelbagai jenis senarai yang kerap digunakan semasa penilaian keselamatan, semuanya di satu tempat. SecLists membantu menjadikan ujian keselamatan lebih cekap dan produktif dengan menyediakan semua senarai yang mungkin diperlukan oleh penguji keselamatan dengan mudah. Jenis senarai termasuk nama pengguna, kata laluan, URL, muatan kabur, corak data sensitif, cangkerang web dan banyak lagi. Penguji hanya boleh menarik repositori ini ke mesin ujian baharu dan dia akan mempunyai akses kepada setiap jenis senarai yang dia perlukan.