cari
RumahPeranti teknologiAIPenyulingan juga boleh Langkah demi Langkah: kaedah baharu membolehkan model kecil setanding dengan model besar 2000 kali lebih besar

Walaupun model bahasa berskala besar mempunyai keupayaan yang menakjubkan, disebabkan skala besarnya, kos yang diperlukan untuk penggunaannya selalunya besar. Universiti Washington, bersama-sama dengan Institut Penyelidikan Kepintaran Buatan Pengkomputeran Awan Google dan Penyelidikan Google, terus menyelesaikan masalah ini dan mencadangkan paradigma Penyulingan Langkah demi Langkah untuk membantu latihan model. Berbanding dengan LLM, kaedah ini lebih berkesan dalam melatih model kecil dan mengaplikasikannya pada tugasan tertentu, dan memerlukan kurang data latihan berbanding penalaan halus dan penyulingan tradisional. Pada tugasan penanda aras, model 770M T5 mereka mengatasi model PaLM 540B. Hebatnya, model mereka hanya menggunakan 80% daripada data yang tersedia.

Penyulingan juga boleh Langkah demi Langkah: kaedah baharu membolehkan model kecil setanding dengan model besar 2000 kali lebih besar

Walaupun Model Bahasa Besar (LLM) telah menunjukkan pembelajaran Sedikit pukulan yang mengagumkan keupayaan, tetapi sukar untuk menggunakan model berskala besar sedemikian dalam aplikasi sebenar. Infrastruktur khusus yang menyediakan skala parameter 175 bilion LLM memerlukan sekurang-kurangnya 350GB memori GPU. Apatah lagi, LLM tercanggih hari ini terdiri daripada lebih daripada 500 bilion parameter, yang bermaksud ia memerlukan lebih banyak memori dan sumber pengkomputeran. Keperluan pengkomputeran sedemikian tidak dapat dicapai oleh kebanyakan pengeluar, apatah lagi aplikasi yang memerlukan kependaman rendah.

Untuk menyelesaikan masalah model besar ini, penyebar sering menggunakan model khusus yang lebih kecil. Model yang lebih kecil ini dilatih menggunakan paradigma biasa - penalaan halus atau penyulingan. Penalaan halus meningkatkan model kecil pra-latihan menggunakan data anotasi manusia hiliran. Penyulingan melatih model yang lebih kecil menggunakan label yang dihasilkan oleh LLM yang lebih besar. Malangnya, paradigma ini memerlukan kos sambil mengurangkan saiz model: untuk mencapai prestasi yang setanding dengan LLM, penalaan halus memerlukan label manusia yang mahal, manakala penyulingan memerlukan sejumlah besar data tidak berlabel yang sukar diperoleh.

Dalam kertas kerja bertajuk "Menyuling Langkah demi Langkah! Mengungguli Model Bahasa yang Lebih Besar dengan Kurang Data Latihan dan Saiz Model yang Lebih Kecil", penyelidik dari University of Washington dan Google Mekanisme mudah baharu , Penyulingan langkah demi langkah, diperkenalkan untuk melatih model yang lebih kecil menggunakan kurang data latihan. Mekanisme ini mengurangkan jumlah data latihan yang diperlukan untuk memperhalusi dan menyaring LLM, menghasilkan saiz model yang lebih kecil.

Penyulingan juga boleh Langkah demi Langkah: kaedah baharu membolehkan model kecil setanding dengan model besar 2000 kali lebih besar

Pautan kertas: https://arxiv.org/pdf/2305.02301 v1.pdf

Inti mekanisme ini adalah untuk mengubah perspektif dan menganggap LLM sebagai agen yang boleh membuat alasan, bukannya sebagai sumber label bunyi. LLM boleh menjana rasional bahasa semula jadi yang boleh digunakan untuk menerangkan dan menyokong label yang diramalkan oleh model. Sebagai contoh, apabila ditanya "Seorang lelaki membawa peralatan golf, apakah yang mungkin dia miliki? (a) kelab, (b) auditorium, (c) pusat meditasi, (d) persidangan, (e) gereja" , LLM boleh menjawab "(a ) club" melalui penaakulan rantaian pemikiran (CoT), dan rasionalkan label ini dengan menjelaskan bahawa "jawapannya mestilah sesuatu yang digunakan untuk bermain golf." Daripada pilihan di atas, hanya kelab yang digunakan untuk golf. Kami menggunakan justifikasi ini sebagai maklumat tambahan yang lebih kaya untuk melatih model yang lebih kecil dalam tetapan latihan berbilang tugas dan melaksanakan ramalan label dan ramalan justifikasi.

Seperti yang ditunjukkan dalam Rajah 1, penyulingan berperingkat boleh mempelajari model kecil khusus tugas dengan kurang daripada 1/500 bilangan parameter LLM. Penyulingan berperingkat juga menggunakan contoh latihan yang jauh lebih sedikit daripada penalaan halus atau penyulingan tradisional.

Penyulingan juga boleh Langkah demi Langkah: kaedah baharu membolehkan model kecil setanding dengan model besar 2000 kali lebih besar

Keputusan eksperimen menunjukkan bahawa antara 4 penanda aras NLP, terdapat tiga eksperimen yang menjanjikan dalam kesimpulan.

  • Pertama, berbanding dengan penalaan halus dan penyulingan, model penyulingan berperingkat mencapai prestasi yang lebih baik pada setiap set data, mengurangkan bilangan kejadian latihan lebih daripada 50% secara purata (sehingga lebih daripada 85 %) .
  • Kedua, model kami mengatasi prestasi LLM apabila saiz model lebih kecil (sehingga 2000 kali lebih kecil), sekali gus mengurangkan kos pengiraan yang diperlukan untuk penggunaan model .
  • Ketiga, penyelidikan ini mengurangkan saiz model sambil juga mengurangkan jumlah data yang diperlukan untuk mengatasi LLM. Para penyelidik mengatasi prestasi LLM dengan parameter 540B menggunakan model T5 770M. Model yang lebih kecil ini hanya menggunakan 80% daripada set data berlabel kaedah penalaan halus sedia ada.

Apabila hanya terdapat data tidak berlabel, prestasi model kecil masih sama baiknya dengan LLM - hanya menggunakan model 11B T5 melebihi Prestasi PaLM sebanyak 540B telah diperbaiki.

Kajian selanjutnya menunjukkan bahawa apabila model yang lebih kecil berprestasi lebih buruk daripada LLM, penyulingan secara berperingkat boleh menggunakan data tidak berlabel tambahan dengan lebih berkesan daripada kaedah penyulingan standard. Jadikan model yang lebih kecil setanding dengan prestasi LLM.

Penyulingan berperingkat

Para penyelidik mencadangkan paradigma baharu penyulingan berperingkat, yang menggunakan keupayaan penaakulan LLM untuk ramalannya untuk melatih model yang lebih kecil dengan cara yang cekap data . Rangka kerja keseluruhan ditunjukkan dalam Rajah 2.

Penyulingan juga boleh Langkah demi Langkah: kaedah baharu membolehkan model kecil setanding dengan model besar 2000 kali lebih besar

Paradigma mempunyai dua langkah mudah: pertama, diberi LLM dan data An tidak berlabel set menggesa LLM untuk menjana label output dan justifikasi untuk label. Rasional dijelaskan dalam bahasa semula jadi dan menyediakan sokongan untuk label yang diramalkan oleh model (lihat Rajah 2). Justifikasi ialah sifat tingkah laku yang muncul bagi LLM penyeliaan sendiri semasa.

Kemudian, sebagai tambahan kepada label tugas, gunakan sebab ini untuk melatih model hiliran yang lebih kecil. Secara terang-terangan, sebab boleh memberikan maklumat yang lebih kaya dan lebih terperinci untuk menerangkan sebab input dipetakan ke label output tertentu.

Hasil eksperimen

Para penyelidik mengesahkan keberkesanan penyulingan berperingkat dalam eksperimen. Pertama, berbanding kaedah penalaan halus dan penyulingan tugasan standard, penyulingan berperingkat membantu mencapai prestasi yang lebih baik dengan bilangan contoh latihan yang jauh lebih kecil, meningkatkan kecekapan data dengan ketara untuk mempelajari model khusus tugasan kecil.

Penyulingan juga boleh Langkah demi Langkah: kaedah baharu membolehkan model kecil setanding dengan model besar 2000 kali lebih besar

Penyulingan juga boleh Langkah demi Langkah: kaedah baharu membolehkan model kecil setanding dengan model besar 2000 kali lebih besar

Kedua, Kajian menunjukkan bahawa kaedah penyulingan berperingkat melebihi prestasi LLM dengan saiz model yang lebih kecil, dengan ketara mengurangkan kos penggunaan berbanding llm.

Penyulingan juga boleh Langkah demi Langkah: kaedah baharu membolehkan model kecil setanding dengan model besar 2000 kali lebih besar

Penyulingan juga boleh Langkah demi Langkah: kaedah baharu membolehkan model kecil setanding dengan model besar 2000 kali lebih besar

Akhir sekali, penyelidik menyiasat sumber minimum yang diperlukan oleh kaedah penyulingan berperingkat dari segi prestasi melebihi LLM, termasuk bilangan contoh latihan dan saiz model. Mereka menunjukkan bahawa pendekatan penyulingan berperingkat meningkatkan kecekapan data dan kecekapan penggunaan dengan menggunakan kurang data dan model yang lebih kecil.

Penyulingan juga boleh Langkah demi Langkah: kaedah baharu membolehkan model kecil setanding dengan model besar 2000 kali lebih besar

Penyulingan juga boleh Langkah demi Langkah: kaedah baharu membolehkan model kecil setanding dengan model besar 2000 kali lebih besar

Atas ialah kandungan terperinci Penyulingan juga boleh Langkah demi Langkah: kaedah baharu membolehkan model kecil setanding dengan model besar 2000 kali lebih besar. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan
Artikel ini dikembalikan pada:51CTO.COM. Jika ada pelanggaran, sila hubungi admin@php.cn Padam
Cara Membina Pembantu AI Peribadi Anda Dengan Huggingface SmollmCara Membina Pembantu AI Peribadi Anda Dengan Huggingface SmollmApr 18, 2025 am 11:52 AM

Memanfaatkan kuasa AI di peranti: Membina CLI Chatbot Peribadi Pada masa lalu, konsep pembantu AI peribadi kelihatan seperti fiksyen sains. Bayangkan Alex, seorang peminat teknologi, bermimpi seorang sahabat AI yang pintar, yang tidak bergantung

AI untuk Kesihatan Mental dianalisis dengan penuh perhatian melalui inisiatif baru yang menarik di Stanford UniversityAI untuk Kesihatan Mental dianalisis dengan penuh perhatian melalui inisiatif baru yang menarik di Stanford UniversityApr 18, 2025 am 11:49 AM

Pelancaran AI4MH mereka berlaku pada 15 April, 2025, dan Luminary Dr. Tom Insel, M.D., pakar psikiatri yang terkenal dan pakar neurosains, berkhidmat sebagai penceramah kick-off. Dr. Insel terkenal dengan kerja cemerlangnya dalam penyelidikan kesihatan mental dan techno

Kelas Draf WNBA 2025 memasuki liga yang semakin meningkat dan melawan gangguan dalam talianKelas Draf WNBA 2025 memasuki liga yang semakin meningkat dan melawan gangguan dalam talianApr 18, 2025 am 11:44 AM

"Kami mahu memastikan bahawa WNBA kekal sebagai ruang di mana semua orang, pemain, peminat dan rakan kongsi korporat, berasa selamat, dihargai dan diberi kuasa," kata Engelbert, menangani apa yang telah menjadi salah satu cabaran sukan wanita yang paling merosakkan. Anno

Panduan Komprehensif untuk Struktur Data Terbina Python - Analytics VidhyaPanduan Komprehensif untuk Struktur Data Terbina Python - Analytics VidhyaApr 18, 2025 am 11:43 AM

Pengenalan Python cemerlang sebagai bahasa pengaturcaraan, terutamanya dalam sains data dan AI generatif. Manipulasi data yang cekap (penyimpanan, pengurusan, dan akses) adalah penting apabila berurusan dengan dataset yang besar. Kami pernah meliputi nombor dan st

Tayangan pertama dari model baru Openai berbanding dengan alternatifTayangan pertama dari model baru Openai berbanding dengan alternatifApr 18, 2025 am 11:41 AM

Sebelum menyelam, kaveat penting: Prestasi AI adalah spesifik yang tidak ditentukan dan sangat digunakan. Dalam istilah yang lebih mudah, perbatuan anda mungkin berbeza -beza. Jangan ambil artikel ini (atau lain -lain) sebagai perkataan akhir -sebaliknya, uji model ini pada senario anda sendiri

AI Portfolio | Bagaimana untuk membina portfolio untuk kerjaya AI?AI Portfolio | Bagaimana untuk membina portfolio untuk kerjaya AI?Apr 18, 2025 am 11:40 AM

Membina portfolio AI/ML yang menonjol: Panduan untuk Pemula dan Profesional Mewujudkan portfolio yang menarik adalah penting untuk mendapatkan peranan dalam kecerdasan buatan (AI) dan pembelajaran mesin (ML). Panduan ini memberi nasihat untuk membina portfolio

AI AI apa yang boleh dimaksudkan untuk operasi keselamatanAI AI apa yang boleh dimaksudkan untuk operasi keselamatanApr 18, 2025 am 11:36 AM

Hasilnya? Pembakaran, ketidakcekapan, dan jurang yang melebar antara pengesanan dan tindakan. Tak satu pun dari ini harus datang sebagai kejutan kepada sesiapa yang bekerja dalam keselamatan siber. Janji Agentic AI telah muncul sebagai titik perubahan yang berpotensi. Kelas baru ini

Google Versus Openai: AI berjuang untuk pelajarGoogle Versus Openai: AI berjuang untuk pelajarApr 18, 2025 am 11:31 AM

Impak segera berbanding perkongsian jangka panjang? Dua minggu yang lalu Openai melangkah ke hadapan dengan tawaran jangka pendek yang kuat, memberikan akses kepada pelajar A.S. dan Kanada.

See all articles

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
1 bulan yang laluBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
1 bulan yang laluBy尊渡假赌尊渡假赌尊渡假赌
Akan R.E.P.O. Ada Crossplay?
1 bulan yang laluBy尊渡假赌尊渡假赌尊渡假赌

Alat panas

MinGW - GNU Minimalis untuk Windows

MinGW - GNU Minimalis untuk Windows

Projek ini dalam proses untuk dipindahkan ke osdn.net/projects/mingw, anda boleh terus mengikuti kami di sana. MinGW: Port Windows asli bagi GNU Compiler Collection (GCC), perpustakaan import yang boleh diedarkan secara bebas dan fail pengepala untuk membina aplikasi Windows asli termasuk sambungan kepada masa jalan MSVC untuk menyokong fungsi C99. Semua perisian MinGW boleh dijalankan pada platform Windows 64-bit.

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

Versi Mac WebStorm

Versi Mac WebStorm

Alat pembangunan JavaScript yang berguna

ZendStudio 13.5.1 Mac

ZendStudio 13.5.1 Mac

Persekitaran pembangunan bersepadu PHP yang berkuasa

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma