Rumah >Peranti teknologi >AI >Kursus model bahasa yang besar

Kursus model bahasa yang besar

WBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWB
WBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBasal
2025-02-25 19:45:15674semak imbas

Kursus komprehensif ini meneroka model bahasa yang besar (LLMS), menawarkan dua laluan pembelajaran yang berbeza: trek saintis LLM untuk membina LLM yang optimum, dan trek jurutera LLM untuk membangun dan menggunakan aplikasi berasaskan LLM. Versi interaktif boleh didapati melalui HuggingChat (disyorkan) atau chatgpt.

LLM Scientist Track: Laluan ini memberi tumpuan kepada menguasai pembinaan LLM menggunakan teknik canggih.

The Large Language Model Course

1. LLM Architecture: Walaupun pengetahuan seni bina pengubah yang mendalam tidak wajib, pemahaman proses teras adalah penting: penukaran teks-ke-nombor (tokenisasi), pemprosesan token melalui mekanisme perhatian, dan penjanaan teks melalui pelbagai strategi pensampelan. Bidang utama termasuk memahami evolusi seni bina, strategi tokenisasi, mekanisme perhatian (perhatian diri dan varian), dan teknik pensampelan penjanaan teks.

2. Model Pra-Latihan: Walaupun komputasi intensif, menggenggam pra-latihan adalah penting. Ini melibatkan penyediaan data (curation, pembersihan, deduplikasi), latihan yang diedarkan (data, saluran paip, dan paralelisme tensor), pengoptimuman latihan (kadar pembelajaran adaptif, keratan kecerunan), dan pemantauan metrik yang teliti.

3. Dataset pasca latihan:

Dataset selepas latihan, berstruktur dengan arahan dan jawapan (diselia dengan baik) atau pasangan keutamaan (penjajaran keutamaan), adalah penting. Bahagian ini meliputi format penyimpanan, penjanaan data sintetik, teknik peningkatan data, dan kaedah penapisan kualiti yang mantap.

4. Penalaan halus (SFT) yang diselia:

SFT mengubah model asas menjadi pembantu yang berguna. Ini melibatkan pemahaman teknik latihan (kaedah penalaan penuh berbanding kaedah yang cekap parameter seperti LORA dan QLORA), parameter latihan utama, strategi latihan yang diedarkan, dan teknik pemantauan yang berkesan. 5. Penjajaran keutamaan:

Tahap ini menjajarkan output model dengan keutamaan manusia, mengurangkan ketoksikan dan halusinasi. Ia memberi tumpuan kepada pensampelan penolakan, pengoptimuman keutamaan langsung (DPO), pengoptimuman dasar proksimal (PPO), dan pemantauan prestasi.

6. Penilaian:

Penilaian LLM yang boleh dipercayai adalah penting. Bahagian ini meneroka tanda aras automatik, penilaian manusia, penilaian berasaskan model, dan kepentingan menganalisis isyarat maklum balas untuk meningkatkan prestasi model.

7. Kuantisasi:

Bahagian ini menyelidiki teknik untuk mengurangkan kos pengiraan dan memori LLMs melalui parameter dan pengaktifan pengaktifan, yang meliputi pelbagai tahap ketepatan, alat seperti llama.cpp dan gguf, dan teknik canggih seperti GPTQ, AWQ, Smoothquant, dan Zeroquant .

8. Trend yang muncul: Bahagian ini meneroka topik lanjutan seperti penggabungan model, model multimodal, teknik interpretasi (termasuk abliteration), dan pengiraan masa ujian.

LLM Track Engineer: Laluan ini memberi tumpuan kepada membina aplikasi LLM yang siap pengeluaran, menekankan model pembesaran dan penempatan.

The Large Language Model Course

1. Running LLMS:

Bahagian ini meliputi Running LLMS melalui API (kedua-dua swasta dan sumber terbuka), menggunakan LLM sumber terbuka dari hab muka yang memeluk, menguasai teknik kejuruteraan segera, dan penstrukturan output untuk aplikasi tertentu.

2. Membina Penyimpanan Vektor:

Butiran bahagian ini mewujudkan penyimpanan vektor untuk pengambilan semula penjanaan semula (RAG), termasuk pengambilan dokumen, pemisahan, model embedding, dan pangkalan data vektor.

3. Pengambilan Generasi Tambahan (RAG):

Bahagian ini menerangkan cara membina saluran paip RAG, memberi tumpuan kepada orkestrator, pengambilan, pengurusan memori, dan metrik penilaian.

4. Lanjutan RAG:

Bahagian ini meliputi teknik kain lanjutan seperti pembinaan pertanyaan untuk pangkalan data berstruktur, sistem berasaskan ejen, kaedah pasca pemprosesan, dan pengoptimuman LLM programatik menggunakan rangka kerja seperti DSPY.

5. Pengoptimuman Inferensi:

Bahagian ini meneroka teknik untuk mengoptimumkan kesimpulan LLM, termasuk perhatian kilat, caching nilai utama, dan penyahkodan spekulatif.

6. Menggunakan LLMS:

Bahagian ini meliputi pilihan penempatan tempatan, mewujudkan demo menggunakan rangka kerja seperti Vadio dan Streamlit, strategi penyebaran sisi pelayan, dan penempatan kelebihan untuk persekitaran yang terkawal.

7. Mengamankan LLMS:

Bahagian ini menangani cabaran keselamatan yang unik yang ditimbulkan oleh LLM, termasuk hacking, backdoors, dan langkah pertahanan yang cepat. Kesimpulan:

Kursus ini menggalakkan pembelajaran dan penerokaan secara langsung, mencadangkan percubaan dengan pelbagai alat dan teknik untuk membangunkan kepakaran di kawasan yang dipilih dalam landskap LLM yang luas.

Atas ialah kandungan terperinci Kursus model bahasa yang besar. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn