Model Bahasa Besar Fine-Tuning (LLMS) adalah teknik penting untuk menyesuaikan LLM untuk keperluan khusus, seperti mengamalkan gaya penulisan tertentu atau memberi tumpuan kepada domain tertentu. Openai dan Google AI Studio adalah dua platform utama yang menawarkan alat untuk tujuan ini, masing -masing dengan ciri -ciri dan aliran kerja yang berbeza. Dalam artikel ini, kami akan mengkaji bagaimana platform ini dilakukan dalam tugas-tugas penalaan, menggunakan artikel saya yang telah ditulis sebelum ini sebagai data latihan. Kami akan menilai keupayaan Platform OpenAI dan Google AI Studio untuk menyempurnakan LLM untuk menghasilkan kandungan yang mencerminkan gaya penulisan saya.
Jadual Kandungan
- Platform Terbuka
- Penyediaan data
- Pelaksanaan kod
- Penalaan halus di platform terbuka
- Google AI Studio
- Muat naik data
- Penalaan halus di AI Studio
- Soalan yang sering ditanya
Platform Terbuka
Platform OpenAI menawarkan penyelesaian yang komprehensif untuk model penalaan halus, membolehkan pengguna menyesuaikan dan mengoptimumkannya untuk tugas-tugas tertentu. Platform ini menyokong pelbagai model, termasuk GPT-4O dan GPT-4O-Mini. OpenAI juga menyediakan panduan untuk penyediaan data, latihan model, dan penilaian. Dengan memanfaatkan platform OpenAI, pengguna dapat meningkatkan prestasi model dalam domain tertentu. Ini menjadikan mereka lebih berkesan dan cekap untuk aplikasi yang disasarkan.
Kos penalaan halus adalah seperti berikut:
Model | Harga |
---|---|
GPT-4O-2024-08-06 | Token input $ 3.750 / 1m Token output $ 15.000 / 1m Token latihan $ 25.000 / 1m |
GPT-4O-MINI-2024-07-18 | Token input $ 0.300 / 1m Token output $ 1.200 / 1m Token latihan $ 3.000 / 1m |
Kos kesimpulan untuk model halus adalah dua kali ganda daripada model yang sedia ada.
Penyediaan data
LLMS memerlukan data dalam format khusus untuk penalaan halus. Berikut adalah format contoh untuk model GPT-4O dan GPT-4O-MINI.
{"Mesej": [{"Peranan": "Sistem", "Kandungan": "Marv adalah chatbot faktual yang juga sarkastik."}, {"Role": "User", "Content": "Apa Capital of France?"}, {"Role": "Pembantu"
Apabila kita menyesuaikan model, ia akan belajar untuk menghasilkan respons yang serupa dengan pembantu kandungan peranan untuk kandungan peranan pengguna yang diberikan.
Oleh kerana kami mahu model menghasilkan kandungan yang serupa dengan kami, kami harus menggunakan kandungan kami sebagai ganti kandungan pembantu.
Mari kita pertimbangkan kandungan ini dari salah satu artikel saya:
"Jadi, bukannya melintasi semua nod menggunakan graf menggunakan HNSW, kami menyetempatkan ruang carian menggunakan pokok titik dinamik dalam algoritma ini.
Gabungan ini menggunakan kedua -dua pokok dan graf menjadikannya salah satu algoritma terpantas dan paling tepat. "
Oleh kerana kita mahu LLM menjana kandungan seperti yang di atas, ia harus ditambah sebagai pembantu kandungan seperti ini:
{"Peranan": "Pembantu", "Kandungan": "Jadi, bukannya melintasi semua nod menggunakan graf menggunakan HNSW, kami menyetempatkan ruang carian menggunakan pokok titik dinamik dalam algoritma ini.
Gabungan ini menggunakan kedua -dua pokok dan graf menjadikannya salah satu algoritma terpantas dan paling tepat. "}
Bagi LLM untuk menjana kandungan seperti ini, ia memerlukan kandungan pengguna (iaitu prompt). Seperti yang kita tidak memilikinya, kita boleh menjana kandungan pengguna menggunakan LLM. Kandungan pengguna boleh seperti berikut:
{"Peranan": "Pengguna", "Kandungan": "Bolehkah anda menerangkan bagaimana gabungan pokok -pokok sudut dinamik dan grafik kecil yang dilayari hierarki (HNSW) meningkatkan kecekapan dan ketepatan carian dalam algoritma?"}
Kami juga memasukkan sistem yang sesuai untuk meminta contoh untuk penalaan halus kami akan menjadi seperti berikut
{"Mesej": [{"Peranan": "Sistem", "Kandungan": "Anda adalah pembantu yang menulis dengan gaya yang jelas, bermaklumat, dan menarik."}, {"Peranan": "Pengguna", "Kandungan" "Pembantu", "Kandungan": "Jadi, bukannya melintasi semua nod menggunakan graf menggunakan HNSW, kami melokalisasikan ruang carian menggunakan pokok titik dinamik dalam algoritma ini.
Jika kita menggunakan saiz kandungan yang kecil, mungkin model mungkin terlepas konteksnya. Kita perlu ingat ini semasa penyediaan data. Saya hanya menggunakan 38 contoh di sini, tetapi 100 hingga 500 akan lebih baik. Saya telah membuat fail 'kandungan saya.csv' di mana setiap baris mempunyai kandungan yang ditulis oleh saya di bawah nama lajur 'kandungan'.
Sekarang mari kita melalui kod untuk membuat data yang diperlukan dalam format yang betul.
Pelaksanaan kod
OpenAI Versi 1.57.0 digunakan di sini.
1. Import perpustakaan.
dari dotenv import load_dotenv LOAD_DOTENV ('/. env') Import Pandas sebagai PD import tiktoken dari OpenAI Oped Openai
# Inisialisasi Pelanggan Terbuka pelanggan = openai ()
2. Semak saiz token.
df = pd.read_csv ('kandungan saya.csv') pengekodan = tiktoken.get_encoding ('o200k_base') total_token_count = 0 untuk saya di df ['kandungan']: token_count = len (encoding.encode (i)) total_token_count = token_count
Mengira token akan membantu kami untuk menganggarkan kos penalaan halus.
3. Menjana kandungan pengguna untuk LLM .
def Generate_USER_Content (Assistant_Response): # System_Message = {"Role": "System", "Content": "Anda adalah pembantu yang membantu. Tugas anda adalah untuk menjana pertanyaan pengguna berdasarkan respons pembantu."} System_message = {"Role": "System", "Content": "" Memandangkan Respons Pembantu, Buat Pertanyaan Pengguna atau pernyataan yang secara logik akan membawa kepada respons itu. Kandungan pengguna boleh dalam bentuk soalan atau permintaan untuk penjelasan yang mendorong pembantu memberikan jawapan yang disediakan "" "} pembantu_message = {"peranan": "pembantu", "kandungan": pembantu_response} Mesej = [System_Message, Assistant_Message] response = client.chat.completions.create ( mesej = mesej, Model = "GPT-4O-Mini", suhu = 1 ) user_content = response.choices [0] .message.content kembali user_content
Seperti yang dapat kita lihat, saya telah menyediakan kandungan yang saya tulis sebagai pembantu kandungan dan meminta LLM untuk menjana kandungan pengguna.
user_contents = [] untuk saya di df ['kandungan']: user_content = Generate_user_content (i) user_contents.append (user_content) df ['user_content'] = user_contents
Kami boleh menambah kandungan pengguna yang dihasilkan ke data data sebagai lajur. Data akan kelihatan seperti ini:
Di sini, kandungan ditulis oleh saya dan user_content dihasilkan oleh LLM untuk digunakan sebagai kandungan peranan pengguna (prompt) semasa penalaan halus.
Kami boleh menyimpan fail sekarang.
df.to_csv ('user_content.csv', index = false)
4. Buat fail JSONL.
Sekarang kita boleh menggunakan fail CSV di atas untuk membuat fail JSONL seperti yang diperlukan untuk penalaan halus.
mesej = pd.read_csv ('user_content.csv') Mesej.enae (lajur = {'kandungan': 'Assistant_Content'}, Inplace = true) dengan terbuka ('mesej_dataset.jsonl', 'w', encoding = 'utf-8') sebagai jsonl_file: untuk _, baris dalam mesej.iterrows (): user_content = row ['user_content'] pembantu_content = row ['Assistant_Content'] jsonl_entry = { "Mesej": [ {"Peranan": "Sistem", "Kandungan": "Anda adalah pembantu yang menulis dengan gaya yang jelas, bermaklumat, dan menarik."}, {"peranan": "pengguna", "kandungan": user_content}, {"peranan": "pembantu", "kandungan": pembantu_content}] } jsonl_file.write (json.dumps (jsonl_entry) '\ n')
Seperti yang ditunjukkan di atas, kita boleh meleleh melalui DataFrame untuk membuat fail JSONL.
Penalaan halus di platform terbuka
Sekarang, kita boleh menggunakan 'mesej_dataset.jsonl' untuk menyempurnakan llms terbuka.
Pergi ke laman web dan log masuk jika tidak log masuk.
Sekiranya tidak ada pekerjaan penalaan yang baik, antara muka akan menjadi seperti berikut:
Kita boleh mengklik pada 'Ketahui lebih lanjut' untuk mempelajari semua butiran yang diperlukan untuk penalaan halus, termasuk parameter hyper yang boleh disesuaikan.
Sekarang mari kita pelajari bagaimana untuk menyempurnakan model di platform terbuka.
- Klik pada 'Buat'. Tingkap kecil akan dibuka.
- Pilih kaedah sebagai 'diselia'
- Pilih model asas sama ada 'GPT-4O' atau 'GPT-4O-MINI'. Saya mendapat kesilapan semasa menggunakan GPT-4O-Mini jadi saya telah menggunakan GPT-4O.
- Muat naik fail JSONL.
- Tambahkan 'akhiran' yang berkaitan dengan pekerjaan penalaan halus
- Gunakan mana -mana nombor sebagai 'benih' untuk reproducibility.
- Pilih parameter hyper dan biarkan mereka menggunakan nilai lalai. Rujuk kepada dokumentasi yang disebutkan di atas untuk garis panduan memilihnya.
Sekarang, kita boleh mengklik 'Buat' untuk memulakan penalaan halus.
Setelah penalaan halus selesai, ia akan dipaparkan seperti berikut:
Kami boleh membandingkan model yang disesuaikan dengan respons model yang sedia ada di taman permainan dengan mengklik butang di sudut bawah bawah.
Berikut adalah contoh respons yang membandingkan kedua -dua model:
Seperti yang dapat kita lihat, terdapat perbezaan yang signifikan antara respons kedua -dua model.
Jika kita menggunakan lebih banyak contoh, maka hasilnya dapat bertambah baik.
Sekarang mari kita pelajari mengenai Google AI Studio.
Google AI Studio
Google AI Studio adalah alat berasaskan web untuk membina aplikasi menggunakan Gemini LLMS. Ia juga membolehkan pengguna menyempurnakan LLMS menggunakan data mereka sendiri. Penyesuaian ini meningkatkan prestasi model untuk tugas atau industri tertentu, menjadikannya lebih relevan dan berkesan. Ciri penalaan halus untuk model Gemini baru dilancarkan dan kini tersedia untuk Gemini 1.5 Flash sahaja. Penalaan adalah percuma pada Januari 2025 dan kos kesimpulan adalah sama dengan model yang sedia ada.
Ketahui lebih lanjut: Google's AI Studio: Gateway Anda ke Alam Semesta Kreatif Gemini!
Muat naik data
Untuk model Gemini, format data harus seperti berikut:
latihan_data = [<br><br> {"text_input": "1", "output": "2"},<br><br> {"text_input": "3", "output": "4"},]
Google AI Studio menyediakan GUI (antara muka pengguna grafik) untuk memuat naik data dari fail CSV. Untuk melakukan ini:
- Buka https://aistudio.google.com/prompts/new_data
- Klik pada 'Tindakan', kemudian 'Contoh Import'.
- Kemudian muat naik fail CSV. Skrin akan kelihatan seperti ini:
- Tetapkan user_content sebagai lajur input dan kandungan sebagai lajur output.
- Kemudian, import contoh. Kami boleh memadam mana-mana lajur yang tidak perlu dan kemudian simpan data menggunakan butang 'Simpan' di sudut kanan atas.
Penalaan halus di AI Studio
Untuk menapis model, pergi ke https://aistudio.google.com/tune.
Skrin akan kelihatan seperti ini:
Sekarang, ikuti langkah -langkah di bawah:
- Pilih data yang diimport dari menu dropdown.
- Beri nama model yang ditala.
- Untuk mengetahui lebih lanjut mengenai tetapan lanjutan, rujuk https://ai.google.dev/gemini-api/docs/model-tuning.
- Setelah selesai, klik pada 'Tune'.
Anda boleh menemui model yang ditala di 'perpustakaan' seperti berikut:
Kami juga boleh menggunakan model dalam sembang seperti yang ditunjukkan dalam imej di atas.
Kesimpulan
Model bahasa yang besar menggunakan platform OpenAI dan Google AI Studio membolehkan pengguna menyesuaikan model untuk keperluan khusus. Ini boleh menjadikan LLM mengamalkan gaya penulisan yang unik atau meningkatkan prestasi khusus domainnya. Kedua -dua platform menyediakan aliran kerja intuitif untuk penyediaan data dan latihan, menyokong format berstruktur untuk mengoptimumkan tingkah laku model. Dengan alat yang boleh diakses dan dokumentasi yang jelas, mereka memberi kuasa kepada pengguna untuk membuka potensi penuh LLM dengan menyelaraskan mereka dengan tugas dan objektif yang dikehendaki.
Soalan yang sering ditanya
Q1. Apakah penalaan dalam konteks model bahasa besar (LLMS)?A. Penalaan halus adalah proses latihan model bahasa pra-terlatih pada data tersuai untuk menyesuaikan tingkah laku kepada tugas, gaya, atau domain tertentu. Ia melibatkan penyediaan contoh pasangan input-output untuk membimbing tindak balas model sejajar dengan keperluan pengguna.
S2. Format data apa yang diperlukan untuk penalaan halus di platform terbuka dan studio Google AI?A. Platform OpenAI memerlukan data dalam format JSONL berstruktur, biasanya dengan peranan seperti "sistem," "pengguna," dan "pembantu." Google AI Studio menggunakan format yang lebih mudah dengan bidang `text_input` dan` output`, di mana input dan output yang dikehendaki jelas ditakrifkan.
Q3. Berapa banyak data yang diperlukan untuk penalaan halus yang berkesan?A. Walaupun dataset kecil dengan 30-50 contoh mungkin menunjukkan beberapa hasil, dataset yang lebih besar dengan 100-500 contoh umumnya menghasilkan prestasi yang lebih baik dengan menyediakan model dengan senario yang kaya dan kaya konteks.
Q4. Bagaimanakah kos penalaan denda antara OpenAI Platform dan Google AI Studio?A. Caj OpenAI untuk penalaan halus berdasarkan penggunaan token semasa latihan, dengan kos yang lebih tinggi untuk model yang lebih besar. Google AI Studio kini menawarkan penalaan halus percuma untuk model Flash Gemini 1.5, menjadikannya pilihan kos efektif untuk percubaan.
S5. Apakah manfaat utama penalaan halus llm?A. Penalaan halus membolehkan pengguna menyesuaikan model untuk menyelaraskan dengan keperluan tertentu, seperti menghasilkan kandungan dalam nada atau gaya tertentu, meningkatkan ketepatan untuk tugas khusus domain, dan meningkatkan pengalaman pengguna keseluruhan dengan menjadikan model lebih relevan dengan kes penggunaan yang dimaksudkan.
Atas ialah kandungan terperinci Platform Terbuka vs Google AI Studio untuk Finetuning LLM. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

CHATGPT Security Enhanced: Panduan Konfigurasi Pengesahan Dua Peringkat (2FA) Pengesahan dua faktor (2FA) diperlukan sebagai langkah keselamatan untuk platform dalam talian. Artikel ini akan menerangkan dengan cara yang mudah difahami prosedur persediaan 2FA dan kepentingannya dalam CHATGPT. Ini adalah panduan bagi mereka yang ingin menggunakan chatgpt dengan selamat. Klik di sini untuk ejen AI terbaru OpenAI, Openai Deep Research ⬇️ [Chatgpt] Apakah penyelidikan yang mendalam? Penjelasan menyeluruh tentang cara menggunakannya dan struktur yuran! Jadual Kandungan Chatg
![[Untuk Perniagaan] Latihan CHATGPT | Pengenalan menyeluruh kepada 8 pilihan latihan percuma, subsidi, dan contoh!](https://img.php.cn/upload/article/001/242/473/174704251871181.jpg?x-oss-process=image/resize,p_40)
Penggunaan AI yang dihasilkan menarik perhatian sebagai kunci untuk meningkatkan kecekapan perniagaan dan mewujudkan perniagaan baru. Khususnya, Chatgpt Openai telah diterima pakai oleh banyak syarikat kerana fleksibiliti dan ketepatannya. Walau bagaimanapun, kekurangan kakitangan yang dapat menggunakan ChATGPT secara berkesan adalah satu cabaran utama dalam melaksanakannya. Dalam artikel ini, kami akan menerangkan keperluan dan keberkesanan "latihan chatgpt" untuk memastikan penggunaan chatgpt yang berjaya di syarikat. Kami akan memperkenalkan pelbagai topik, dari asas -asas CHATGPT ke penggunaan perniagaan, program latihan khusus, dan bagaimana memilihnya. Latihan chatgpt meningkatkan kemahiran pekerja

Kecekapan dan kualiti yang lebih baik dalam operasi media sosial adalah penting. Khususnya pada platform di mana masa nyata adalah penting, seperti Twitter, memerlukan penghantaran berterusan kandungan yang tepat pada masanya dan menarik. Dalam artikel ini, kami akan menerangkan cara mengendalikan Twitter menggunakan ChatGPT dari OpenAI, AI dengan keupayaan pemprosesan bahasa semulajadi yang maju. Dengan menggunakan CHATGPT, anda bukan sahaja dapat meningkatkan keupayaan tindak balas masa nyata anda dan meningkatkan kecekapan penciptaan kandungan, tetapi anda juga boleh membangunkan strategi pemasaran yang selaras dengan trend. Tambahan pula, langkah berjaga -jaga untuk digunakan
![[Untuk Mac] Menjelaskan bagaimana untuk memulakan dan bagaimana menggunakan aplikasi Desktop ChatGPT!](https://img.php.cn/upload/article/001/242/473/174704239752855.jpg?x-oss-process=image/resize,p_40)
Chatgpt Mac Desktop App Panduan menyeluruh: dari pemasangan ke fungsi audio Akhirnya, aplikasi desktop Chatgpt untuk Mac kini tersedia! Dalam artikel ini, kami akan menjelaskan segala -galanya dari kaedah pemasangan kepada ciri -ciri berguna dan maklumat kemas kini masa depan. Gunakan fungsi yang unik untuk aplikasi desktop, seperti kekunci pintasan, pengiktirafan imej, dan mod suara, untuk meningkatkan kecekapan perniagaan anda secara dramatik! Memasang versi mac chatgpt aplikasi desktop Akses dari penyemak imbas: Pertama, akses chatgpt dalam penyemak imbas anda.

Apabila menggunakan chatgpt, adakah anda pernah mempunyai pengalaman seperti, "output berhenti separuh melalui" atau "walaupun saya menetapkan bilangan aksara, ia tidak mengeluarkan dengan betul"? Model ini sangat pecah dan bukan sahaja membolehkan perbualan semulajadi, tetapi juga membolehkan penciptaan e -mel, kertas ringkasan, dan juga menjana ayat kreatif seperti novel. Walau bagaimanapun, salah satu kelemahan chatgpt ialah jika teks terlalu panjang, input dan output tidak akan berfungsi dengan baik. Ejen AI terbaru Terbuka, "Openai Deep Research"

ChatGPT adalah chatbot AI yang inovatif yang dibangunkan oleh OpenAI. Ia bukan sahaja mempunyai input teks, tetapi juga mempunyai fungsi input suara dan suara perbualan, yang membolehkan komunikasi yang lebih semula jadi. Dalam artikel ini, kami akan menerangkan bagaimana untuk menubuhkan dan menggunakan fungsi input suara dan suara perbualan ChatGPT. Walaupun anda tidak dapat melepaskan tangan anda, Chatgpt bertindak balas dan bertindak balas dengan audio hanya dengan bercakap dengan anda, yang membawa manfaat yang besar dalam pelbagai situasi, seperti situasi perniagaan yang sibuk dan amalan perbualan Inggeris. Penjelasan terperinci tentang cara menubuhkan aplikasi telefon pintar dan PC, serta cara menggunakan setiap.

Pintasan untuk berjaya! Strategi perubahan pekerjaan yang berkesan menggunakan chatgpt Dalam pasaran perubahan pekerjaan yang semakin meningkat hari ini, pengumpulan maklumat yang berkesan dan penyediaan menyeluruh adalah kunci kejayaan. Model bahasa lanjutan seperti chatgpt adalah senjata yang kuat untuk pencari kerja. Dalam artikel ini, kami akan menerangkan cara menggunakan CHATGPT dengan berkesan untuk meningkatkan kecekapan memburu pekerjaan anda, dari analisis diri ke dokumen permohonan dan penyediaan temuduga. Simpan masa dan belajar teknik untuk mempamerkan kekuatan anda sepenuhnya, dan membantu anda membuat pekerjaan anda mencari kejayaan. Jadual Kandungan Contoh pemburuan pekerjaan menggunakan chatgpt Kecekapan dalam analisis diri: berbual

Peta minda adalah alat yang berguna untuk menganjurkan maklumat dan datang dengan idea, tetapi mencipta mereka boleh mengambil masa. Menggunakan chatgpt boleh menyelaraskan proses ini. Artikel ini akan menerangkan secara terperinci bagaimana dengan mudah membuat peta minda menggunakan ChatGPT. Selain itu, melalui contoh sebenar penciptaan, kami akan memperkenalkan cara menggunakan peta minda pada pelbagai tema. Ketahui cara menganjurkan dan memvisualisasikan idea dan maklumat anda dengan berkesan menggunakan CHATGPT. Ejen AI Terbuka Terbuka, OpenA


Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Muat turun versi mac editor Atom
Editor sumber terbuka yang paling popular

SublimeText3 versi Inggeris
Disyorkan: Versi Win, menyokong gesaan kod!

Dreamweaver CS6
Alat pembangunan web visual

EditPlus versi Cina retak
Saiz kecil, penyerlahan sintaks, tidak menyokong fungsi gesaan kod

DVWA
Damn Vulnerable Web App (DVWA) ialah aplikasi web PHP/MySQL yang sangat terdedah. Matlamat utamanya adalah untuk menjadi bantuan bagi profesional keselamatan untuk menguji kemahiran dan alatan mereka dalam persekitaran undang-undang, untuk membantu pembangun web lebih memahami proses mengamankan aplikasi web, dan untuk membantu guru/pelajar mengajar/belajar dalam persekitaran bilik darjah Aplikasi web keselamatan. Matlamat DVWA adalah untuk mempraktikkan beberapa kelemahan web yang paling biasa melalui antara muka yang mudah dan mudah, dengan pelbagai tahap kesukaran. Sila ambil perhatian bahawa perisian ini
