Rumah >Peranti teknologi >AI >Menyempurnakan model di platform terbuka untuk sokongan pelanggan
Model Bahasa Besar (LLMS) adalah penting untuk mengoptimumkan prestasi mereka dalam tugas-tugas tertentu. OpenAI menyediakan rangka kerja yang mantap untuk model GPT penalaan halus, yang membolehkan organisasi menyesuaikan tingkah laku AI berdasarkan keperluan khusus domain. Proses ini memainkan peranan penting dalam penyesuaian LLM, membolehkan model untuk menghasilkan tindak balas yang lebih tepat, relevan, dan konteks. Mereka juga boleh digunakan dalam pembangunan perisian untuk penjanaan kod dan debugging, dan bantuan undang -undang untuk semakan kontrak dan analisis undang -undang kes. Dalam panduan ini, kami akan berjalan melalui proses penalaan yang baik menggunakan platform Openai dan menilai prestasi model yang disesuaikan dengan aplikasi dunia nyata.
Model | Pricing | Pricing with Batch API | Training Pricing |
gpt-4o-2024-08-06 | .750 / 1M input tokens.000 / 1M output tokens | .875 / 1M input tokens.500 / 1M output tokens | .000 / 1M training tokens |
gpt-4o-mini-2024-07-18 | .300 / 1M input tokens.200 / 1M output tokens | .150 / 1M input tokens.600 / 1M output tokens | .000 / 1M training tokens |
gpt-3.5-turbo | .000 / 1M training tokens.000 / 1M output tokens | .500 / 1M input tokens.000 / 1M output tokens | .000 / 1M training tokens |
Untuk maklumat lanjut, lawati halaman ini: https://openai.com/api/pricing/
Fine-penalaan model membolehkan pengguna menyesuaikan model untuk kes penggunaan tertentu, meningkatkan ketepatan, kaitan, dan kebolehsuaian mereka. Dalam panduan ini, kami memberi tumpuan kepada tindak balas yang lebih diperibadikan, tepat, dan konteks terhadap interaksi perkhidmatan pelanggan.
Dengan menala dengan baik model pada pertanyaan dan interaksi pelanggan sebenar, perniagaan dapat meningkatkan kualiti tindak balas, mengurangkan salah faham, dan meningkatkan kepuasan pengguna secara keseluruhan.
Juga baca: Panduan Pemula untuk Finetuning Model Bahasa Besar (LLMS)
Sekarang mari kita lihat bagaimana kita dapat melatih model menggunakan platform OpenAI. Kami akan melakukan ini dalam 4 langkah:
mari kita mulakan!
Untuk menyesuaikan model, kita mula-mula memerlukan dataset berkualiti tinggi yang disesuaikan dengan kes penggunaan kami. Untuk proses penalaan yang baik ini, saya memuat turun dataset dari Hugging Face, platform popular untuk dataset dan model AI. Anda boleh menemui pelbagai jenis dataset yang sesuai untuk penalaan halus dengan melawat dataset muka yang memeluk. Cukup cari dataset yang relevan, muat turun, dan pra -prosesnya seperti yang diperlukan untuk memastikan ia sejajar dengan keperluan khusus anda.
Data perkhidmatan pelanggan untuk proses penalaan halus diambil dari memeluk dataset muka. Anda boleh mengaksesnya dari sini.
LLMS memerlukan data untuk berada dalam format khusus untuk penalaan halus. Berikut adalah format sampel untuk GPT-4O, GPT-4O-MINI, dan GPT-3.5-Turbo.
{"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available 1 24/7. How else may I assist you?"}]}
Sekarang dalam langkah seterusnya, kami akan menyemak apa data kami kelihatan dan membuat pelarasan yang diperlukan jika tidak dalam format yang diperlukan.
untuk melakukan ini kita akan mengikuti langkah -langkah ini:
1. Sekarang kita akan memuatkan data dalam buku nota Jupyter dan mengubah suai untuk memadankan format yang diperlukan.
import pandas as pd splits = {'train': 'data/train-00000-of-00001.parquet', 'test': 'data/test-00000-of-00001.parquet'} df_train = pd.read_parquet("hf://datasets/charles828/vertex-ai-customer-support-training-dataset/" + splits["train"])
di sini kita mempunyai 6 lajur yang berbeza. Tetapi kita hanya memerlukan dua - "arahan" dan "tindak balas" kerana ini adalah lajur yang mempunyai pertanyaan pelanggan dan respons relatif di dalamnya.
Sekarang kita boleh menggunakan fail CSV di atas untuk membuat fail JSONL seperti yang diperlukan untuk penalaan halus.
Seperti yang ditunjukkan di atas, kita boleh melangkah melalui bingkai data untuk membuat fail JSONL.
import json messages = pd.read_csv("training_data") with open("query_dataset.jsonl", "w", encoding='utf-8') as jsonl_file: for _, row in messages.iterrows(): user_content = row['instruction'] assintant_content = row['response'] jsonl_entry = { "messages":[ {"role": "system", "content": "You are an assistant who writes in a clear, informative, and engaging style."}, {"role": "user", "content": user_content}, {"role": "assistant", "content": assintant_content} ] } jsonl_file.write(json.dumps(jsonl_entry) + '\n')
di sini kami menyimpan data kami dalam format fail JSONL yang sedikit berbeza dari JSON.
JSON menyimpan data sebagai struktur hierarki (objek dan tatasusunan) dalam satu fail, menjadikannya sesuai untuk data berstruktur dengan bersarang. Berikut adalah contoh format fail JSON.
{"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available 1 24/7. How else may I assist you?"}]}
jsonl terdiri daripada pelbagai objek JSON, masing -masing pada baris berasingan, tanpa array atau struktur bersarang. Format ini lebih cekap untuk streaming, memproses dataset besar, dan mengendalikan garis data mengikut line.below adalah contoh format fail JSONL .
import pandas as pd splits = {'train': 'data/train-00000-of-00001.parquet', 'test': 'data/test-00000-of-00001.parquet'} df_train = pd.read_parquet("hf://datasets/charles828/vertex-ai-customer-support-training-dataset/" + splits["train"])
Sekarang, kami akan menggunakan 'query_dataset' ini untuk menyempurnakan GPT-4O LLM. Untuk melakukan ini, ikuti langkah -langkah di bawah.
1. Pergi ke laman web ini dan log masuk jika anda belum mendaftar masuk. Sebaik sahaja log masuk, klik pada "Ketahui lebih lanjut" untuk mengetahui lebih lanjut mengenai proses penalaan halus.
Berikut adalah pecahan hiperparameter dalam imej di atas:
Saiz batch:
Ini merujuk kepada bilangan contoh latihan (titik data) yang digunakan dalam satu pas (atau langkah) sebelum mengemas kini berat model. Daripada memproses semua data sekaligus, model memproses ketulan kecil (batch) pada satu masa. Saiz batch yang lebih kecil akan mengambil lebih banyak masa tetapi boleh membuat model yang lebih baik. Anda perlu mencari keseimbangan yang betul di sini. Walaupun yang lebih besar mungkin lebih stabil tetapi lebih cepat.Pengganda Kadar Pembelajaran:
Ini adalah faktor yang menyesuaikan berapa banyak berat model berubah selepas setiap kemas kini. Sekiranya ia ditetapkan tinggi, model mungkin belajar lebih cepat tetapi boleh melampaui penyelesaian terbaik. Jika ia rendah, model akan belajar lebih perlahan tetapi mungkin lebih tepat.Bilangan zaman:
"Epoch" adalah satu lulus lengkap melalui keseluruhan dataset latihan. Bilangan zaman memberitahu anda berapa kali model akan belajar dari keseluruhan dataset. Lebih banyak zaman biasanya membenarkan model belajar lebih baik, tetapi terlalu banyak yang boleh menyebabkan overfitting.3. Pilih kaedah sebagai 'diselia' dan 'model asas' pilihan anda. Saya telah memilih GPT-4O.
5. Tambahkan 'akhiran' yang berkaitan dengan tugas yang anda mahu lakukan untuk menyesuaikan model.
6. Pilih parameter hyper atau biarkan mereka ke nilai lalai.
7. Sekarang klik pada 'Buat' dan penalaan halus akan bermula.
8. Setelah penalaan halus selesai, ia akan menunjukkan seperti berikut:
9. Sekarang kita dapat membandingkan model yang disesuaikan dengan model yang sedia ada dengan mengklik pada 'taman permainan' di sudut kanan bawah.
berhati -hati
Memandangkan kos yang tinggi, disyorkan untuk memulakan dengan dataset yang lebih kecil untuk ujian awal sebelum berskala. Memastikan dataset berstruktur dengan baik dan relevan dapat membantu mengoptimumkan prestasi dan kecekapan kos.gpt-4o vs finetuned gpt-4o check prestasi
pertanyaan 1
pertanyaan: "Bantu saya menyerahkan alamat penghantaran baru"
Response oleh model GPT-4O finetuned:
Analisis perbandingan
"Saya memerlukan bantuan untuk menukar ke akaun kategori akaun" Response oleh model GPT-4O finetuned:
Response oleh GPT-4O:
Model yang disesuaikan dengan baik meningkatkan penglibatan dan kejelasan pengguna berbanding dengan model asas. Walaupun GPT-4O memberikan tindak balas yang berstruktur namun generik, versi yang disempurnakan mengamalkan nada yang lebih perbualan dan sokongan, menjadikan interaksi berasa lebih semula jadi. pertanyaan: "Saya tidak tahu bagaimana untuk mengemas kini maklumat peribadi saya" Response oleh model GPT-4O finetuned: Response oleh GPT-4O:
Analisis perbandingan keseluruhan Dalam kes ini, penalaan model untuk bertindak balas dengan lebih baik kepada pertanyaan pelanggan keberkesanannya. Ia menjadikan interaksi berasa lebih peribadi, mesra, dan menyokong, yang membawa kepada sambungan yang lebih kuat dan kepuasan pengguna yang lebih tinggi. Walaupun model asas memberikan maklumat yang jelas dan tepat, mereka dapat merasakan robot dan kurang menarik. Penalaan halus model melalui platform web OpenAI yang mudah adalah cara terbaik untuk membina model bahasa besar yang tersuai untuk tugas -tugas khusus domain. a. Penalaan halus adalah proses menyesuaikan model AI yang terlatih untuk melaksanakan tugas tertentu atau mempamerkan tingkah laku tertentu dengan melatihnya lebih lanjut pada dataset khusus yang lebih kecil. Ini membolehkan model lebih memahami nuansa tugas dan menghasilkan hasil yang lebih tepat atau disesuaikan. Q4. Bolehkah saya menyempurnakan model saya sendiri? Analisis perbandingan
Query 3
Analisis perbandingan
Model yang disesuaikan dengan baik mengatasi GPT-4O standard dengan memberikan respons yang lebih tepat dan berstruktur. Walaupun GPT-4O menawarkan jawapan yang berfungsi, model yang disempurnakan dengan baik meningkatkan kejelasan dengan secara eksplisit menangani perbezaan utama dan menyampaikan maklumat dengan cara yang lebih koheren. Di samping itu, ia menyesuaikan diri dengan lebih baik dalam konteks, memastikan tindak balas yang lebih relevan dan halus.
Kesimpulan
Soalan Lazim
Q1. Apakah penalaan halus dalam model AI? Q2. Bagaimanakah penalaan halus meningkatkan prestasi model AI? a. Penalaan halus meningkatkan prestasi model dengan mengajarnya untuk mengendalikan keperluan khusus tugas, seperti menambah empati dalam interaksi pelanggan. Ia membantu model memberikan lebih banyak respons yang diperibadikan, konteks yang menyedari, menjadikan interaksi berasa lebih seperti manusia dan menarik. Q3. Adakah model yang disesuaikan dengan lebih mahal untuk digunakan? Q5. Berapa lama masa yang diperlukan untuk menyempurnakan model?
Atas ialah kandungan terperinci Menyempurnakan model di platform terbuka untuk sokongan pelanggan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!