Rumah >Peranti teknologi >AI >Menyempurnakan model di platform terbuka untuk sokongan pelanggan

Menyempurnakan model di platform terbuka untuk sokongan pelanggan

Lisa Kudrow
Lisa Kudrowasal
2025-03-04 10:07:09946semak imbas

Model Bahasa Besar (LLMS) adalah penting untuk mengoptimumkan prestasi mereka dalam tugas-tugas tertentu. OpenAI menyediakan rangka kerja yang mantap untuk model GPT penalaan halus, yang membolehkan organisasi menyesuaikan tingkah laku AI berdasarkan keperluan khusus domain. Proses ini memainkan peranan penting dalam penyesuaian LLM, membolehkan model untuk menghasilkan tindak balas yang lebih tepat, relevan, dan konteks. Mereka juga boleh digunakan dalam pembangunan perisian untuk penjanaan kod dan debugging, dan bantuan undang -undang untuk semakan kontrak dan analisis undang -undang kes. Dalam panduan ini, kami akan berjalan melalui proses penalaan yang baik menggunakan platform Openai dan menilai prestasi model yang disesuaikan dengan aplikasi dunia nyata.

Jadual Kandungan

    Apakah platform terbuka? Preprocessing data
    • Langkah 4: Penalaan halus pada platform openai
  • GPT-4O vs finetuned GPT-4O CHECKE Analisis
    • Soalan -soalan yang sering ditanya
    • Apakah platform terbuka?
    • Platform OpenAI menyediakan alat berasaskan web yang menjadikannya mudah untuk merapatkan model, membiarkan pengguna menyesuaikannya untuk tugas-tugas tertentu. Ia menyediakan arahan langkah demi langkah untuk menyediakan data, model latihan, dan menilai hasil. Di samping itu, platform menyokong integrasi lancar dengan API, membolehkan pengguna menggunakan model yang disempurnakan dengan cepat dan cekap. Ia juga menawarkan pemantauan versi dan pemantauan model automatik untuk memastikan model -model yang dilakukan secara optimum dari masa ke masa, dengan keupayaan untuk mengemas kini mereka sebagai data baru tersedia.
    Kos kesimpulan
  • inilah berapa kos untuk melatih model di platform terbuka.
      Model Pricing Pricing with Batch API Training Pricing
      gpt-4o-2024-08-06 .750 / 1M input tokens.000 / 1M output tokens .875 / 1M input tokens.500 / 1M output tokens .000 / 1M training tokens
      gpt-4o-mini-2024-07-18 .300 / 1M input tokens.200 / 1M output tokens .150 / 1M input tokens.600 / 1M output tokens .000 / 1M training tokens
      gpt-3.5-turbo .000 / 1M training tokens.000 / 1M output tokens .500 / 1M input tokens.000 / 1M output tokens .000 / 1M training tokens

      Untuk maklumat lanjut, lawati halaman ini: https://openai.com/api/pricing/

      penalaan halus model pada platform terbuka

      Fine-penalaan model membolehkan pengguna menyesuaikan model untuk kes penggunaan tertentu, meningkatkan ketepatan, kaitan, dan kebolehsuaian mereka. Dalam panduan ini, kami memberi tumpuan kepada tindak balas yang lebih diperibadikan, tepat, dan konteks terhadap interaksi perkhidmatan pelanggan.

      Dengan menala dengan baik model pada pertanyaan dan interaksi pelanggan sebenar, perniagaan dapat meningkatkan kualiti tindak balas, mengurangkan salah faham, dan meningkatkan kepuasan pengguna secara keseluruhan.

      Juga baca: Panduan Pemula untuk Finetuning Model Bahasa Besar (LLMS)

      Sekarang mari kita lihat bagaimana kita dapat melatih model menggunakan platform OpenAI. Kami akan melakukan ini dalam 4 langkah:

    1. Mengenal pasti dataset
    2. memuat turun data dfinetuning
    3. mengimport dan memproses data
    4. penalaan halus di platform terbuka

    mari kita mulakan!

    Langkah 1: Mengenal pasti dataset

    Untuk menyesuaikan model, kita mula-mula memerlukan dataset berkualiti tinggi yang disesuaikan dengan kes penggunaan kami. Untuk proses penalaan yang baik ini, saya memuat turun dataset dari Hugging Face, platform popular untuk dataset dan model AI. Anda boleh menemui pelbagai jenis dataset yang sesuai untuk penalaan halus dengan melawat dataset muka yang memeluk. Cukup cari dataset yang relevan, muat turun, dan pra -prosesnya seperti yang diperlukan untuk memastikan ia sejajar dengan keperluan khusus anda.

    Langkah 2: Muat turun dataset untuk finetuning

    Data perkhidmatan pelanggan untuk proses penalaan halus diambil dari memeluk dataset muka. Anda boleh mengaksesnya dari sini.

    LLMS memerlukan data untuk berada dalam format khusus untuk penalaan halus. Berikut adalah format sampel untuk GPT-4O, GPT-4O-MINI, dan GPT-3.5-Turbo.

    {"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available	1 24/7. How else may I assist you?"}]}

    Sekarang dalam langkah seterusnya, kami akan menyemak apa data kami kelihatan dan membuat pelarasan yang diperlukan jika tidak dalam format yang diperlukan.

    Menyempurnakan model di platform terbuka untuk sokongan pelanggan

    Langkah 3: Mengimport dan memproses data

    Sekarang kita akan mengimport data dan pra -proses ke format yang diperlukan.

    untuk melakukan ini kita akan mengikuti langkah -langkah ini:

    1. Sekarang kita akan memuatkan data dalam buku nota Jupyter dan mengubah suai untuk memadankan format yang diperlukan.

    import pandas as pd
    splits = {'train': 'data/train-00000-of-00001.parquet', 'test': 'data/test-00000-of-00001.parquet'}
    df_train = pd.read_parquet("hf://datasets/charles828/vertex-ai-customer-support-training-dataset/" + splits["train"])

    Menyempurnakan model di platform terbuka untuk sokongan pelanggan di sini kita mempunyai 6 lajur yang berbeza. Tetapi kita hanya memerlukan dua - "arahan" dan "tindak balas" kerana ini adalah lajur yang mempunyai pertanyaan pelanggan dan respons relatif di dalamnya.

    Sekarang kita boleh menggunakan fail CSV di atas untuk membuat fail JSONL seperti yang diperlukan untuk penalaan halus.

    Seperti yang ditunjukkan di atas, kita boleh melangkah melalui bingkai data untuk membuat fail JSONL.
    import json
    messages = pd.read_csv("training_data")
    with open("query_dataset.jsonl", "w", encoding='utf-8') as jsonl_file:
       for _, row in messages.iterrows():
           user_content = row['instruction']
           assintant_content = row['response']      
           jsonl_entry = {
               "messages":[
                   {"role": "system", "content": "You are an assistant who writes in a clear, informative, and engaging style."},
                   {"role": "user", "content": user_content},
                   {"role": "assistant", "content": assintant_content}
               ]
           }    
           jsonl_file.write(json.dumps(jsonl_entry) + '\n')

    di sini kami menyimpan data kami dalam format fail JSONL yang sedikit berbeza dari JSON.

    JSON menyimpan data sebagai struktur hierarki (objek dan tatasusunan) dalam satu fail, menjadikannya sesuai untuk data berstruktur dengan bersarang. Berikut adalah contoh format fail JSON.

    {"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available	1 24/7. How else may I assist you?"}]}

    jsonl terdiri daripada pelbagai objek JSON, masing -masing pada baris berasingan, tanpa array atau struktur bersarang. Format ini lebih cekap untuk streaming, memproses dataset besar, dan mengendalikan garis data mengikut line.below adalah contoh format fail JSONL .

    import pandas as pd
    splits = {'train': 'data/train-00000-of-00001.parquet', 'test': 'data/test-00000-of-00001.parquet'}
    df_train = pd.read_parquet("hf://datasets/charles828/vertex-ai-customer-support-training-dataset/" + splits["train"])

    Langkah 4: Penalaan halus pada platform terbuka

    Sekarang, kami akan menggunakan 'query_dataset' ini untuk menyempurnakan GPT-4O LLM. Untuk melakukan ini, ikuti langkah -langkah di bawah.

    1. Pergi ke laman web ini dan log masuk jika anda belum mendaftar masuk. Sebaik sahaja log masuk, klik pada "Ketahui lebih lanjut" untuk mengetahui lebih lanjut mengenai proses penalaan halus.

    Menyempurnakan model di platform terbuka untuk sokongan pelanggan

    2. Klik pada 'Buat' dan tetingkap kecil akan muncul.

    Menyempurnakan model di platform terbuka untuk sokongan pelanggan

    Berikut adalah pecahan hiperparameter dalam imej di atas: Menyempurnakan model di platform terbuka untuk sokongan pelanggan

    Saiz batch:

    Ini merujuk kepada bilangan contoh latihan (titik data) yang digunakan dalam satu pas (atau langkah) sebelum mengemas kini berat model. Daripada memproses semua data sekaligus, model memproses ketulan kecil (batch) pada satu masa. Saiz batch yang lebih kecil akan mengambil lebih banyak masa tetapi boleh membuat model yang lebih baik. Anda perlu mencari keseimbangan yang betul di sini. Walaupun yang lebih besar mungkin lebih stabil tetapi lebih cepat.

    Pengganda Kadar Pembelajaran:

    Ini adalah faktor yang menyesuaikan berapa banyak berat model berubah selepas setiap kemas kini. Sekiranya ia ditetapkan tinggi, model mungkin belajar lebih cepat tetapi boleh melampaui penyelesaian terbaik. Jika ia rendah, model akan belajar lebih perlahan tetapi mungkin lebih tepat.

    Bilangan zaman:

    "Epoch" adalah satu lulus lengkap melalui keseluruhan dataset latihan. Bilangan zaman memberitahu anda berapa kali model akan belajar dari keseluruhan dataset. Lebih banyak zaman biasanya membenarkan model belajar lebih baik, tetapi terlalu banyak yang boleh menyebabkan overfitting.

    3. Pilih kaedah sebagai 'diselia' dan 'model asas' pilihan anda. Saya telah memilih GPT-4O.

    4. Muat naik fail JSON untuk data latihan.

    Menyempurnakan model di platform terbuka untuk sokongan pelanggan 5. Tambahkan 'akhiran' yang berkaitan dengan tugas yang anda mahu lakukan untuk menyesuaikan model.

    6. Pilih parameter hyper atau biarkan mereka ke nilai lalai.

    7. Sekarang klik pada 'Buat' dan penalaan halus akan bermula.

    8. Setelah penalaan halus selesai, ia akan menunjukkan seperti berikut:

    9. Sekarang kita dapat membandingkan model yang disesuaikan dengan model yang sedia ada dengan mengklik pada 'taman permainan' di sudut kanan bawah.

    Nota Penting:

    Tempoh penalaan dan kos bergantung kepada saiz dataset dan kerumitan model. Satu dataset yang lebih kecil, seperti 100 sampel, kos yang jauh lebih rendah tetapi mungkin tidak dapat menyesuaikan model dengan cukup, sementara dataset yang lebih besar memerlukan lebih banyak sumber dari segi masa dan wang. Dalam kes saya, dataset mempunyai kira-kira 24k sampel, jadi penalaan halus mengambil masa sekitar 7 hingga 8 jam dan menelan kos kira-kira $ 700.

    berhati -hati

    Memandangkan kos yang tinggi, disyorkan untuk memulakan dengan dataset yang lebih kecil untuk ujian awal sebelum berskala. Memastikan dataset berstruktur dengan baik dan relevan dapat membantu mengoptimumkan prestasi dan kecekapan kos.

    gpt-4o vs finetuned gpt-4o check prestasi

    Sekarang kita telah menunaikan model, kita akan membandingkan prestasinya dengan asas GPT-4O dan menganalisis respons dari kedua-dua model untuk melihat sama ada terdapat peningkatan ketepatan, kejelasan, pemahaman, dan kaitan. Ini akan membantu kita menentukan sama ada model yang disempurnakan memenuhi keperluan khusus kita dan melakukan lebih baik dalam tugas-tugas yang dimaksudkan. Untuk keringkasan saya menunjukkan kepada anda hasil sampel 3 arahan membentuk kedua-dua model GPT-4O yang halus dan standard.

    pertanyaan 1

    pertanyaan: "Bantu saya menyerahkan alamat penghantaran baru"

    Response oleh model GPT-4O finetuned:

    Menyempurnakan model di platform terbuka untuk sokongan pelanggan

    Response oleh GPT-4O:

    Analisis perbandingan Menyempurnakan model di platform terbuka untuk sokongan pelanggan

    Model yang disesuaikan dengan baik menyampaikan tindak balas yang lebih terperinci dan berpusatkan pengguna berbanding dengan GPT-4O standard. Walaupun GPT-4O menyediakan panduan langkah demi langkah yang berfungsi, model yang disesuaikan dengan baik meningkatkan kejelasan dengan membezakan secara jelas antara menambah dan mengedit alamat. Ia lebih menarik dan meyakinkan kepada pengguna dan menawarkan bantuan proaktif. Ini menunjukkan keupayaan unggul model yang disesuaikan untuk diselaraskan dengan amalan terbaik perkhidmatan pelanggan. Oleh itu, model yang disempurnakan adalah pilihan yang lebih kuat untuk tugas-tugas yang memerlukan respons mesra pengguna, berstruktur, dan sokongan.

    query 2

    pertanyaan:

    "Saya memerlukan bantuan untuk menukar ke akaun kategori akaun" Response oleh model GPT-4O finetuned:

    Response oleh GPT-4O: Menyempurnakan model di platform terbuka untuk sokongan pelanggan

    Analisis perbandingan

    Model yang disesuaikan dengan baik meningkatkan penglibatan dan kejelasan pengguna berbanding dengan model asas. Walaupun GPT-4O memberikan tindak balas yang berstruktur namun generik, versi yang disempurnakan mengamalkan nada yang lebih perbualan dan sokongan, menjadikan interaksi berasa lebih semula jadi.

    Query 3

    pertanyaan: "Saya tidak tahu bagaimana untuk mengemas kini maklumat peribadi saya"

    Response oleh model GPT-4O finetuned:

    Menyempurnakan model di platform terbuka untuk sokongan pelanggan

    Response oleh GPT-4O:

    Menyempurnakan model di platform terbuka untuk sokongan pelanggan Analisis perbandingan

    Model yang disesuaikan dengan baik mengatasi GPT-4O standard dengan memberikan respons yang lebih tepat dan berstruktur. Walaupun GPT-4O menawarkan jawapan yang berfungsi, model yang disempurnakan dengan baik meningkatkan kejelasan dengan secara eksplisit menangani perbezaan utama dan menyampaikan maklumat dengan cara yang lebih koheren. Di samping itu, ia menyesuaikan diri dengan lebih baik dalam konteks, memastikan tindak balas yang lebih relevan dan halus.

    Analisis perbandingan keseluruhan

    Kesimpulan

    Dalam kes ini, penalaan model untuk bertindak balas dengan lebih baik kepada pertanyaan pelanggan keberkesanannya. Ia menjadikan interaksi berasa lebih peribadi, mesra, dan menyokong, yang membawa kepada sambungan yang lebih kuat dan kepuasan pengguna yang lebih tinggi. Walaupun model asas memberikan maklumat yang jelas dan tepat, mereka dapat merasakan robot dan kurang menarik. Penalaan halus model melalui platform web OpenAI yang mudah adalah cara terbaik untuk membina model bahasa besar yang tersuai untuk tugas -tugas khusus domain.

    Soalan Lazim

    Q1. Apakah penalaan halus dalam model AI?

    a. Penalaan halus adalah proses menyesuaikan model AI yang terlatih untuk melaksanakan tugas tertentu atau mempamerkan tingkah laku tertentu dengan melatihnya lebih lanjut pada dataset khusus yang lebih kecil. Ini membolehkan model lebih memahami nuansa tugas dan menghasilkan hasil yang lebih tepat atau disesuaikan.

    Q2. Bagaimanakah penalaan halus meningkatkan prestasi model AI? a.  Penalaan halus meningkatkan prestasi model dengan mengajarnya untuk mengendalikan keperluan khusus tugas, seperti menambah empati dalam interaksi pelanggan. Ia membantu model memberikan lebih banyak respons yang diperibadikan, konteks yang menyedari, menjadikan interaksi berasa lebih seperti manusia dan menarik.

    Q3. Adakah model yang disesuaikan dengan lebih mahal untuk digunakan?

    a. Model penalaan boleh memerlukan sumber dan latihan tambahan, yang boleh meningkatkan kos. Walau bagaimanapun, manfaat model yang lebih berkesan, mesra pengguna sering melebihi pelaburan awal, terutamanya untuk tugas yang melibatkan interaksi pelanggan atau penyelesaian masalah yang kompleks.

    Q4. Bolehkah saya menyempurnakan model saya sendiri?

    a. Ya, jika anda mempunyai data dan kepakaran teknikal yang diperlukan, anda boleh menyempurnakan model menggunakan rangka kerja pembelajaran mesin seperti memeluk wajah, terbuka, atau yang lain. Walau bagaimanapun, ia biasanya memerlukan pemahaman yang kuat tentang AI, penyediaan data, dan proses latihan. Q5. Berapa lama masa yang diperlukan untuk menyempurnakan model?

    a. Masa yang diperlukan untuk menyesuaikan model bergantung kepada saiz dataset, kerumitan tugas, dan sumber pengiraan yang tersedia. Ia boleh mengambil masa mana saja dari beberapa jam hingga beberapa hari atau lebih untuk model yang lebih besar dengan dataset yang luas.

Atas ialah kandungan terperinci Menyempurnakan model di platform terbuka untuk sokongan pelanggan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn