>微调大语言模型(LLMS)对于优化其在特定任务中的性能至关重要。 OpenAI为微调GPT模型提供了一个强大的框架,使组织可以根据特定领域的要求量身定制AI行为。该过程在LLM自定义中起着至关重要的作用,使模型能够生成更准确,相关和上下文感知的响应。
>微调的LLM可以在各种情况下应用,例如财务分析,用于风险评估,针对个性化响应的客户支持以及用于辅助诊断的医学研究。它们还可以用于软件开发中,用于代码生成和调试,以及合同审查和判例法分析的法律帮助。在本指南中,我们将使用OpenAI的平台浏览微调过程,并评估微型模型在现实世界应用中的性能。
Model | Pricing | Pricing with Batch API | Training Pricing |
gpt-4o-2024-08-06 | .750 / 1M input tokens.000 / 1M output tokens | .875 / 1M input tokens.500 / 1M output tokens | .000 / 1M training tokens |
gpt-4o-mini-2024-07-18 | .300 / 1M input tokens.200 / 1M output tokens | .150 / 1M input tokens.600 / 1M output tokens | .000 / 1M training tokens |
gpt-3.5-turbo | .000 / 1M training tokens.000 / 1M output tokens | .500 / 1M input tokens.000 / 1M output tokens | .000 / 1M training tokens |
有关更多信息,请访问此页面:https://openai.com/api/pricing/
微调模型允许用户自定义特定用例的模型,从而提高其准确性,相关性和适应性。在本指南中,我们专注于对客户服务互动的更个性化,准确和上下文感知的响应。
通过对实际客户查询和互动进行微调模型,企业可以提高响应质量,减少误解并提高整体用户满意度。 >也请阅读:鉴定大型语言模型的初学者指南(LLMS)> >现在让我们看看如何使用OpenAI平台训练模型。我们将以4个步骤进行操作:
识别数据集
为了微调模型,我们首先需要针对我们用例的高质量数据集。对于这个微调过程,我从拥抱面上下载了数据集,该数据集是一个流行的AI数据集和模型的平台。您可以通过访问拥抱面部数据集找到适合微调的广泛数据集。只需搜索相关数据集,下载并根据需要进行预处理,以确保其与您的特定要求保持一致。
>步骤2:下载finetuning的数据集现在,在下一步中,我们将检查我们的数据的样子,并进行必要的调整(如果不需要的格式)。
>步骤3:导入和预处理数据
现在,我们将将数据和预处理导入到所需的格式中。
{"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available 1 24/7. How else may I assist you?"}]}1。现在,我们将在Jupyter笔记本中加载数据并将其修改以匹配所需的格式。
>如上所示,我们可以通过数据框进行迭代以创建JSONL文件。
在这里,我们以JSONL文件格式存储我们的数据,该格式与JSON略有不同。
>json将数据存储为单个文件中的层次结构(对象和数组),使其适用于带有嵌套的结构化数据。以下是JSON文件格式的示例。
>{"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available 1 24/7. How else may I assist you?"}]}
JSONL 由多个JSON对象组成,每个对象都在单独的线上,没有数组或嵌套结构。这种格式更有效地用于流,处理大数据集和按行处理数据集。BELOW是JSONL文件格式。
步骤4:OpenAI平台上的微调import pandas as pd splits = {'train': 'data/train-00000-of-00001.parquet', 'test': 'data/test-00000-of-00001.parquet'} df_train = pd.read_parquet("hf://datasets/charles828/vertex-ai-customer-support-training-dataset/" + splits["train"])
1。如果您尚未签名,请访问此网站并登录。登录后,单击“了解更多”以了解有关微调过程的更多信息。
>
2。单击“创建”,将弹出一个小窗口。
这是上图中的超参数的崩溃:
批量尺寸:
学习率乘数:
3。选择该方法作为“监督”和您选择的“基本模型”。我选择了gpt-4o。
4。上传培训数据的JSON文件。
5。添加与要微调模型的任务相关的“后缀”。6。选择超参数或将它们留在默认值中。
>7。现在单击“创建”,微调开始。>
9。现在,我们可以通过单击右下角的“游乐场”来比较细调模型与已存在的模型。
>>微调持续时间和成本取决于数据集的大小和模型复杂性。一个较小的数据集,例如100个样本,成本要少得多,但可能无法充分微调模型,而较大的数据集则需要更多的时间和金钱资源。就我而言,数据集的样本约为24K,因此微调大约需要7到8个小时,大约花费了700美元。
>小心
给定成本高,建议从较小的数据集开始,以便在扩展之前进行初始测试。确保数据集结构良好,相关可以帮助优化性能和成本效率。> gpt-4O vs Fineted GPT-4O性能检查
“帮助我提交新的送货地址”
通过FINETUNED GPT-4O模型的响应:
GPT-4O:
>
比较分析
与标准的GPT-4O相比,微型模型
“我需要帮助才能更改为帐户类别帐户”
通过FINETUNED GPT-4O模型的响应:
GPT-4O:>
显着增强了用户的参与度和清晰度。虽然GPT-4O提供了结构化但通用的响应,但微调版本采用了更具对话和支持性的语气,使互动感觉更自然。 QUERY:>“我不知道如何更新我的个人信息”
>
在这种情况下,对模型进行微调以更好地响应客户查询其有效性。它使互动感觉更加个人化,友好和支持,从而带来更强的联系和更高的用户满意度。尽管基本模型提供了清晰准确的信息,但它们会感觉到机器人和吸引力较小。通过OpenAI方便的Web平台对模型进行微调是为域特定任务构建自定义大语模型的一种好方法。
比较分析
与基本模型相比,微调模型>查询3
>
比较分析
总体比较分析
结论
> Q1。 AI模型中的微调是什么?微调是调整预先训练的AI模型来执行特定任务或通过在较小的特定任务数据集上训练特定行为的过程。这使模型可以更好地理解任务的细微差别并产生更准确或更量身定制的结果。微调如何改善AI模型的性能? 微调通过教导模型的性能来增强模型的性能,以更好地处理任务的特定要求,例如在客户互动中增加同理心。它有助于该模型提供更个性化的,上下文感知的响应,从而使互动感觉更像人性化和引人入胜。微调模型使用更昂贵吗?微调模型可能需要其他资源和培训,这可能会增加成本。但是,更有效,用户友好的模型的好处通常超过初始投资,尤其是对于涉及客户互动或解决问题的任务。我可以自己微调一个模型吗?是的,如果您拥有必要的数据和技术专长,则可以使用Hugging Face,OpenAI或其他其他机器学习框架微调模型。但是,通常需要对AI,数据准备和培训过程有深入的了解。微调模型需要多长时间?微调一个模型所需的时间取决于数据集的大小,任务的复杂性以及可用的计算资源。对于具有庞大数据集的较大型号,它可能需要几个小时到几天或更长时间。
以上是在OpenAI平台上微调模型以供客户支持的详细内容。更多信息请关注PHP中文网其他相关文章!