미세 조정 된 LLM은 위험 평가를위한 재무 분석, 개인화 된 응답에 대한 고객 지원 및 진단을위한 의료 연구와 같은 다양한 시나리오에 적용될 수 있습니다. 또한 코드 생성 및 디버깅을위한 소프트웨어 개발 및 계약 검토 및 판례법 분석을위한 법적 지원에도 사용할 수 있습니다. 이 안내서에서는 OpenAI의 플랫폼을 사용하여 미세 조정 프로세스를 진행하고 실제 응용 프로그램에서 미세 조정 모델의 성능을 평가할 것입니다.
Model | Pricing | Pricing with Batch API | Training Pricing |
gpt-4o-2024-08-06 | .750 / 1M input tokens.000 / 1M output tokens | .875 / 1M input tokens.500 / 1M output tokens | .000 / 1M training tokens |
gpt-4o-mini-2024-07-18 | .300 / 1M input tokens.200 / 1M output tokens | .150 / 1M input tokens.600 / 1M output tokens | .000 / 1M training tokens |
gpt-3.5-turbo | .000 / 1M training tokens.000 / 1M output tokens | .500 / 1M input tokens.000 / 1M output tokens | .000 / 1M training tokens |
import pandas as pd splits = {'train': 'data/train-00000-of-00001.parquet', 'test': 'data/test-00000-of-00001.parquet'} df_train = pd.read_parquet("hf://datasets/charles828/vertex-ai-customer-support-training-dataset/" + splits["train"])
이것은 모델의 가중치를 업데이트하기 전에 한 번의 패스 (또는 단계)에 사용 된 교육 예 (데이터 포인트)의 수를 나타냅니다. 모든 데이터를 한 번에 처리하는 대신 모델은 한 번에 작은 청크 (배치)를 처리합니다. 더 작은 배치 크기는 더 많은 시간이 걸리지 만 더 나은 모델을 만들 수 있습니다. 여기에서 올바른 균형을 찾아야합니다. 더 큰 것이 더 안정적이지만 훨씬 더 빠를 수도 있습니다.
학습 속도 승수 : 이것은 각 업데이트 후 모델의 가중치가 얼마나 많은지를 조정하는 요소입니다. 높이 설정되면 모델은 더 빠르게 학습 할 수 있지만 최상의 솔루션을 과도하게 수용 할 수 있습니다. 낮다면 모델은 더 천천히 배우지 만 더 정확할 수 있습니다.
"epoch"는 전체 교육 데이터 세트를 통한 전체 패스입니다. 에포크의 수는 모델이 전체 데이터 세트에서 몇 번이나 배울 수 있는지 알려줍니다. 더 많은 에포크는 일반적으로 모델이 더 잘 배울 수있게하지만 너무 많은 사람들은 과적으로 너무 많은 것을 이끌어 낼 수 있습니다.
3. 방법을 '감독'및 선택한 '기본 모델'으로 선택하십시오. GPT-4O를 선택했습니다
5. 모델을 미세 조정하려는 작업과 관련된 '접미사'를 추가하십시오.
6. 하이퍼 파라미터를 선택하거나 기본값으로 남겨 둡니다.
7. 이제‘생성’을 클릭하면 미세 조정이 시작됩니다.
8. 미세 조정이 완료되면 다음과 같이 표시됩니다.
9. 이제 오른쪽 하단의 '놀이터'를 클릭하여 미세 조정 된 모델을 기존 모델과 비교할 수 있습니다.
중요한 참고 :
“새 배달 주소를 제출하도록 도와주세요” Finetuned GPT-4O 모델에 의한 응답 :
GPT-4O에 의한 응답 :
비교 분석
GPT-4O에 의한 응답 :
비교 분석
쿼리 :
“개인 정보를 업데이트하는 방법을 모르겠다” Finetuned GPT-4O 모델에 의한 응답 :
비교 분석
q1. AI 모델에서 미세 조정이란 무엇입니까?
위 내용은 고객 지원을위한 OpenAI 플랫폼의 모델을 미세 조정합니다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!