찾다
기술 주변기기일체 포함어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오.

모델 생성 콘텐츠의 상대적 품질에 대한 인간 레이블을 수집하고 인간 피드백(RLHF)을 통한 강화 학습을 통해 이러한 선호도에 맞게 감독되지 않은 대규모 언어 모델을 미세 조정하는 방법이 대화형 AI 개발에 큰 도움을 주었지만 . 그러나 RLHF는 복잡하고 종종 불안정한 프로세스이기 때문에 인간의 선호도를 모델 결과와 일치시키기 위해 최적화 기능을 직접 사용하는 연구가 요즘 뜨거운 이슈가 되고 있습니다.

이 글은 포옹 얼굴에 관한 블로그로 요즘 흔히 사용되는 세 가지 인간 선호도 최적화 알고리즘의 성능을 비교합니다. 저자는 다양한 모델과 다양한 하이퍼 매개변수를 사용하여 강화 학습(또는 선호도 조정) 없이 언어 모델을 조정하는 세 가지 가능한 방법을 평가하기 위한 광범위한 실험을 수행했습니다. 세 가지 최적화 방법은 다음과 같습니다.

    직접 선호 최적화(DPO)(https://huggingface.co/papers/2305.18290)
  • 신원 선호 최적화(IPO)(https://huggingface.co/papers/ 2310.12036)
  • Kahneman-Taversky Optimization (KTO) (https://github.com/ContextualAI/HALOs)

어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오.

이 기사의 5명의 저자

읽기엔 너무 길다

이 블로그에서 저자는 DPO(직접 선호 최적화), IPO(신원 선호 최적화) 및 KTO(Taversky Optimization Optimization)라는 세 가지 우수한 LLM 정렬 알고리즘을 평가하고 다음 두 가지 고품질 LLM에서 실험을 수행했습니다. 7b 매개변수 크기. 이러한 LLM은 미세 조정 감독을 받았지만 인간의 선호도에 맞게 조정되지는 않았습니다. 저자는 가장 잘 수행되는 알고리즘을 찾는 것이 가능하지만 최상의 결과를 얻으려면 일부 주요 하이퍼 매개변수를 조정해야 한다는 사실을 발견했습니다.

강화 학습 없는 정렬

어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오. DPO 원리의 개략도 (https://arxiv.org/abs/2305.18290)

직접 선호 최적화(DPO)가 주요 언어가 되었습니다 모델(LLM)은 인간 또는 인공 지능 선호도를 결합하는 유망한 접근 방식입니다. 강화 학습을 기반으로 한 기존 정렬 방법과 달리 DPO는 정렬 공식을 간단한 손실 함수로 재정의합니다. 이는 선호도 데이터 세트 {(x, y_w, y_l)}에서 직접 최적화될 수 있습니다. 여기서 x는 프롬프트이고, y_w, y_l은 다음과 같습니다. 선호하는 응답과 선호하지 않는 응답을 각각 표시합니다.

어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오.인간 선호도 조정 데이터 세트의 예

DPO는 간단하고 사용하기 쉬운 기능으로 인기를 얻었으며 Intel이 제안한 Zephyr 모델 및 NeuralChat과 같은 모델의 훈련에 성공적으로 사용되었습니다. . DPO의 성공은 연구자들이 새로운 손실 함수를 연구하도록 영감을 주었으며 이는 다음 두 가지 주요 방향으로 요약될 수 있습니다.

견고함: DPO의 한 가지 단점은 인간 선호 데이터 세트에서 빠르게 저하된다는 것입니다. 과적합됩니다. 이를 방지하기 위해 Google DeepMind의 연구원들은 DPO 손실에 정규화 장치를 추가하고 "조기 중지"와 같은 기술을 사용하지 않고도 모델이 수렴할 수 있도록 하는 IPO(ID 선호 최적화)를 도입했습니다.

  • 쌍별 선호도 데이터에 할당: 대부분의 정렬 방법과 마찬가지로 DPO에는 일련의 기준(예: 유용성 또는 유해성)을 기반으로 응답하는 모델에 더 나은 레이블을 지정할 수 있도록 쌍별 선호도 데이터 세트가 필요합니다

    . 실제로 이러한 데이터를 생성하는 것은 시간과 비용이 많이 드는 노력입니다. ContextualAI는 최근 KTO(Kahneman-Taversky Optimization)라는 흥미로운 대안을 제안했습니다. 이는 손실을 정의하기 위해 "좋음" 또는 "나쁨"(예: 채팅 UI에 표시되는 아이콘? 또는 ?)으로 표시된 샘플을 기반으로 합니다. 기능. 이러한 태그는 얻기가 더 쉽고, 생산 환경에서 실행되는 채팅 모델을 지속적으로 업데이트하는 유망한 방법이라고 할 수 있습니다.

与此同时,需要注意这些方法都有相应的超参数,其中最重要的是 β ,这是一个控制对使用模型的偏好程度的权重。随着这些方法已经可以通过第三方库(如 huggingface TRL)来使用,接下来自然而然的问题是「在这些方法和超参数中,哪个组合能产生最好的聊天模型?」

本文旨在通过对这三种方法进行实验分析来回答这个问题,并且还要对关键超参数逐个分析,例如 β 和训练步数,最后通过 MT-Bench 评估所得模型的性能。MT-Bench 是衡量聊天模型功能的常见基准。

源代码地址:https://github.com/huggingface/alignment-handbook

使用链接

以下是相关资料的获取地址:

  • 执行超参数扫描的代码和配置文件:https://github.com/huggingface/alignment-handbook/tree/main/recipes/pref_align_scan

  • 本文使用的数据集和模型的集合:https://huggingface.co/collections/alignment-handbook/dpo-vs-kto-vs-ipo-65a69c5f03548d61dbe29ef8

实验设置

在进行对齐实验时,需要考虑两个主要因素:需要优化的模型和数据集。为了获得更多数据,作者考虑了两个模型,OpenHermes-2.5-Mistral-7B 和 Zephyr-7B-β-sft,以及两个对齐数据集:Intel 的 orca_dpo_paries 数据集和 ultrafeedback-binarized(https://huggingface.co/datasets/HuggingFaceH4/ultrafeedback_binarized)数据集。

  • orca_dpo_paries 数据集地址:https://huggingface.co/datasets/Intel/orca_dpo_pairs

  • ultrafeedback-binarized 数据集地址:https://huggingface.co/datasets/HuggingFaceH4/ultrafeedback_binarized

在第一个实验中,作者使用了 OpenHermes-2.5-Mistral-7B,因为它是不使用任何对齐方法的条件下,最好的 7B 级聊天模型之一。然后,本文使用了 Intel 的 orca_dpo_paries 数据集,该数据集包含 13k 个 prompt,其中被选择的响应结果由 GPT-4 生成,不需要的响应由 Llama Chat 13b 生成。这也是 NeuralChat 和 NeuralHermes-2.5-Mistral-7B 使用的数据集。

由于 KTO 本身不需要成对的偏好数据,作者直接将 GPT-4 生成的响应归类为「好」标签,将 Llama Chat 13b 的响应视为「坏」标签。虽然 GPT-4 的响应可能比 Llama Chat 13b 普遍更受欢迎,但在某些情况下,Llama-Chat-13b 可能会产生更好的响应,但作者认为这只是小概率事件,可以忽略不计。

第二个实验基于 ultrafeedback-binarized 数据集,在 Zephyr-7b-β-sft 模型上进行了偏好比对。ultrafeedback-binarized 数据集包含 66k 个 prompt 以及成对的偏好与拒绝的响应。该数据集之前被用于训练原始 Zephyr 模型,该模型当时在许多自动化基准测试和人工评估方面是 7B 类模型中最好的。

实验配置

对齐手册提供了一种配置单个实验的简单方法,这些参数可以在 run_dpo.py 中配置。

어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오.

作者在 Zephyr 上的实验配置也基本类似。

聊天模板由基本聊天模型中自动推断,OpenHermes-2.5 使用 ChatML,Zephyr 使用 H4。如果用户想使用自己的聊天格式,分词库现在已经启用了使用 jinja 格式字符串的用户定义聊天模板:

# Example of the Zephyr chat template"{% for message in messages %}\n {% if message [&#39;role&#39;] == &#39;user&#39; %}\n {{ &#39;<|user|>\n&#39; + message [&#39;content&#39;] + eos_token }}\n {% elif message [&#39;role&#39;] == &#39;system&#39; %}\n {{ &#39;<|system|>\n&#39; + message [&#39;content&#39;] + eos_token }}\n {% elif message [&#39;role&#39;] == &#39;assistant&#39; %}\n {{ &#39;<|assistant|>\n&#39;  + message [&#39;content&#39;] + eos_token }}\n {% endif %}\n {% if loop.last and add_generation_prompt %}\n {{ &#39;<|assistant|>&#39; }}\n {% endif %}\n {% endfor %}"

如下可以将对话格式化:

# <|system|># You are a friendly chatbot who always responds in the style of a pirate.</s># <|user|># How many helicopters can a human eat in one sitting?</s># <|assistant|># Ah, me hearty matey! But yer question be a puzzler! A human cannot eat a helicopter in one sitting, as helicopters are not edible. They be made of metal, plastic, and other materials, not food!

遍历超参数

实验中,作者逐次调整 β 值,分别在 0.01、0.1、0.2、…、0.9 时,对 DPO、IPO 和 KTO 三种方法进行实验。之所以包括 0.01,是因为作者观察到一些对齐算法对这个参数特别敏感。所有实验都只训练了一个 epoch。期间其他超参数保持不变,包括随机种子。

然后,作者使用上面定义的基本配置在 hugging face 的模型上逐个进行实验。

# Define an array containing the base configs we wish to fine tuneconfigs=("zephyr" "openhermes")# Define an array of loss typesloss_types=("sigmoid" "kto_pair" "ipo")# Define an array of beta valuesbetas=("0.01" "0.1" "0.2" "0.3" "0.4" "0.5" "0.6" "0.7" "0.8" "0.9")# Outer loop for loss typesfor config in "${configs [@]}"; dofor loss_type in "${loss_types [@]}"; do# Inner loop for beta valuesfor beta in "${betas [@]}"; do# Determine the job name and model revision based on loss typejob_name="$config_${loss_type}_beta_${beta}"model_revision="${loss_type}-${beta}"# Submit the jobsbatch --job-name=${job_name} recipes/launch.slurm dpo pref_align_scan config_$config deepspeed_zero3 \\"--beta=${beta} --loss_type=${loss_type} --output_dir=data/$config-7b-align-scan-${loss_type}-beta-${beta} --hub_model_revision=${model_revision}"donedonedone

实验结果

The authors evaluated all models using MT Bench, a multi-turn dialogue benchmark. The benchmark uses GPT-4 to judge model performance in eight different categories: writing, role-playing, reasoning, math, coding, extraction, STEM, and humanities. Although it has some imperfections, MT Bench is still a good way to evaluate conversational LLM.

Zephyr-7b-β-SFT

어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오.

Scores of the Zephyr model on MT Bench under different β values.

For the Zephyr model, the authors observed that the best model performance was achieved when the β value was 0.01. This conclusion is consistent across all three algorithms tested, and an interesting follow-up experiment would be to perform a more fine-grained scan in the 0.0-0.2 range. While DPO achieves the highest MT Bench scores, we find that KTO (pairwise) achieves better results in all settings except one hyperparameter case. IPOs, despite their stronger theoretical guarantees, appear to be worse than the base model in all but one case.

어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오.

MT Bench The best results of each algorithm on the Zephyr model in each category. The strengths and weaknesses of these models can be determined by breaking down the best results of each algorithm in various categories evaluated by MT bench. As can be seen, there is still a lot of room for improvement in reasoning, coding, and math questions.

OpenHermes-7b-2.5

Although the observed results of each algorithm on this model are consistent with OpenHermes, that is, DPO>KTO>IPO, the optimal value points of β are different. The optimal β choices for DPO, KTO, and IPO are 0.6, 0.3, and 0.01, respectively.

어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오.

MT Bench scores for different β on the OpenHermes model. OpenHermes-7b-2.5 is clearly a stronger base model, with only a 0.3 improvement in MT Bench score after human preference adjustment.

어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오.

MT Bench The best results of the three algorithms on the OpenHermes model in each category.

Summary

In this blog post, the author highlighted the importance of choosing the right hyper

parameters

when performing preference alignment. DPO is experimentally proven to outperform KTO in pairwise preference settings, although the performance of IPO appears to be poor despite stronger theoretical guarantees. These experimental results are reproducible, and the code and configuration files can now be found in the alignment manual. You can also see the best-performing models and data sets.

Future Outlook

The author will continue to explore new human preference alignment algorithms and evaluate their performance. At least for now, DPO is the most robust and best-performing large language model alignment algorithm. KTO is also promising because both DPO and IPO require pairwise preference data, and KTO can be applied to any data set containing positive and negative labels.

Original link: https://huggingface.co/blog/pref-tuning?continueFlag=480af4490eaf8a2f4544fe3658589730

위 내용은 어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
AI 기술 격차는 공급망을 늦추고 있습니다AI 기술 격차는 공급망을 늦추고 있습니다Apr 26, 2025 am 11:13 AM

"AI-Ready Workforce"라는 용어는 자주 사용되지만 공급망 산업에서 실제로 무엇을 의미합니까? ASCM (Association for Supply Chain Management)의 CEO 인 Abe Eshkenazi에 따르면 비평가가 가능한 전문가를 의미합니다.

한 회사가 AI를 영원히 변화시키기 위해 조용히 노력하는 방법한 회사가 AI를 영원히 변화시키기 위해 조용히 노력하는 방법Apr 26, 2025 am 11:12 AM

분산 된 AI 혁명은 조용히 운동량을 얻고 있습니다. 이번 주 금요일 텍사스 오스틴에서 Bittensor Endgame Summit은 중추적 인 순간을 표시하여 분산 된 AI (DEAI)를 이론에서 실제 적용으로 전환합니다. 화려한 광고와 달리

NVIDIA는 NEMO 마이크로 서비스를 방출하여 AI 에이전트 개발을 간소화합니다NVIDIA는 NEMO 마이크로 서비스를 방출하여 AI 에이전트 개발을 간소화합니다Apr 26, 2025 am 11:11 AM

Enterprise AI는 데이터 통합 ​​문제에 직면 해 있습니다 Enterprise AI의 적용은 비즈니스 데이터를 지속적으로 학습함으로써 정확성과 실용성을 유지할 수있는 시스템을 구축하는 주요 과제에 직면 해 있습니다. NEMO 마이크로 서비스는 NVIDIA가 "데이터 플라이휠"으로 묘사 한 내용을 작성 하여이 문제를 해결하여 AI 시스템이 엔터프라이즈 정보 및 사용자 상호 작용에 지속적으로 노출되어 관련성을 유지할 수 있도록합니다. 새로 출시 된이 툴킷에는 5 개의 주요 마이크로 서비스가 포함되어 있습니다. NEMO Customizer는 더 높은 교육 처리량으로 대형 언어 모델의 미세 조정을 처리합니다. NEMO 평가자는 사용자 지정 벤치 마크에 대한 AI 모델의 단순화 된 평가를 제공합니다. Nemo Guardrails는 보안 제어를 구현하여 규정 준수 및 적절성을 유지합니다.

AI는 미래의 미래와 디자인을위한 새로운 그림을 그립니다.AI는 미래의 미래와 디자인을위한 새로운 그림을 그립니다.Apr 26, 2025 am 11:10 AM

AI : 예술과 디자인의 미래 인공 지능 (AI)은 전례없는 방식으로 예술 및 디자인 분야를 변화시키고 있으며, 그 영향은 더 이상 아마추어에게만 국한되지 않고 전문가에게 더 큰 영향을 미칩니다. AI에 의해 생성 된 아트 워크 및 디자인 체계는 광고, 소셜 미디어 이미지 생성 및 웹 디자인과 같은 많은 트랜잭션 디자인 활동에서 전통적인 재료 이미지 및 디자이너를 빠르게 대체하고 있습니다. 그러나 전문 예술가와 디자이너는 AI의 실질적인 가치도 찾습니다. 그들은 AI를 보조 도구로 사용하여 새로운 미적 가능성을 탐색하고 다양한 스타일을 혼합하며 새로운 시각 효과를 만듭니다. AI는 아티스트와 디자이너가 반복적 인 작업을 자동화하고 다양한 디자인 요소를 제안하며 창의적인 입력을 제공하도록 도와줍니다. AI는 스타일 전송을 지원하며 이미지 스타일을 적용합니다.

에이전트 AI와의 작업을 혁신하는 방법 : 회의에서 이정표까지에이전트 AI와의 작업을 혁신하는 방법 : 회의에서 이정표까지Apr 26, 2025 am 11:09 AM

처음에는 화상 회의 플랫폼으로 유명한 Zoom은 에이전트 AI의 혁신적인 사용으로 직장 혁명을 이끌고 있습니다. Zoom의 CTO 인 XD Huang과의 최근 대화는 회사의 야심 찬 비전을 공개했습니다. 에이전트 AI 정의 Huang d

대학에 대한 실존 적 위협대학에 대한 실존 적 위협Apr 26, 2025 am 11:08 AM

AI가 교육에 혁명을 일으킬까요? 이 질문은 교육자와 이해 관계자들 사이에서 심각한 반영을 촉구하고 있습니다. AI를 교육에 통합하면 기회와 도전이 모두 나타납니다. Tech Edvocate의 Matthew Lynch로서 Universit

프로토 타입 : 미국 과학자들은 해외에서 일자리를 찾고 있습니다프로토 타입 : 미국 과학자들은 해외에서 일자리를 찾고 있습니다Apr 26, 2025 am 11:07 AM

미국의 과학 연구 및 기술의 발전은 아마도 예산 삭감으로 인해 어려움에 직면 할 수 있습니다. Nature에 따르면, 해외 일자리를 신청하는 미국 과학자의 수는 2024 년 같은 기간에 비해 2025 년 1 월부터 3 월까지 32% 증가했습니다. 이전 여론 조사에 따르면 설문 조사에 참여한 연구원의 75%가 유럽과 캐나다에서 일자리 검색을 고려하고 있음을 보여주었습니다. 지난 몇 개월 동안 수백 개의 NIH와 NSF 보조금이 종료되었으며, NIH의 새로운 보조금은 올해 약 23 억 달러로 줄어 듭니다. 유출 된 예산 제안에 따르면 트럼프 행정부는 과학 기관의 예산을 급격히 줄이는 것을 고려하고 있으며 최대 50%감소 할 수 있습니다. 기본 연구 분야의 혼란은 또한 미국의 주요 장점 중 하나 인 해외 인재 유치에 영향을 미쳤습니다. 35

Open AI의 최신 GPT 4.1 가족 - 분석 Vidhya에 관한 모든 것Open AI의 최신 GPT 4.1 가족 - 분석 Vidhya에 관한 모든 것Apr 26, 2025 am 10:19 AM

Openai는 강력한 GPT-4.1 시리즈를 공개합니다. 실제 응용 프로그램을 위해 설계된 3 개의 고급 언어 모델 패밀리. 이 중요한 도약 전진

See all articles

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

PhpStorm 맥 버전

PhpStorm 맥 버전

최신(2018.2.1) 전문 PHP 통합 개발 도구

Eclipse용 SAP NetWeaver 서버 어댑터

Eclipse용 SAP NetWeaver 서버 어댑터

Eclipse를 SAP NetWeaver 애플리케이션 서버와 통합합니다.

MinGW - Windows용 미니멀리스트 GNU

MinGW - Windows용 미니멀리스트 GNU

이 프로젝트는 osdn.net/projects/mingw로 마이그레이션되는 중입니다. 계속해서 그곳에서 우리를 팔로우할 수 있습니다. MinGW: GCC(GNU Compiler Collection)의 기본 Windows 포트로, 기본 Windows 애플리케이션을 구축하기 위한 무료 배포 가능 가져오기 라이브러리 및 헤더 파일로 C99 기능을 지원하는 MSVC 런타임에 대한 확장이 포함되어 있습니다. 모든 MinGW 소프트웨어는 64비트 Windows 플랫폼에서 실행될 수 있습니다.

VSCode Windows 64비트 다운로드

VSCode Windows 64비트 다운로드

Microsoft에서 출시한 강력한 무료 IDE 편집기