>  기사  >  기술 주변기기  >  Google은 보상 모델을 제거하고 적대적 훈련의 필요성을 제거하는 새로운 RLHF 방법을 제안합니다.

Google은 보상 모델을 제거하고 적대적 훈련의 필요성을 제거하는 새로운 RLHF 방법을 제안합니다.

PHPz
PHPz앞으로
2024-02-15 19:00:191255검색

효과가 더 안정적이고 구현이 더 간단합니다.

대규모 언어 모델(LLM)의 성공은 "인간 피드백 기반 강화 학습(RLHF)"과 떼려야 뗄 수 없습니다. RLHF는 대략 두 단계로 나눌 수 있습니다. 첫째, 선호하는 행동과 선호하지 않는 행동의 쌍이 주어지면 목표를 분류하여 전자에 더 높은 점수를 할당하도록 보상 모델이 훈련됩니다. 이 보상 기능은 일종의 강화 학습 알고리즘을 통해 최적화됩니다. 그러나 보상 모델의 핵심 요소는 바람직하지 않은 영향을 미칠 수 있습니다.

Carnegie Mellon University(CMU)의 연구원과 Google Research는 간단하고 이론적으로 엄격하며 실험적으로 효과적인 새로운 RLHF 방법인 자가 게임 선호도 최적화(Self-Play Preference Optimization(SPO))를 공동으로 제안했습니다. 이 접근 방식은 보상 모델을 제거하고 적대적 교육이 필요하지 않습니다.

Google은 보상 모델을 제거하고 적대적 훈련의 필요성을 제거하는 새로운 RLHF 방법을 제안합니다.

논문: 인간 피드백을 통한 강화 학습에 대한 Minimaximalist 접근 방식
논문 주소: https://arxiv.org/abs/2401.04056

방법 소개

SPO 더 방법에는 주로 두 가지 측면이 포함됩니다. 첫째, 이 연구는 RLHF를 제로섬 게임으로 구성하여 실제로 보상 모델을 제거하여 실제로 자주 나타나는 시끄러운 비마코브 선호도를 더 잘 처리할 수 있도록 합니다. 둘째, 게임의 대칭성을 활용함으로써 본 연구는 단일 에이전트가 자체 게임 방식으로 간단하게 훈련될 수 있음을 보여줌으로써 불안정한 적 훈련의 필요성을 제거합니다.

실제로 이는 에이전트에서 여러 궤적을 샘플링하고, 평가자 또는 선호 모델에 각 궤적 쌍을 비교하도록 요청하고, 궤적의 승률에 대한 보상을 설정하는 것과 같습니다.
Google은 보상 모델을 제거하고 적대적 훈련의 필요성을 제거하는 새로운 RLHF 방법을 제안합니다.
SPO는 보상 모델링, 복합 오류 및 적대적 훈련을 방지합니다. 사회적 선택 이론에서 최소최대 승자의 개념을 확립함으로써 본 연구는 RLHF를 2인 제로섬 게임으로 구성하고 게임 보상 매트릭스의 대칭성을 활용하여 단일 에이전트가 자신에 대해 간단하게 훈련될 수 있음을 보여줍니다.

Google은 보상 모델을 제거하고 적대적 훈련의 필요성을 제거하는 새로운 RLHF 방법을 제안합니다.

Google은 보상 모델을 제거하고 적대적 훈련의 필요성을 제거하는 새로운 RLHF 방법을 제안합니다.

이 연구는 또한 SPO의 수렴 특성을 분석하고 잠재적인 보상 함수가 존재할 때 SPO가 표준 방법에 필적하는 빠른 속도로 최적의 정책으로 수렴할 수 있음을 증명합니다.

실험

이 연구는 SPO가 현실적인 선호 기능을 갖춘 일련의 연속 제어 작업에서 보상 모델 기반 방법보다 더 나은 성능을 발휘한다는 것을 보여줍니다. SPO는 아래 그림 2와 같이 다양한 기본 설정에서 보상 모델 기반 방법보다 더 효율적으로 샘플을 학습할 수 있습니다.

Google은 보상 모델을 제거하고 적대적 훈련의 필요성을 제거하는 새로운 RLHF 방법을 제안합니다.

Google은 보상 모델을 제거하고 적대적 훈련의 필요성을 제거하는 새로운 RLHF 방법을 제안합니다.

Google은 보상 모델을 제거하고 적대적 훈련의 필요성을 제거하는 새로운 RLHF 방법을 제안합니다.

이 연구는 SPO를 다차원의 반복 보상 모델링(RM) 방법과 비교하여 4가지 질문에 답하는 것을 목표로 합니다. MW?

독특한 Copeland 우승자/최적 전략 문제에 대해 SPO가 RM 샘플 효율성과 일치하거나 초과할 수 있습니까?
  1. SPO는 무작위 선호도에 얼마나 강력합니까?
  2. SPO가 비마코비안 기본 설정을 처리할 수 있나요?
  3. 최대 보상 선호도, 잡음 선호도, 비마르코프 선호도 측면에서 본 연구의 실험 결과는 각각 그림 6, 7, 8에 나와 있습니다.

Google은 보상 모델을 제거하고 적대적 훈련의 필요성을 제거하는 새로운 RLHF 방법을 제안합니다.

Google은 보상 모델을 제거하고 적대적 훈련의 필요성을 제거하는 새로운 RLHF 방법을 제안합니다.

관심 있는 독자는 논문 원문을 읽고 연구 내용에 대해 자세히 알아볼 수 있습니다.

위 내용은 Google은 보상 모델을 제거하고 적대적 훈련의 필요성을 제거하는 새로운 RLHF 방법을 제안합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 jiqizhixin.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제