Neurips 2024 스포트라이트 : 선택적 언어 모델링 (SLM)으로 사전 조정을 최적화합니다.
의 모든 토큰에 필요한 다음 점토 예측이 필요합니까?
실험 결과 : 상당한 이득
SLM은 다양한 실험에서 중요한 이점을 보여줍니다
Math Domain : openwebmath 강력한 미리 훈련 된 기본 모델에서도 SLM은 15 개의 벤치 마크에서 약 5.8%의 평균 개선을 산출했습니다.
자체 참조 : RAW 코퍼스에서 빠르게 훈련 된 RM조차도 2-3%의 정확도 부스트와 사용 된 토큰의 30-40% 감소를 제공했습니다.
이 백서는 토큰 수준의 학습 역학에 대한 귀중한 통찰력을 제공하고 언어 모델 사전 레이팅을 최적화하는 매우 효과적인 기술인 SLM을 소개합니다. 향후 연구 방향에는 SLM을 더 큰 모델로 스케일링, API 기반 참조 모델 탐색, 강화 학습 통합, 여러 참조 모델 사용 및 SLM을 안전 및 진실성 고려 사항과 정렬하는 것이 포함됩니다. 이 작업은 효율적이고 효과적인 언어 모델 교육의 중요한 발전을 나타냅니다. 그들의 분석은 소량의 토큰만이 의미있는 학습 신호를 제공한다는 것을 보여줍니다.
솔루션 : 선택적 언어 모델링 (SLM)
, SLM은 표준 CLM과 비교하여 GSM8K 및 수학 벤치 마크에서 최대 10%의 성능을 달성하여 기준 성능에 5-10 배 더 빠르게 도달했습니다. 7B 모델은 훈련 토큰의 3% 만 사용하여 최첨단 모델과 일치했습니다. 1B 모델의 경우 미세 조정 성능을 40% 이상 늘 렸습니다.
위 내용은 인과 적 언어 모델링을 넘어서의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!