Microsoft Research Asia는 최근 북경대학교, 시안교통대학교 및 기타 대학과 협력하여 "LeMA(Learning from Mistakes)"라는 인공지능 훈련 방법을 제안했습니다. 이 방법은 인간의 학습 과정을 모방해 인공지능의 추론 능력을 향상시킬 수 있다고 주장한다. 현재 자연어 처리(NLP) 작업에는 OpenAI GPT-4, 구글 aLM-2 등 대형 언어 모델이 사용되고 있다. 체인(CoT) 추론 수학적 퍼즐 작업의 성능이 좋습니다.
단, 관련 문제를 다룰 때 LLaMA-2, Baichuan-2 등 오픈소스 대형 모델의 강화가 필요합니다. 이러한 대규모 오픈소스 언어 모델의 사고 연쇄 추론 능력을 향상시키기 위해 연구팀은 LeMA 방법을 제안했습니다. 이 방법은 주로 인간의 학습 과정을 모방하고 "실수로부터 학습"
▲ 사진 출처 관련 논문
이 사이트에서 연구원의 방법은 '오답'과 '수정 정답'이 포함된 한 쌍의 데이터를 이용하여 해당 모델을 미세 조정하는 것으로 확인되었습니다.
연구원들은 GSM8K와 MATH를 사용하여 5개의 오픈 소스 대형 모델에 대한 LeMa 훈련 방법의 효과를 테스트했습니다. 결과에 따르면 개선된 LLaMA-2-70B 모델에서 GSM8K의 정확도는 각각 83.5%와 81.4%인 반면, MATH의 정확도는 각각 25.0%와 23.6%입니다
현재 연구자들은 관련 정보를 수집했습니다 LeMA GitHub에 공개되어 있습니다. 관심 있는 친구는여기를 클릭하여 점프
할 수 있습니다.위 내용은 Microsoft는 '인간의 학습 과정을 모방하고 AI 추론 능력을 향상시킨다'고 주장하면서 '실수로부터 배우기' 모델 훈련 방법을 출시했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!