Microsoft Research Asia는 최근 북경대학교, 시안교통대학교 및 기타 대학과 협력하여 "LeMA(Learning from Mistakes)"라는 인공지능 훈련 방법을 제안했습니다. 이 방법은 인간의 학습 과정을 모방해 인공지능의 추론 능력을 향상시킬 수 있다고 주장한다. 현재 자연어 처리(NLP) 작업에는 OpenAI GPT-4, 구글 aLM-2 등 대형 언어 모델이 사용되고 있다. 체인(CoT) 추론 수학적 퍼즐 작업의 성능이 좋습니다.
단, 관련 문제를 다룰 때 LLaMA-2, Baichuan-2 등 오픈소스 대형 모델의 강화가 필요합니다. 이러한 대규모 오픈소스 언어 모델의 사고 연쇄 추론 능력을 향상시키기 위해 연구팀은 LeMA 방법을 제안했습니다. 이 방법은 주로 인간의 학습 과정을 모방하고 "실수로부터 학습"
하여 모델의 추론 능력을 향상시킵니다.▲ 사진 출처 관련 논문
이 사이트에서 연구원의 방법은 '오답'과 '수정 정답'이 포함된 한 쌍의 데이터를 이용하여 해당 모델을 미세 조정하는 것으로 확인되었습니다.
. 연구진은 관련 데이터를 얻기 위해 5가지 대형 언어 모델(LLaMA, GPT 시리즈 포함)의 오답과 추론 과정을 수집한 뒤 GPT-4를 '수정자'로 활용해 정답을 제공했다. 수정된 정답에는 원래 추론 과정의 잘못된 부분, 원래 추론 과정의 오류 이유, 정답을 얻기 위해 원래 방법을 수정하는 방법 등 세 가지 유형의 정보가 포함되어 있는 것으로 알려졌습니다.연구원들은 GSM8K와 MATH를 사용하여 5개의 오픈 소스 대형 모델에 대한 LeMa 훈련 방법의 효과를 테스트했습니다. 결과에 따르면 개선된 LLaMA-2-70B 모델에서 GSM8K의 정확도는 각각 83.5%와 81.4%인 반면, MATH의 정확도는 각각 25.0%와 23.6%입니다
현재 연구자들은 관련 정보를 수집했습니다 LeMA GitHub에 공개되어 있습니다. 관심 있는 친구는여기를 클릭하여 점프
할 수 있습니다.위 내용은 Microsoft는 '인간의 학습 과정을 모방하고 AI 추론 능력을 향상시킨다'고 주장하면서 '실수로부터 배우기' 모델 훈련 방법을 출시했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!