최근 Alibaba의 수석 AI 과학자인 Jia Yangqing은 새로운 국내 모델이 실제로 LLaMA 아키텍처를 사용하고 있으며 코드에서 몇 가지 변수 이름만 변경했다고 불평하여 인터넷에서 열띤 토론을 촉발했습니다. 대형 모델이 훈련 모델 프로세스에 대응하고 공개했다는 비난을 받은 후 Jia Yangqing은 최근 오픈 소스 분야에서 '마법의 수정'이 필요하지 않은 이유를 설명하는 게시물을 게시했습니다.
일시적인 마법 수정은 즐거움을 가져다주지만 커뮤니티에서 정말로 성공하고 싶다면 커뮤니티와 함께 플레이할 의지가 있어야 한다고도 하더군요
위 내용은 전 알리바바 AI 수석과학자 지아양칭(Jia Yangqing)이 다시 말한다: 오픈소스 분야에서 '마법의 개혁'은 필요하지 않다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!