>기술 주변기기 >일체 포함 >ChatGPT 훈련 방법의 경량 버전은 오픈 소스입니다! 단 3일 만에 LLaMA를 기반으로 구축되었으며, OpenAI보다 훈련 속도가 15배 빠르다고 합니다.

ChatGPT 훈련 방법의 경량 버전은 오픈 소스입니다! 단 3일 만에 LLaMA를 기반으로 구축되었으며, OpenAI보다 훈련 속도가 15배 빠르다고 합니다.

PHPz
PHPz앞으로
2023-04-13 17:13:191156검색

메타 모델을 기반으로 한 ChatGPT의 경량 버전이 출시되었습니다.

Meta가 LLaMA 출시를 발표한 지 불과 3일 만에 업계에서는 이를 ChatGPT로 전환하는 오픈 소스 교육 방법을 이미 개발했는데, 이는 ChatGPT 교육보다 최대 15배 빠르다고 합니다.

LLaMA는 Meta가 출시한 초고속 초소형 GPT-3입니다. 매개변수 수는 후자의 10%에 불과하며, 실행하는 데에는 단일 GPU만 필요합니다.

ChatGPT로 변환하는 방법은 ChatLLaMA라고 하는데, 이는 RLHF(인간 피드백 기반 강화 학습)를 기반으로 학습되었으며 인터넷에서 빠르게 인기를 얻었습니다.

ChatGPT 훈련 방법의 경량 버전은 오픈 소스입니다! 단 3일 만에 LLaMA를 기반으로 구축되었으며, OpenAI보다 훈련 속도가 15배 빠르다고 합니다.

그럼 Meta의 ChatGPT 오픈소스 버전이 정말 나오나요?

잠깐만요. 상황이 그렇게 간단하지 않습니다.

ChatGPT의 "오픈 소스 방식"으로 LLaMA를 교육합니다

ChatLLaMA 프로젝트 홈페이지를 클릭하면 실제로 4가지 부분, 즉

DeepSpeed, RLHF 방식, LLaMA 및 LangChain 에이전트를 기반으로 생성된 데이터 세트가 통합되어 있는 것을 확인할 수 있습니다.

그중 DeepSpeed는 대형 모델 훈련 능력을 향상시키는 데 사용되는 Zero라는 기존 최적화 기술이 포함된 오픈 소스 딥 러닝 훈련 최적화 라이브러리입니다. 구체적으로는 모델의 훈련 속도 향상, 비용 절감을 돕는 것을 말합니다. , 모델 가용성 개선 등

RLHF는 보상 모델을 사용하여 사전 훈련된 모델을 미세 조정합니다. 보상 모델은 먼저 여러 모델을 사용하여 질문과 답변을 생성한 다음 질문과 답변을 수동으로 정렬하여 점수를 매기는 방법을 학습합니다. 그런 다음 보상 학습을 기반으로 모델에서 생성된 답변을 점수화하고 향상시킵니다. 강화학습을 통해 모델의 능력을 향상시킵니다.

LangChain은 다양한 대형 언어 모델을 통합하고 다른 지식 소스 또는 컴퓨팅 능력과 결합된 실용적인 응용 프로그램을 만들기를 희망하는 대형 언어 모델 응용 프로그램 개발 라이브러리입니다. LangChain 에이전트는 GPT-3 사고의 전체 프로세스를 사고 체인처럼 공개하고 작업을 기록합니다.

이때 가장 중요한 것은 여전히 ​​LLaMA의 모델 무게라는 것을 알게 될 것입니다. 그거 어디서 났어?

메타에 가서 직접 신청하세요. ChatLLaMA에서는 제공하지 않습니다. (Meta는 오픈 소스 LLaMA를 주장하지만 여전히 신청해야 합니다.)

ChatGPT 훈련 방법의 경량 버전은 오픈 소스입니다! 단 3일 만에 LLaMA를 기반으로 구축되었으며, OpenAI보다 훈련 속도가 15배 빠르다고 합니다.

따라서 본질적으로 ChatLLaMA는 오픈 소스 ChatGPT 프로젝트가 아니라 LLaMA를 기반으로 한 교육 방법일 뿐입니다. 라이브러리에 통합된 여러 프로젝트는 원래 모두였습니다. 오픈 소스입니다.

사실 ChatLLaMA는 Meta가 만든 것이 아니라 Nebuly AI라는 AI 스타트업 회사에서 만든 것입니다.

Nebuly AI는 일련의 플러그 앤 플레이 최적화 모듈을 통합하여 AI 시스템 성능을 향상시키는 Nebullvm이라는 오픈 소스 라이브러리를 만들었습니다.

예를 들어 DeepMind의 오픈 소스 AlphaTensor 알고리즘을 기반으로 하는 OpenAlphaTensor, 하드웨어를 자동으로 감지하고 가속하는 최적화 모듈을 포함하여 현재 Nebullvm에 포함된 일부 모듈이 있습니다...

ChatGPT 훈련 방법의 경량 버전은 오픈 소스입니다! 단 3일 만에 LLaMA를 기반으로 구축되었으며, OpenAI보다 훈련 속도가 15배 빠르다고 합니다.

ChatLLaMA도 이 모듈 시리즈에 속합니다. 그러나 오픈소스 라이선스는 상업적으로 이용 가능하지 않다는 점에 유의해야 합니다. ​

그래서 "국내 자체 개발한 ChatGPT"를 직접 사용하고 싶다면 그렇게 간단하지 않을 수도 있습니다. ​

이 프로젝트를 읽고 일부 네티즌들은 LLaMA의 모델 가중치(코드)를 실제로 얻을 수 있다면 좋겠다고 말하더군요...

ChatGPT 훈련 방법의 경량 버전은 오픈 소스입니다! 단 3일 만에 LLaMA를 기반으로 구축되었으며, OpenAI보다 훈련 속도가 15배 빠르다고 합니다.

그러나 일부 네티즌들은 "생각보다 15배 빠르다"고 지적하기도 했습니다. ChatGPT 훈련 방법" 이 진술은 순전히 오해의 소지가 있습니다.

소위 15배 더 빠르다는 것은 단지 LLaMA 모델 자체가 작고 단일 GPU에서도 실행될 수 있기 때문이지만, ChatGPT에서 수행된 어떤 작업 때문이 되어서는 안 됩니다. 이 프로젝트 맞죠?

ChatGPT 훈련 방법의 경량 버전은 오픈 소스입니다! 단 3일 만에 LLaMA를 기반으로 구축되었으며, OpenAI보다 훈련 속도가 15배 빠르다고 합니다.

이 네티즌은 도서관에 있는 것보다 더 나은 trlx라는 RLHF 훈련 방법을 추천했습니다. 훈련 속도는 일반적인 RLHF 방법보다 3~4배 빠릅니다.

ChatGPT 훈련 방법의 경량 버전은 오픈 소스입니다! 단 3일 만에 LLaMA를 기반으로 구축되었으며, OpenAI보다 훈련 속도가 15배 빠르다고 합니다.

당신이 가져가세요. LLaMA 코드를 얻었나요? 이 훈련 방법에 대해 어떻게 생각하시나요?

ChatLLaMA 주소:​​​https://www.php.cn/link/fed537780f3f29cc5d5f313bbda423c4​

참조 링크:​​​https://www.php.cn/link/fe27f92b1e3f4997567807f38d567a35​

위 내용은 ChatGPT 훈련 방법의 경량 버전은 오픈 소스입니다! 단 3일 만에 LLaMA를 기반으로 구축되었으며, OpenAI보다 훈련 속도가 15배 빠르다고 합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제