현대 대규모 언어 모델의 디자인, 제약 조건 및 진화를 이해하려면 이 기사의 읽기 목록을 따라가세요.
대규모 언어 모델이 대중의 관심을 끌었으며 불과 5년 만에 Transforme과 같은 모델이 자연어 처리 분야를 거의 완전히 변화시켰습니다. 또한 그들은 컴퓨터 비전 및 컴퓨터 생물학과 같은 분야에 혁명을 일으키기 시작했습니다.
Transformers가 모든 사람의 연구 과정에 큰 영향을 미친다는 점을 고려하여 이 기사에서는 기계 학습 연구자 및 실무자가 시작하는 데 도움이 되는 짧은 읽기 목록을 소개합니다.
다음 목록은 주로 일부 학술 연구 논문을 중심으로 연대순으로 확장되었습니다. 물론 그 밖에도 유용한 리소스가 많이 있습니다. 예:
- "The Illustrated Transformer" 작성자: Jay Alammar
- "The Transformer Family" 작성자: Lilian Weng
- "Transformer 모델: 소개 및 카탈로그 — 2023 Edition" 작성자: Xavier Amatriain
- nanoGPT 작성자: Andrej Karpathy Library
주요 아키텍처 및 작업 이해
Transformers 및 대규모 언어 모델을 처음 사용하는 경우 이 기사가 가장 적합합니다.
논문 1: "정렬 및 번역을 공동 학습하여 신경 기계 번역"
논문 주소: https://arxiv.org/pdf/1409.0473.pdf
이 기사에서는 순환 신경 네트워크(RNN) 주의 메커니즘은 모델의 장거리 시퀀스 모델링 기능을 향상시킵니다. 이를 통해 RNN은 더 긴 문장을 더 정확하게 번역할 수 있습니다. 이는 원래 Transformer 아키텍처 개발의 동기입니다.
이미지 출처: https://arxiv.org/abs/1409.0473
문서 2: "Attention is All You Need"
문서 주소: https://arxiv.org /abs/1706.03762
이 기사에서는 인코더와 디코더로 구성된 원래의 Transformer 아키텍처를 소개합니다. 이러한 부분은 향후 별도의 모듈로 소개될 예정입니다. 또한 이 기사에서는 여전히 현대 Transformers의 기초가 되는 스케일링 내적 주의 메커니즘, 다중 헤드 주의 블록 및 위치 입력 인코딩과 같은 개념을 소개합니다.
이미지 출처: https://arxiv.org/abs/1706.03762
논문 3: "BERT: 언어 이해를 위한 심층 양방향 변환기 사전 훈련"
논문 주소 : https://arxiv.org/abs/1810.04805
대규모 언어 모델 연구는 초기 Transformer 아키텍처를 따랐으며 이후 두 가지 방향으로 확장되기 시작했습니다. 예측 모델링 작업(예: 텍스트 분류)을 위한 Transformer와 생성을 위한 Transformer 번역, 요약 및 기타 형태의 텍스트 생성과 같은 모듈식 작업을 위한 Transformer입니다.
BERT 논문은 마스크된 언어 모델링의 원래 개념을 소개합니다. 이 연구 분야에 관심이 있다면 사전 학습 목표를 단순화하는 RoBERTa를 따라갈 수 있습니다.
이미지 출처: https://arxiv.org/abs/1810.04805
논문 4: "생성 사전 훈련을 통한 언어 이해 향상"
논문 주소: https:// www.semanticscholar.org/paper/Improving-Language-Understanding-by-Generative-Radford-Narasimhan/cd18800a0fe0b668a1cc19f2ec95b5003d0a5035
원본 GPT 논문에서는 인기 있는 디코더 스타일 아키텍처와 다음 단어 예측을 통한 사전 훈련을 소개했습니다. BERT는 마스크된 언어 모델 사전 학습 목표로 인해 양방향 변환기로 간주될 수 있는 반면, GPT는 단방향 자동 회귀 모델입니다. GPT 임베딩을 분류에 사용할 수도 있지만 GPT 방법은 ChatGPT와 같은 오늘날 가장 영향력 있는 LLM의 핵심입니다.
이 연구 분야에 관심이 있다면 GPT-2 및 GPT-3 논문에 대한 후속 조치를 취할 수 있습니다. 또한, 이 글에서는 InstructGPT 방법을 나중에 별도로 소개하겠습니다.
문서 5: "BART: 자연어 생성, 번역 및 이해를 위한 시퀀스-시퀀스 사전 훈련"
논문 주소 https://arxiv.org/abs/1910.13461.
위에서 언급했듯이 일반적으로 예측 모델링 작업에는 BERT 유형 인코더 스타일 LLM이 선호되는 반면, 텍스트 생성에는 GPT 유형 디코더 스타일 LLM이 더 좋습니다. 두 가지 장점을 모두 활용하기 위해 위의 BART 문서는 인코더와 디코더 부분을 결합합니다.
팽창법칙과 효율향상
트랜스포머의 효율을 높이는 기술에 대해 더 알고 싶다면 다음 논문을 참고하세요
- 제1편 "트랜스포머의 효율적인 훈련에 관한 조사"
- 논문 주소: https://arxiv.org/abs/2302.01107
- 논문 2: "FlashAttention: IO 인식을 통한 빠르고 메모리 효율적인 정확한 주의"
- 논문 주소: https:// arxiv.org /abs/2205.14135
- 문서 3: "Cramming: 하루 만에 단일 GPU에서 언어 모델 훈련"
- 문서 주소: https://arxiv.org/abs/2212.14034
- 문서 4: "컴퓨팅 최적의 대형 언어 모델 교육"
- 논문 주소: https://arxiv.org/abs/2203.15556
또한 "컴퓨팅 최적화 교육"이라는 논문도 있습니다. Large Language Models"
논문 주소: https://arxiv.org/abs/2203.15556
이 문서에서는 생성 모델링 작업에서 인기 있는 1,750억 매개변수 GPT-3 모델보다 뛰어난 700억 매개변수 Chinchilla 모델을 소개합니다. 그러나 가장 중요한 점은 현대의 대규모 언어 모델이 심각하게 훈련이 부족하다는 것입니다.
이 문서에서는 대규모 언어 모델 훈련을 위한 선형 확장 법칙을 정의합니다. 예를 들어 Chinchilla는 크기가 GPT-3의 절반이지만 1조 4천억 개(3천억 개가 아닌) 토큰으로 훈련되었기 때문에 GPT-3보다 성능이 뛰어납니다. 즉, 훈련 토큰의 개수는 모델 크기만큼 중요합니다.
정렬 - 원하는 목표와 관심 사항을 향해 대규모 언어 모델 조정
최근에는 실제 텍스트를 생성할 수 있는 상대적으로 강력한 대규모 언어 모델이 많이 등장했습니다(GPT-3 및 Chinchilla 등). 일반적으로 사용되는 사전 훈련 패러다임으로는 상한선에 도달한 것으로 보입니다.
언어 모델을 인간에게 더 유용하게 만들고 잘못된 정보와 나쁜 언어를 줄이기 위해 연구자들은 다음 논문을 포함하여 사전 훈련된 기본 모델을 미세 조정하기 위한 추가 훈련 패러다임을 설계했습니다.
- 논문 1: "사람의 피드백으로 지침을 따르도록 언어 모델 훈련"
- 논문 주소: https://arxiv.org/abs/2203.02155
이 소위 InstructGPT 논문에서 연구자들은 RLHF(Reinforcement Learning)를 사용했습니다. 인간 피드백에서). 그들은 사전 훈련된 GPT-3 기본 모델로 시작하여 지도 학습(1단계)을 사용하여 인간이 생성한 큐-응답 쌍에서 이를 더욱 미세 조정했습니다. 다음으로 보상 모델을 훈련하기 위해 모델 출력의 순위를 매기도록 인간에게 요청했습니다(2단계). 마지막으로 보상 모델을 사용하여 근위 정책 최적화를 통한 강화 학습을 사용하여 사전 훈련되고 미세 조정된 GPT-3 모델을 업데이트합니다(3단계).
그런데 이 논문은 ChatGPT의 아이디어를 설명하는 논문으로도 알려져 있습니다. 최근 소문에 따르면 ChatGPT는 더 큰 데이터 세트에서 미세 조정된 InstructGPT의 확장 버전입니다.
- 논문 2: "헌법적 AI: AI 피드백의 무해함"
- 논문 주소: https://arxiv.org/abs/2212.08073
이 논문에서 연구자들은 정렬 아이디어를 더욱 발전시키고 A 훈련을 제안합니다. "무해한" AI 시스템을 만드는 메커니즘. 연구자들은 인간의 직접적인 감독이 아닌 (인간이 제공한) 규칙 목록을 기반으로 한 자가 훈련 메커니즘을 제안했습니다. 위에서 언급한 InstructGPT 논문과 유사하게 제안하는 방법은 강화학습 방법을 사용합니다.
요약
이 글은 위의 테이블 배열을 최대한 단순하고 아름답게 유지하려고 노력합니다. 현대 대규모의 디자인, 한계 및 진화를 이해하려면 처음 10개의 논문에 집중하는 것이 좋습니다. 언어 모델.
더 깊게 읽고 싶다면 위 논문의 참고문헌을 참고하는 것이 좋습니다. 또는 독자가 추가로 조사할 수 있는 추가 리소스는 다음과 같습니다.
GPT에 대한 오픈 소스 대안
- 논문 1: "BLOOM: 176B 매개변수 개방형 액세스 다국어 모델"
- 논문 주소: https: / /arxiv.org/abs/2211.05100
- 문서 2: "OPT: 사전 훈련된 Transformer 언어 모델 열기"
- 문서 주소: https://arxiv.org/abs/2205.01068
대안 to ChatGPT
- 문서 1 "LaMDA: 대화 상자 응용 프로그램을 위한 언어 모델"
- 문서 주소: https://arxiv.org/abs/2201.08239
- 문서 2: "대화 정렬 개선" 에이전트 목표로 삼은 인간 판단을 통해》
- 논문 주소: https://arxiv.org/abs/2209.14375
- 논문 3: "BlenderBot 3: 책임감 있게 참여하는 방법을 지속적으로 학습하는 배포된 대화 에이전트"
- 논문 주소 : https://arxiv.org/abs/2208.03188
전산 생물학의 대규모 언어 모델
- 논문 1: "ProtTrans: 자기 지도 학습을 통해 생명 코드의 언어 해독을 향하여"
- 논문 주소: https://arxiv.org/abs/2007.06225
- 논문 2: "AlphaFold를 이용한 매우 정확한 단백질 구조 예측"
- 논문 주소: https://www.nature.com/articles/s41586 -021-03819-2
- 논문 3: "대규모 언어 모델은 다양한 가족에 걸쳐 기능성 단백질 서열을 생성합니다"
- 논문 주소: https://www.nature.com/articles/s41587-022- 01618 -2
위 내용은 대규모 언어 모델에 대한 포괄적인 이해를 위한 읽기 목록은 다음과 같습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

소개 매일 몇 주 만에 작물의 진행 상황을 관찰하는 농부가 있다고 가정합니다. 그는 성장률을보고 몇 주 안에 식물이 얼마나 키가 커질 수 있는지에 대해 숙고하기 시작합니다. Th

Soft AI-대략적인 추론, 패턴 인식 및 유연한 의사 결정을 사용하여 구체적이고 좁은 작업을 수행하도록 설계된 AI 시스템으로 정의 된 것은 모호성을 수용하여 인간과 같은 사고를 모방하려고합니다. 그러나 이것이 바이러스의 의미는 무엇입니까?

클라우드 컴퓨팅이 클라우드 네이티브 보안 도구로의 전환이 필요했기 때문에 AI는 AI의 고유 한 요구를 위해 특별히 설계된 새로운 유형의 보안 솔루션을 요구합니다. 클라우드 컴퓨팅 및 보안 수업의 상승이 배웠습니다 th

기업가와 AI 및 생성 AI를 사용하여 비즈니스를 개선합니다. 동시에, 모든 기술과 마찬가지로 생성 AI를 기억하는 것이 중요합니다. 앰프는 앰프입니다. 엄격한 2024 연구 o

임베딩 모델의 힘 잠금 해제 : Andrew Ng의 새로운 코스에 대한 깊은 다이빙 기계가 완벽한 정확도로 질문을 이해하고 응답하는 미래를 상상해보십시오. 이것은 공상 과학이 아닙니다. AI의 발전 덕분에 R이되었습니다

대형 언어 모델 (LLM) 및 환각의 피할 수없는 문제 Chatgpt, Claude 및 Gemini와 같은 AI 모델을 사용했을 것입니다. 이들은 대규모 텍스트 데이터 세트에 대해 교육을받은 강력한 AI 시스템의 대형 언어 모델 (LLM)의 예입니다.

최근의 연구에 따르면 AI 개요는 산업 및 검색 유형에 따라 유기 트래픽이 15-64% 감소 할 수 있습니다. 이러한 급격한 변화로 인해 마케팅 담당자는 디지털 가시성에 관한 전체 전략을 재고하게합니다. 새로운

Elon University의 Digital Future Center를 상상 한 최근 보고서는 거의 300 명의 글로벌 기술 전문가를 조사했습니다. 결과적인 보고서 인‘2035 년에 인간이되는 것’은 대부분 AI 시스템의 심화가 T에 대한 우려가 있다고 결론지었습니다.


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

mPDF
mPDF는 UTF-8로 인코딩된 HTML에서 PDF 파일을 생성할 수 있는 PHP 라이브러리입니다. 원저자인 Ian Back은 자신의 웹 사이트에서 "즉시" PDF 파일을 출력하고 다양한 언어를 처리하기 위해 mPDF를 작성했습니다. HTML2FPDF와 같은 원본 스크립트보다 유니코드 글꼴을 사용할 때 속도가 느리고 더 큰 파일을 생성하지만 CSS 스타일 등을 지원하고 많은 개선 사항이 있습니다. RTL(아랍어, 히브리어), CJK(중국어, 일본어, 한국어)를 포함한 거의 모든 언어를 지원합니다. 중첩된 블록 수준 요소(예: P, DIV)를 지원합니다.

Atom Editor Mac 버전 다운로드
가장 인기 있는 오픈 소스 편집기

에디트플러스 중국어 크랙 버전
작은 크기, 구문 강조, 코드 프롬프트 기능을 지원하지 않음

PhpStorm 맥 버전
최신(2018.2.1) 전문 PHP 통합 개발 도구

WebStorm Mac 버전
유용한 JavaScript 개발 도구
