찾다
기술 주변기기일체 포함Tian Yuandong 팀의 새로운 연구:

모든 사람이 계속해서 자신의 대형 모델을 업그레이드하고 반복함에 따라 LLM(Large Language Model)의 컨텍스트 창 처리 능력도 중요한 평가 지표가 되었습니다.

예를 들어 OpenAI의 gpt-3.5-turbo는 16,000개 토큰의 컨텍스트 창 옵션을 제공하고 AnthropicAI는 Claude의 토큰 처리 능력을 100,000개로 늘렸습니다. 예를 들어 GPT-4는 50페이지의 텍스트에 해당하는 32k 토큰을 지원합니다. 이는 GPT-4가 대화하거나 생성할 때 최대 약 50페이지의 콘텐츠를 기억할 수 있음을 의미합니다. 텍스트.

일반적으로 말해서, 컨텍스트 창 크기를 처리하는 대형 언어 모델의 능력은 미리 결정되어 있습니다. 예를 들어 Meta AI가 출시한 LLaMA 모델의 경우 입력 토큰 크기는 2048보다 작아야 합니다.

그러나 긴 대화를 진행하거나 긴 문서를 요약하거나 장기 계획을 실행하는 등의 응용 프로그램에서는 미리 설정된 컨텍스트 창 제한을 초과하는 경우가 많기 때문에 더 긴 컨텍스트 창을 처리할 수 있는 LLM이 더 인기가 있습니다.

그러나 이는 새로운 문제에 직면합니다. 처음부터 긴 컨텍스트 창을 사용하여 LLM을 교육하려면 많은 투자가 필요합니다. 이는 자연스럽게 다음과 같은 질문으로 이어집니다. 기존 사전 학습된 LLM의 컨텍스트 창을 확장할 수 있습니까?

간단한 접근 방식은 기존의 사전 훈련된 Transformer를 미세 조정하여 더 긴 컨텍스트 창을 얻는 것입니다. 그러나 경험적 결과에 따르면 이러한 방식으로 훈련된 모델은 긴 컨텍스트 창에 매우 느리게 적응하는 것으로 나타났습니다. 10,000개의 배치 훈련 후에 효과적인 컨텍스트 창의 증가는 2048에서 2560까지만 여전히 매우 작습니다(실험 섹션의 표 4에서 볼 수 있듯이). 이는 이 접근 방식이 더 긴 컨텍스트 창으로 확장하는 데 비효율적임을 나타냅니다.

이 기사에서 Meta의 연구원들은 사전 훈련된 일부 기존 LLM(LLaMA 포함)의 컨텍스트 창을 확장하기 위해 PI(위치 보간)을 도입했습니다. 결과는 LLaMA 컨텍스트 창의 크기가 1000단계 미만의 미세 조정을 통해 2k에서 32k로 확장된다는 것을 보여줍니다.

Tian Yuandong 팀의 새로운 연구: <1000단계 미세 조정, LLaMA 컨텍스트를 32K로 확장Pictures

논문 주소: https://arxiv.org/pdf/2306.15595.pdf

이 연구의 핵심 아이디어는 외삽을 수행하는 것이 아니라 위치를 직접적으로 줄이는 것입니다. index, 최대 위치 인덱스가 사전 훈련 단계의 컨텍스트 창 제한과 일치하도록 만듭니다. 즉, 본 연구에서는 더 많은 입력 토큰을 수용하기 위해 훈련된 위치 이상으로 외삽하는 대신 위치 인코딩이 정수가 아닌 위치에도 적용될 수 있다는 점을 활용하여 인접한 정수 위치에 위치 인코딩을 보간합니다. 후자는 재앙적인 가치로 이어질 수 있습니다.

Tian Yuandong 팀의 새로운 연구: <1000단계 미세 조정, LLaMA 컨텍스트를 32K로 확장

PI 방법은 최소한의 미세 조정(1000단계 이내)으로 RoPE(Rotation Position Encoding) 기반 사전 학습된 LLM(예: LLaMA)의 컨텍스트 창 크기를 최대 32768까지 확장합니다. 검색, 언어 모델링 및 LLaMA 7B에서 65B까지의 긴 문서 요약을 포함하여 긴 컨텍스트가 필요한 다양한 작업에 적합합니다. 동시에 PI에 의해 확장된 모델은 원래 컨텍스트 창 내에서 상대적으로 좋은 품질을 유지합니다.

Method

RoPE는 우리에게 친숙한 LLaMA, ChatGLM-6B, PaLM과 같은 대규모 언어 모델에 존재하며 Zhuiyi Technology의 Su Jianlin 등이 제안한 방법입니다. 인코딩. 상대 위치 인코딩.

RoPE의 Attention 점수는 상대 위치에만 의존하지만 추정 성능은 좋지 않습니다. 특히 더 큰 컨텍스트 창으로 직접 확장할 때 당혹감은 매우 높은 숫자(예: > 10^3)로 급증할 수 있습니다.

이 글에서는 위치보간법을 사용하였으며, 외삽법과의 비교는 다음과 같습니다. 기본 함수 ф_j의 매끄러움으로 인해 보간이 더 안정적이고 이상값으로 이어지지 않습니다.

Tian Yuandong 팀의 새로운 연구: <1000단계 미세 조정, LLaMA 컨텍스트를 32K로 확장Picture

본 연구에서는 RoPE f를 f'로 대체하여 다음 식을 얻었습니다

Tian Yuandong 팀의 새로운 연구: <1000단계 미세 조정, LLaMA 컨텍스트를 32K로 확장Picture

본 연구에서는 위치 인코딩 위치 보간에 대한 변환을 호출합니다. 이 단계에서는 RoPE를 계산하기 전 원래 인덱스 범위와 일치하도록 위치 인덱스를 [0, L')에서 [0, L)로 줄입니다. 따라서 RoPE에 대한 입력으로 두 토큰 사이의 최대 상대 거리가 L'에서 L로 감소되었습니다. 확장 전후의 위치 인덱스 범위와 상대 거리를 정렬함으로써 컨텍스트 창 확장으로 인한 주의 점수 계산에 대한 영향이 완화되어 모델을 더 쉽게 적응할 수 있습니다.

재조정 위치 인덱스 방법은 추가 가중치를 도입하지 않으며 어떤 방식으로든 모델 아키텍처를 수정하지 않는다는 점에 주목할 가치가 있습니다.

실험

이 연구는 위치 보간이 컨텍스트 창을 원래 크기의 32배까지 효과적으로 확장할 수 있으며 이 확장이 단 몇 백 번의 훈련 단계만으로 완료될 수 있음을 보여줍니다.

표 1과 표 2는 PG-19 및 Arxiv Math Proof-pile 데이터 세트에 대한 PI 모델과 기준 모델의 복잡성을 보고합니다. 결과는 PI 방법을 사용하여 확장된 모델이 더 긴 컨텍스트 창 크기에서 복잡성을 크게 개선한다는 것을 보여줍니다.

Tian Yuandong 팀의 새로운 연구: <1000단계 미세 조정, LLaMA 컨텍스트를 32K로 확장

Tian Yuandong 팀의 새로운 연구: <1000단계 미세 조정, LLaMA 컨텍스트를 32K로 확장

표 3은 PG19 데이터 세트에서 PI 방법을 사용하여 LLaMA 7B 모델을 8192 및 16384 컨텍스트 창 크기로 확장할 때 복잡성과 미세 조정 단계 수 사이의 관계를 보고합니다.

미세 조정 없이(단계 수는 0) 모델이 특정 언어 모델링 기능을 보여줄 수 있다는 결과를 볼 수 있습니다. 예를 들어 컨텍스트 창을 8192로 확장하면 당혹감이 줄어듭니다. 20보다 크다(아래와 비교하면 직접외삽법의 난해성은 10^3보다 크다). 200단계에서 모델의 복잡도는 컨텍스트 창 크기 2048에서 원래 모델의 복잡도를 초과합니다. 이는 모델이 사전 훈련된 설정보다 언어 모델링을 위해 더 긴 시퀀스를 효과적으로 활용할 수 있음을 나타냅니다. 모델의 꾸준한 개선은 1000단계에서 볼 수 있으며 더 나은 난해함도 달성됩니다.

Tian Yuandong 팀의 새로운 연구: <1000단계 미세 조정, LLaMA 컨텍스트를 32K로 확장Pictures

아래 표는 PI에 의해 확장된 모델이 유효 컨텍스트 창 크기 측면에서 확장 목표를 성공적으로 달성했음을 보여줍니다. 즉, 단 200단계의 미세 조정 후에 유효 컨텍스트 창 크기가 최대값에 도달하고 7B 및 33B 모델 크기와 최대 32768 컨텍스트 창에서 일관됩니다. 대조적으로, 직접 미세 조정에 의해서만 확장된 LLaMA 모델의 유효 컨텍스트 창 크기는 2048에서 2560으로만 증가했으며, 10000단계 이상의 미세 조정 후에도 상당한 가속 창 크기 증가의 징후는 없었습니다.

Tian Yuandong 팀의 새로운 연구: <1000단계 미세 조정, LLaMA 컨텍스트를 32K로 확장Pictures

표 5는 8192로 확장된 모델이 7B 및 33B 모델 크기에 대해 더 작은 컨텍스트 창을 위해 설계된 원래 기준 작업에 대해 비슷한 결과를 생성한다는 것을 보여줍니다. 최대 2%.

Tian Yuandong 팀의 새로운 연구: <1000단계 미세 조정, LLaMA 컨텍스트를 32K로 확장Pictures

표 6은 16384 컨텍스트 창이 있는 PI 모델이 긴 텍스트 요약 작업을 효과적으로 처리할 수 있음을 보여줍니다.

Tian Yuandong 팀의 새로운 연구: <1000단계 미세 조정, LLaMA 컨텍스트를 32K로 확장사진

위 내용은 Tian Yuandong 팀의 새로운 연구: 의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명
이 기사는 51CTO.COM에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제
생산 등급 에이전트 헝겊 파이프 라인을 모니터링하는 방법은 무엇입니까?생산 등급 에이전트 헝겊 파이프 라인을 모니터링하는 방법은 무엇입니까?Apr 12, 2025 am 09:34 AM

소개 2022 년에 Chatgpt의 출시는 기술 및 비 기술 산업 모두에 혁명을 일으켜 개인과 조직에 생성 AI를 제공했습니다. 2023 년 내내 노력은 큰 언어 모드를 활용하는 데 집중했습니다

스타 스키마로 데이터웨어 하우스를 최적화하는 방법은 무엇입니까?스타 스키마로 데이터웨어 하우스를 최적화하는 방법은 무엇입니까?Apr 12, 2025 am 09:33 AM

Star Schema는 데이터웨어 하우징 및 비즈니스 인텔리전스에 사용되는 효율적인 데이터베이스 설계입니다. 주변 치수 테이블에 연결된 중앙 사실 테이블로 데이터를 구성합니다. 이 별 모양의 구조는 복잡한 q를 단순화합니다

멀티 모달 헝겊 시스템 구축에 대한 포괄적 인 안내서멀티 모달 헝겊 시스템 구축에 대한 포괄적 인 안내서Apr 12, 2025 am 09:29 AM

Rag Systems로 더 잘 알려진 검색 증강 생성 시스템은 값 비싼 미세 튜닝의 번거 로움없이 맞춤형 엔터프라이즈 데이터에 대한 질문에 답하는 지능형 AI 보조원을 구축하는 데 필요한 표준이되었습니다.

에이전트 래그 시스템이 기술을 어떻게 변화시킬 수 있습니까?에이전트 래그 시스템이 기술을 어떻게 변화시킬 수 있습니까?Apr 12, 2025 am 09:21 AM

소개 인공 지능은 새로운 시대에 들어 왔습니다. 모델이 사전 정의 된 규칙에 따라 정보를 단순히 출력하는 시대는 지났습니다. 오늘 AI의 최첨단 접근 방식은 Rag를 중심으로 진행됩니다 (검색-augmente

자동 생성 쿼리에 대한 SQL 어시스턴트자동 생성 쿼리에 대한 SQL 어시스턴트Apr 12, 2025 am 09:13 AM

단순히 데이터베이스와 대화하고, 일반 언어로 질문을하고, 복잡한 SQL 쿼리를 작성하거나 스프레드 시트를 정렬하지 않고 즉각적인 답변을받을 수 있기를 바랐습니까? Langchain의 SQL 툴킷으로 Groq a

AI Index 2025 읽기 : AI는 친구, 적 또는 부조종사입니까?AI Index 2025 읽기 : AI는 친구, 적 또는 부조종사입니까?Apr 11, 2025 pm 12:13 PM

Stanford University Institute for Human-Oriented Intificial Intelligence가 발표 한 2025 인공 지능 지수 보고서는 진행중인 인공 지능 혁명에 대한 훌륭한 개요를 제공합니다. 인식 (무슨 일이 일어나고 있는지 이해), 감사 (혜택보기), 수용 (얼굴 도전) 및 책임 (우리의 책임 찾기)의 네 가지 간단한 개념으로 해석합시다. 인지 : 인공 지능은 어디에나 있고 빠르게 발전하고 있습니다 인공 지능이 얼마나 빠르게 발전하고 확산되고 있는지 잘 알고 있어야합니다. 인공 지능 시스템은 끊임없이 개선되어 수학 및 복잡한 사고 테스트에서 우수한 결과를 얻고 있으며 1 년 전만해도 이러한 테스트에서 비참하게 실패했습니다. AI 복잡한 코딩 문제 또는 대학원 수준의 과학적 문제를 해결한다고 상상해보십시오-2023 년 이후

Meta Llama 3.2- 분석 Vidhya를 시작합니다Meta Llama 3.2- 분석 Vidhya를 시작합니다Apr 11, 2025 pm 12:04 PM

메타의 라마 3.2 : 멀티 모달 및 모바일 AI의 도약 Meta는 최근 AI에서 강력한 비전 기능과 모바일 장치에 최적화 된 가벼운 텍스트 모델을 특징으로하는 AI의 상당한 발전 인 Llama 3.2를 공개했습니다. 성공을 바탕으로 o

AV 바이트 : Meta ' S Llama 3.2, Google의 Gemini 1.5 등AV 바이트 : Meta ' S Llama 3.2, Google의 Gemini 1.5 등Apr 11, 2025 pm 12:01 PM

이번 주 AI 환경 : 발전의 회오리 바람, 윤리적 고려 사항 및 규제 토론. OpenAi, Google, Meta 및 Microsoft와 같은 주요 플레이어

See all articles

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
3 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
3 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
3 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
WWE 2K25 : Myrise에서 모든 것을 잠금 해제하는 방법
3 몇 주 전By尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

Atom Editor Mac 버전 다운로드

Atom Editor Mac 버전 다운로드

가장 인기 있는 오픈 소스 편집기

맨티스BT

맨티스BT

Mantis는 제품 결함 추적을 돕기 위해 설계된 배포하기 쉬운 웹 기반 결함 추적 도구입니다. PHP, MySQL 및 웹 서버가 필요합니다. 데모 및 호스팅 서비스를 확인해 보세요.

ZendStudio 13.5.1 맥

ZendStudio 13.5.1 맥

강력한 PHP 통합 개발 환경

에디트플러스 중국어 크랙 버전

에디트플러스 중국어 크랙 버전

작은 크기, 구문 강조, 코드 프롬프트 기능을 지원하지 않음

SecList

SecList

SecLists는 최고의 보안 테스터의 동반자입니다. 보안 평가 시 자주 사용되는 다양한 유형의 목록을 한 곳에 모아 놓은 것입니다. SecLists는 보안 테스터에게 필요할 수 있는 모든 목록을 편리하게 제공하여 보안 테스트를 더욱 효율적이고 생산적으로 만드는 데 도움이 됩니다. 목록 유형에는 사용자 이름, 비밀번호, URL, 퍼징 페이로드, 민감한 데이터 패턴, 웹 셸 등이 포함됩니다. 테스터는 이 저장소를 새로운 테스트 시스템으로 간단히 가져올 수 있으며 필요한 모든 유형의 목록에 액세스할 수 있습니다.