>  기사  >  기술 주변기기  >  양이 곧 힘이다! Tencent는 다음과 같이 밝혔습니다. 에이전트 수가 많을수록 대규모 언어 모델의 효과가 더 좋습니다.

양이 곧 힘이다! Tencent는 다음과 같이 밝혔습니다. 에이전트 수가 많을수록 대규모 언어 모델의 효과가 더 좋습니다.

PHPz
PHPz앞으로
2024-02-29 15:55:20969검색

Tencent 연구팀은 에이전트의 확장성에 관한 연구를 진행했습니다. 그들은 간단한 샘플링 투표를 통해 인스턴스화된 에이전트의 수에 따라 LLM(대형 언어 모델)의 성능이 향상된다는 것을 발견했습니다. 본 연구에서는 처음으로 다양한 시나리오에서 이 현상의 보편성을 검증하고, 이를 다른 복잡한 방법과 비교하고, 이 현상의 원인을 탐색하고, 스케일링 효과를 더욱 발휘할 수 있는 방법을 제안했습니다.

양이 곧 힘이다! Tencent는 다음과 같이 밝혔습니다. 에이전트 수가 많을수록 대규모 언어 모델의 효과가 더 좋습니다.

  • 논문 제목: Agents All You Need

  • 논문 주소: https://arxiv.org/abs/2402.05120

  • 코드 주소: https://github.com/MoreAgentsIsAllYouNeed /More-Agents-Is-All-You-Need

이 기사에서 Tencent 연구원들은 간단한 샘플링 투표 방법을 통해 에이전트 인스턴스화로 인해 대규모 언어 모델의 성능이 향상된다는 사실을 발견했습니다. 숫자가 증가함에 따라 복잡한 다중 LLM 에이전트 협업 프레임워크와 신속한 엔지니어링 방법이 필요 없이 확장성(확장성)을 보여줍니다. 또한 이 방법은 기존의 정교한 방법과 직교하며 결합하면 작업 난이도와 관련된 수준으로 LLM을 더욱 향상시킬 수 있습니다. 본 논문에서는 원시 에이전트(복잡한 프롬프트 엔지니어링 및 협업 프레임워크에 의존하지 않는 LLM 에이전트 참조)의 확장 속성에 대한 첫 번째 연구를 수행하여 이 결과의 보편성을 검증하고 검토했습니다. 발생을 촉진할 수 있는 전략. 이제 코드가 오픈 소스로 공개되었습니다.过 다수의 소형 모델이 대형 모델을 능가합니다.
양이 곧 힘이다! Tencent는 다음과 같이 밝혔습니다. 에이전트 수가 많을수록 대규모 언어 모델의 효과가 더 좋습니다.
논문에서는 LLM의 자체 통합, 이종 LLM의 통합 및 여러 LLM 기관 협업 프레임워크를 포함하여 다양한 통합 LLM에 대해 자세히 논의했습니다. 제안한 방법과 비교하면 본 논문에서 보다 포괄적인 연구와 분석이 이루어졌음을 알 수 있다.
인스턴스화된 에이전트 수가 증가함에 따라 대규모 언어 모델의 성능이 어떻게 향상되는지 연구합니다. 이 논문에서는 간단한 샘플링 및 투표 방법을 사용합니다(저자는 이 방법이 가장 간단한 방법 중 하나일 수 있다고 생각하는 단순(st)이라는 용어를 사용합니다). 특히, 이 방법은 기존의 복잡한 방법과 직교 결합이 가능합니다. 이는 두 단계로 나눌 수 있습니다.

작업 쿼리를 단일 LLM 또는 여러 LLM 에이전트 공동 작업 프레임워크에 입력하여 여러 출력을 생성합니다. 양이 곧 힘이다! Tencent는 다음과 같이 밝혔습니다. 에이전트 수가 많을수록 대규모 언어 모델의 효과가 더 좋습니다.
다수 투표를 통해 최종 결과를 결정합니다

  • 논문에서는 평가를 위해 Llama2 및 GPT 시리즈에서 다양한 크기의 언어 모델을 선택합니다. 작업 데이터 세트는 추론 및 생성과 같은 여러 분야를 포괄합니다. 실험 결과에 따르면 LLM의 성능은 모든 작업에서 인스턴스화된 에이전트 수와 다양한 LLM 유형 및 크기에 따라 증가하는 것으로 나타났습니다.
예를 들어 GSM8K 작업에서는 12%~24%, MATH 작업에서는 6%~10%의 개선이 이루어졌습니다. 흥미롭게도 여러 개의 소규모 LLM으로 구성된 앙상블은 대규모 LLM의 성능과 일치하거나 심지어 이를 능가할 수도 있습니다.
예를 들어, 여러 개의 Llama2-13B를 통합하면 GSM8K에서 59%의 정확도를 달성하여 단일 Llama2-70B의 54% 정확도를 초과했습니다. 양이 곧 힘이다! Tencent는 다음과 같이 밝혔습니다. 에이전트 수가 많을수록 대규모 언어 모델의 효과가 더 좋습니다.
또한 저자는 다른 방법과의 호환성도 조사했습니다. 이러한 방법은 다르게 구현되지만 함께 사용하면 성능이 더욱 향상될 수 있으며, 에이전트가 인스턴스화될수록 성능 향상이 더 강해지는 현상과도 일치합니다. 실험 결과 이득 범위는 1%에서 27%까지로, 이 간단한 방법을 다른 방법과 직교하게 사용하면 LLM의 성능을 더욱 향상시킬 수 있음을 나타냅니다. A LLAMA13B 기반
양이 곧 힘이다! Tencent는 다음과 같이 밝혔습니다. 에이전트 수가 많을수록 대규모 언어 모델의 효과가 더 좋습니다.
양이 곧 힘이다! Tencent는 다음과 같이 밝혔습니다. 에이전트 수가 많을수록 대규모 언어 모델의 효과가 더 좋습니다.

기반 LLAMA70B

양이 곧 힘이다! Tencent는 다음과 같이 밝혔습니다. 에이전트 수가 많을수록 대규모 언어 모델의 효과가 더 좋습니다.

기반 GPT-3.5-Turbo 기반

게다가 논문에서도 연관성을 분석했어요 양이 곧 힘이다! Tencent는 다음과 같이 밝혔습니다. 에이전트 수가 많을수록 대규모 언어 모델의 효과가 더 좋습니다.성능 향상과 문제 난이도 사이.

본질적 난이도: 작업의 고유 난이도가 높아질수록 성능 향상(즉, 상대적 성능 향상)도 증가하지만, 난이도가 특정 수준에 도달하면 향상이 점차 감소합니다. 이는 작업이 너무 복잡하면 모델의 추론 능력이 따라가지 못해 성능 향상의 한계 효과가 감소할 수 있음을 보여줍니다.
단계 수: 작업을 해결하는 데 필요한 단계 수가 증가할수록 성능도 향상됩니다. 이는 다단계 작업에서 에이전트 수를 늘리면 모델이 각 단계를 더 잘 처리하는 데 도움이 되어 전반적인 작업 해결 성능이 향상될 수 있음을 보여줍니다.
    사전 확률: 정답의 사전 확률이 높을수록 성능 향상이 커집니다. 이는 정답이 나올 가능성이 높을 때 에이전트 수를 늘리면 성능이 크게 향상될 가능성이 높다는 것을 의미합니다.
  • 노드: 단계, 점선: 가능한 대체 단계. 노드의 깊이: 단계 수, 색상의 강도: 고유한 난이도 수준. 그림은 독자가 이러한 차원에 따라 작업 복잡성을 측정하는 방법을 이해하는 데 도움이 됩니다.
양이 곧 힘이다! Tencent는 다음과 같이 밝혔습니다. 에이전트 수가 많을수록 대규모 언어 모델의 효과가 더 좋습니다.
이를 바탕으로 본 논문에서는 방법의 효율성을 더욱 향상시키기 위한 두 가지 최적화 전략을 제안합니다.
단계별 샘플링 및 투표: 이 방법은 작업을 여러 단계로 나누고 각 단계마다 샘플링과 투표를 적용하여 누적 오류를 줄이고 전반적인 성능을 향상시킵니다.
계층적 샘플링 및 투표: 이 방법은 확률이 낮은 작업을 여러 개의 높은 확률 하위 작업으로 분해하고 이를 계층적으로 해결하는 동시에 다양한 확률의 작업을 처리하여 비용을 절감할 수 있습니다. .

  • 마지막으로 샘플링 단계를 최적화하여 비용을 절감하고 LLM 환각(환각)의 잠재적인 부정적인 영향을 완화하기 위한 관련 메커니즘을 지속적으로 개발하여 이러한 강력한 모델의 배포를 보장하는 등 향후 작업 방향이 제안됩니다. 책임감 있고 도움이됩니다.

위 내용은 양이 곧 힘이다! Tencent는 다음과 같이 밝혔습니다. 에이전트 수가 많을수록 대규모 언어 모델의 효과가 더 좋습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 jiqizhixin.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제