>  기사  >  기술 주변기기  >  대규모 AI 모델이 자율적으로 질문하도록 허용: GPT-4는 인간과 대화하는 데 대한 장벽을 허물고 더 높은 수준의 성능을 보여줍니다.

대규모 AI 모델이 자율적으로 질문하도록 허용: GPT-4는 인간과 대화하는 데 대한 장벽을 허물고 더 높은 수준의 성능을 보여줍니다.

WBOY
WBOY앞으로
2023-11-13 08:26:321063검색

인공지능 분야의 최신 트렌드에서는 인공적으로 생성된 프롬프트의 품질이 LLM(대형 언어 모델)의 응답 정확도에 결정적인 영향을 미칩니다. OpenAI는 이러한 대규모 언어 모델의 성능에 정확하고 상세하며 구체적인 질문이 중요하다고 제안합니다. 그러나 일반 사용자가 LLM에 대한 질문이 충분히 명확하다고 확신할 수 있습니까?

다시 작성해야 할 내용은 다음과 같습니다. 특정 상황에 대한 인간의 자연스러운 이해와 기계 해석 사이에는 상당한 차이가 있다는 점에 주목할 가치가 있습니다. 예를 들어, "짝수 달"이라는 개념은 분명히 인간에게는 2월, 4월과 같은 달을 의미하지만, GPT-4는 일수가 짝수인 달로 오해할 수도 있습니다. 이는 일상적인 맥락을 이해하는 데 있어 인공지능의 한계를 드러낼 뿐만 아니라, 이러한 대규모 언어 모델과 보다 효과적으로 의사소통하는 방법에 대해 생각해 보도록 유도합니다. 인공지능 기술이 지속적으로 발전함에 따라, 언어 이해에 있어서 인간과 기계 사이의 격차를 어떻게 메울 것인가는 향후 연구의 중요한 주제입니다

이 문제에 대해 캘리포니아 대학 Gu Quanquan 교수가 이끄는 종합 연구소는 , 로스앤젤레스(UCLA) 인공지능연구소(Artificial Intelligence Laboratory)가 대규모 언어 모델(예: GPT-4)의 문제 이해에 있어 모호성 문제에 대한 혁신적인 솔루션을 제안하는 연구 보고서를 발표했습니다. 이 연구는 박사 과정 학생들 Deng Yihe, Zhang Weitong 및 Chen Zixiang

대규모 AI 모델이 자율적으로 질문하도록 허용: GPT-4는 인간과 대화하는 데 대한 장벽을 허물고 더 높은 수준의 성능을 보여줍니다.


  • paper 주소에 의해 완료되었습니다. 주소 : https://uclaml.github.io/Rephrase-and-Respond
  • 다시 작성된 중국어 콘텐츠는 다음과 같습니다. 이 솔루션의 핵심은 대규모 언어 모델이 제기된 질문을 반복하고 확장하도록 하는 것입니다. 답변의 정확성을 높이기 위해. 연구 결과, GPT-4에서 재구성한 질문이 더욱 자세해지고 질문 형식이 더욱 명확해진 것으로 나타났습니다. 이러한 재진술 및 확장 방법은 모델의 답변 정확도를 크게 향상시킵니다. 실험에 따르면 잘 연습된 질문은 답변의 정확도를 50%에서 거의 100%까지 증가시키는 것으로 나타났습니다. 이러한 성능 향상은 대규모 언어 모델의 자체 개선 가능성을 보여줄 뿐만 아니라 인공 지능이 인간 언어를 보다 효과적으로 처리하고 이해할 수 있는 방법에 대한 새로운 관점을 제공합니다. 간단하지만 효과적인 프롬프트: "질문을 바꿔서 확장하고, 응답하세요"(줄여서 RaR). 이 프롬프트 단어는 질문에 대한 LLM의 답변 품질을 직접적으로 향상시켜 문제 처리에 있어 중요한 개선을 보여줍니다.

연구팀은 GPT-4와 같은 대형 모델의 능력을 최대한 활용하여 문제를 다시 설명하기 위해 "Two-step RaR"이라는 RaR의 변형도 제안했습니다. 이 접근 방식은 두 단계를 따릅니다. 첫째, 특정 질문에 대해 전문적인 표현 변경 LLM을 사용하여 표현 변경 질문을 생성하고, 두 번째로 원래 질문과 변경된 질문을 결합하여 응답 LLM에 답변을 요청하는 데 사용합니다.

Results

대규모 AI 모델이 자율적으로 질문하도록 허용: GPT-4는 인간과 대화하는 데 대한 장벽을 허물고 더 높은 수준의 성능을 보여줍니다.

연구원들은 다양한 작업에 대한 실험을 수행했으며 그 결과 단일 단계 RaR과 2단계 RaR 모두 GPT4의 답변 정확도를 효과적으로 향상시킬 수 있는 것으로 나타났습니다. 특히 RaR은 GPT-4에서는 어려울 수 있는 작업에 대해 상당한 개선을 보여 어떤 경우에는 정확도가 100%에 가까워졌습니다. 연구팀은 다음 두 가지 주요 결론을 요약했습니다.

대규모 AI 모델이 자율적으로 질문하도록 허용: GPT-4는 인간과 대화하는 데 대한 장벽을 허물고 더 높은 수준의 성능을 보여줍니다.1. RaR(Restate and Extend)은 다양한 작업에서 LLM의 성능을 효과적으로 향상시킬 수 있는 플러그 앤 플레이 블랙박스 프롬프트 방법을 제공합니다.

2. 질문 답변(QA) 작업에 대한 LLM의 성과를 평가할 때 질문의 품질을 확인하는 것이 중요합니다.

대규모 AI 모델이 자율적으로 질문하도록 허용: GPT-4는 인간과 대화하는 데 대한 장벽을 허물고 더 높은 수준의 성능을 보여줍니다.

연구원들은 Two-step RaR 방법을 사용하여 GPT-4, GPT-3.5 및 Vicuna-13b-v.15와 같은 다양한 모델의 성능을 탐색하는 연구를 수행했습니다. 실험 결과에 따르면 GPT-4와 같이 더 복잡한 아키텍처와 강력한 처리 기능을 갖춘 모델의 경우 RaR 방법이 문제 처리의 정확성과 효율성을 크게 향상시킬 수 있습니다. Vicuna와 같은 단순한 모델의 경우 개선 정도는 작지만 여전히 RaR 전략의 효율성을 보여줍니다. 이를 바탕으로 연구자들은 다양한 모델을 다시 말한 후 질문의 질을 추가로 조사했습니다. 더 작은 모델에 대한 재진술 질문은 때때로 질문의 의도를 방해할 수 있습니다. 그리고 GPT-4와 같은 고급 모델은 인간의 의도와 일치하고 다른 모델의 답변을 향상시킬 수 있는 의역 질문을 제공합니다

대규모 AI 모델이 자율적으로 질문하도록 허용: GPT-4는 인간과 대화하는 데 대한 장벽을 허물고 더 높은 수준의 성능을 보여줍니다.

이 발견은 중요한 현상을 드러냅니다. 언어 모델 의역의 수준이 다릅니다. 유효성. 특히 GPT-4와 같은 고급 모델의 경우, 다시 언급되는 문제는 문제에 대한 보다 명확한 이해를 제공할 뿐만 아니라 다른 소형 모델의 성능을 향상시키기 위한 효과적인 입력 역할을 할 수도 있습니다.

CoT(사고 사슬)와의 차이점

RaR과 CoT(사고 사슬)의 차이점을 이해하기 위해 연구자들은 수학적 표현을 제안하고 RaR이 CoT와 수학적으로 어떻게 다른지, 그리고 얼마나 쉽게 결합됩니다.

대규모 AI 모델이 자율적으로 질문하도록 허용: GPT-4는 인간과 대화하는 데 대한 장벽을 허물고 더 높은 수준의 성능을 보여줍니다.

본 연구에서는 모델의 추론 능력을 향상시키는 방법을 살펴보기에 앞서 모델의 추론 능력을 올바르게 평가할 수 있도록 질문의 질을 개선해야 함을 지적합니다. 예를 들어, '동전 뒤집기' 문제에서 GPT-4는 '뒤집기'를 인간의 의도와는 다른 무작위로 던지는 행위로 이해한 것으로 나타났습니다. 추론에서 모델을 안내하기 위해 "단계적으로 생각해보자"를 사용하더라도 이러한 오해는 추론 과정에서 여전히 지속됩니다. 질문을 명확히 한 후에야 대형 언어 모델이 의도한 질문에 대답했습니다

대규모 AI 모델이 자율적으로 질문하도록 허용: GPT-4는 인간과 대화하는 데 대한 장벽을 허물고 더 높은 수준의 성능을 보여줍니다.

또한 연구원들은 질문 텍스트 외에도 소수 CoT에 사용된 Q&A 예제도 인간이 작성한 것임을 발견했습니다. 이는 다음과 같은 질문을 제기합니다. 인위적으로 구성된 예제에 결함이 있을 때 LLM(대형 언어 모델)은 어떻게 반응합니까? 이 연구는 흥미로운 예를 제공하며 불량한 Few-Shot CoT 예가 LLM에 부정적인 영향을 미칠 수 있음을 발견했습니다. "Final Letter Join" 작업을 예로 들면, 이전에 사용된 문제 예제는 모델 성능 향상에 긍정적인 효과를 보여주었습니다. 하지만 마지막 글자 찾기에서 첫 글자 찾기로 프롬프트 로직이 바뀌자 GPT-4는 잘못된 답을 내놨다. 이 현상은 인공 사례에 대한 모델의 민감도를 강조합니다.

대규모 AI 모델이 자율적으로 질문하도록 허용: GPT-4는 인간과 대화하는 데 대한 장벽을 허물고 더 높은 수준의 성능을 보여줍니다.

연구원들은 RaR을 사용하면 GPT-4가 주어진 예에서 논리적 결함을 수정하여 소수의 CoT의 품질과 견고성을 향상시킬 수 있음을 발견했습니다.

결론

인간과 대규모 간의 통신 언어 모델(LLM)은 오해될 수 있습니다. 인간에게는 명확해 보이는 질문이 대규모 언어 모델에서는 다른 것으로 이해될 수 있습니다. UCLA 연구팀은 LLM이 질문에 답하기 전에 질문을 다시 언급하고 명확하게 하는 새로운 방법인 RaR을 제안하여 이 문제를 해결했습니다.

RaR의 효과는 여러 벤치마크 데이터 세트에 대한 실험을 통해 입증되었습니다. 평가에서 확인되었습니다. 추가 분석 결과 문제를 다시 언급하면 ​​문제 품질이 향상될 수 있으며, 이러한 개선 효과는 다른 모델 간에도 전달될 수 있음을 보여줍니다

향후 전망에서는 RaR과 유사한 방법이 지속적으로 개선될 것으로 예상되며, 동시에 CoT와 같은 다른 방법과의 통합은 인간과 대규모 언어 모델 간의 상호 작용에 대한 보다 정확하고 효율적인 방법을 제공하여 궁극적으로 AI 설명 및 추론 기능의 경계를 확장합니다

위 내용은 대규모 AI 모델이 자율적으로 질문하도록 허용: GPT-4는 인간과 대화하는 데 대한 장벽을 허물고 더 높은 수준의 성능을 보여줍니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제