인공지능 분야의 최신 트렌드에서는 인공적으로 생성된 프롬프트의 품질이 LLM(대형 언어 모델)의 응답 정확도에 결정적인 영향을 미칩니다. OpenAI는 이러한 대규모 언어 모델의 성능에 정확하고 상세하며 구체적인 질문이 중요하다고 제안합니다. 그러나 일반 사용자가 LLM에 대한 질문이 충분히 명확하다고 확신할 수 있습니까?
다시 작성해야 할 내용은 다음과 같습니다. 특정 상황에 대한 인간의 자연스러운 이해와 기계 해석 사이에는 상당한 차이가 있다는 점에 주목할 가치가 있습니다. 예를 들어, "짝수 달"이라는 개념은 분명히 인간에게는 2월, 4월과 같은 달을 의미하지만, GPT-4는 일수가 짝수인 달로 오해할 수도 있습니다. 이는 일상적인 맥락을 이해하는 데 있어 인공지능의 한계를 드러낼 뿐만 아니라, 이러한 대규모 언어 모델과 보다 효과적으로 의사소통하는 방법에 대해 생각해 보도록 유도합니다. 인공지능 기술이 지속적으로 발전함에 따라, 언어 이해에 있어서 인간과 기계 사이의 격차를 어떻게 메울 것인가는 향후 연구의 중요한 주제입니다
이 문제에 대해 캘리포니아 대학 Gu Quanquan 교수가 이끄는 종합 연구소는 , 로스앤젤레스(UCLA) 인공지능연구소(Artificial Intelligence Laboratory)가 대규모 언어 모델(예: GPT-4)의 문제 이해에 있어 모호성 문제에 대한 혁신적인 솔루션을 제안하는 연구 보고서를 발표했습니다. 이 연구는 박사 과정 학생들 Deng Yihe, Zhang Weitong 및 Chen Zixiang
- paper 주소에 의해 완료되었습니다. 주소 : https://uclaml.github.io/Rephrase-and-Respond
- 다시 작성된 중국어 콘텐츠는 다음과 같습니다. 이 솔루션의 핵심은 대규모 언어 모델이 제기된 질문을 반복하고 확장하도록 하는 것입니다. 답변의 정확성을 높이기 위해. 연구 결과, GPT-4에서 재구성한 질문이 더욱 자세해지고 질문 형식이 더욱 명확해진 것으로 나타났습니다. 이러한 재진술 및 확장 방법은 모델의 답변 정확도를 크게 향상시킵니다. 실험에 따르면 잘 연습된 질문은 답변의 정확도를 50%에서 거의 100%까지 증가시키는 것으로 나타났습니다. 이러한 성능 향상은 대규모 언어 모델의 자체 개선 가능성을 보여줄 뿐만 아니라 인공 지능이 인간 언어를 보다 효과적으로 처리하고 이해할 수 있는 방법에 대한 새로운 관점을 제공합니다. 간단하지만 효과적인 프롬프트: "질문을 바꿔서 확장하고, 응답하세요"(줄여서 RaR). 이 프롬프트 단어는 질문에 대한 LLM의 답변 품질을 직접적으로 향상시켜 문제 처리에 있어 중요한 개선을 보여줍니다.
연구팀은 GPT-4와 같은 대형 모델의 능력을 최대한 활용하여 문제를 다시 설명하기 위해 "Two-step RaR"이라는 RaR의 변형도 제안했습니다. 이 접근 방식은 두 단계를 따릅니다. 첫째, 특정 질문에 대해 전문적인 표현 변경 LLM을 사용하여 표현 변경 질문을 생성하고, 두 번째로 원래 질문과 변경된 질문을 결합하여 응답 LLM에 답변을 요청하는 데 사용합니다.
Results
연구원들은 다양한 작업에 대한 실험을 수행했으며 그 결과 단일 단계 RaR과 2단계 RaR 모두 GPT4의 답변 정확도를 효과적으로 향상시킬 수 있는 것으로 나타났습니다. 특히 RaR은 GPT-4에서는 어려울 수 있는 작업에 대해 상당한 개선을 보여 어떤 경우에는 정확도가 100%에 가까워졌습니다. 연구팀은 다음 두 가지 주요 결론을 요약했습니다.
1. RaR(Restate and Extend)은 다양한 작업에서 LLM의 성능을 효과적으로 향상시킬 수 있는 플러그 앤 플레이 블랙박스 프롬프트 방법을 제공합니다.
2. 질문 답변(QA) 작업에 대한 LLM의 성과를 평가할 때 질문의 품질을 확인하는 것이 중요합니다.
연구원들은 Two-step RaR 방법을 사용하여 GPT-4, GPT-3.5 및 Vicuna-13b-v.15와 같은 다양한 모델의 성능을 탐색하는 연구를 수행했습니다. 실험 결과에 따르면 GPT-4와 같이 더 복잡한 아키텍처와 강력한 처리 기능을 갖춘 모델의 경우 RaR 방법이 문제 처리의 정확성과 효율성을 크게 향상시킬 수 있습니다. Vicuna와 같은 단순한 모델의 경우 개선 정도는 작지만 여전히 RaR 전략의 효율성을 보여줍니다. 이를 바탕으로 연구자들은 다양한 모델을 다시 말한 후 질문의 질을 추가로 조사했습니다. 더 작은 모델에 대한 재진술 질문은 때때로 질문의 의도를 방해할 수 있습니다. 그리고 GPT-4와 같은 고급 모델은 인간의 의도와 일치하고 다른 모델의 답변을 향상시킬 수 있는 의역 질문을 제공합니다
이 발견은 중요한 현상을 드러냅니다. 언어 모델 의역의 수준이 다릅니다. 유효성. 특히 GPT-4와 같은 고급 모델의 경우, 다시 언급되는 문제는 문제에 대한 보다 명확한 이해를 제공할 뿐만 아니라 다른 소형 모델의 성능을 향상시키기 위한 효과적인 입력 역할을 할 수도 있습니다.
CoT(사고 사슬)와의 차이점
RaR과 CoT(사고 사슬)의 차이점을 이해하기 위해 연구자들은 수학적 표현을 제안하고 RaR이 CoT와 수학적으로 어떻게 다른지, 그리고 얼마나 쉽게 결합됩니다.
본 연구에서는 모델의 추론 능력을 향상시키는 방법을 살펴보기에 앞서 모델의 추론 능력을 올바르게 평가할 수 있도록 질문의 질을 개선해야 함을 지적합니다. 예를 들어, '동전 뒤집기' 문제에서 GPT-4는 '뒤집기'를 인간의 의도와는 다른 무작위로 던지는 행위로 이해한 것으로 나타났습니다. 추론에서 모델을 안내하기 위해 "단계적으로 생각해보자"를 사용하더라도 이러한 오해는 추론 과정에서 여전히 지속됩니다. 질문을 명확히 한 후에야 대형 언어 모델이 의도한 질문에 대답했습니다
또한 연구원들은 질문 텍스트 외에도 소수 CoT에 사용된 Q&A 예제도 인간이 작성한 것임을 발견했습니다. 이는 다음과 같은 질문을 제기합니다. 인위적으로 구성된 예제에 결함이 있을 때 LLM(대형 언어 모델)은 어떻게 반응합니까? 이 연구는 흥미로운 예를 제공하며 불량한 Few-Shot CoT 예가 LLM에 부정적인 영향을 미칠 수 있음을 발견했습니다. "Final Letter Join" 작업을 예로 들면, 이전에 사용된 문제 예제는 모델 성능 향상에 긍정적인 효과를 보여주었습니다. 하지만 마지막 글자 찾기에서 첫 글자 찾기로 프롬프트 로직이 바뀌자 GPT-4는 잘못된 답을 내놨다. 이 현상은 인공 사례에 대한 모델의 민감도를 강조합니다.
연구원들은 RaR을 사용하면 GPT-4가 주어진 예에서 논리적 결함을 수정하여 소수의 CoT의 품질과 견고성을 향상시킬 수 있음을 발견했습니다.
결론
인간과 대규모 간의 통신 언어 모델(LLM)은 오해될 수 있습니다. 인간에게는 명확해 보이는 질문이 대규모 언어 모델에서는 다른 것으로 이해될 수 있습니다. UCLA 연구팀은 LLM이 질문에 답하기 전에 질문을 다시 언급하고 명확하게 하는 새로운 방법인 RaR을 제안하여 이 문제를 해결했습니다.
RaR의 효과는 여러 벤치마크 데이터 세트에 대한 실험을 통해 입증되었습니다. 평가에서 확인되었습니다. 추가 분석 결과 문제를 다시 언급하면 문제 품질이 향상될 수 있으며, 이러한 개선 효과는 다른 모델 간에도 전달될 수 있음을 보여줍니다
향후 전망에서는 RaR과 유사한 방법이 지속적으로 개선될 것으로 예상되며, 동시에 CoT와 같은 다른 방법과의 통합은 인간과 대규모 언어 모델 간의 상호 작용에 대한 보다 정확하고 효율적인 방법을 제공하여 궁극적으로 AI 설명 및 추론 기능의 경계를 확장합니다
위 내용은 대규모 AI 모델이 자율적으로 질문하도록 허용: GPT-4는 인간과 대화하는 데 대한 장벽을 허물고 더 높은 수준의 성능을 보여줍니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

1 前言在发布DALL·E的15个月后,OpenAI在今年春天带了续作DALL·E 2,以其更加惊艳的效果和丰富的可玩性迅速占领了各大AI社区的头条。近年来,随着生成对抗网络(GAN)、变分自编码器(VAE)、扩散模型(Diffusion models)的出现,深度学习已向世人展现其强大的图像生成能力;加上GPT-3、BERT等NLP模型的成功,人类正逐步打破文本和图像的信息界限。在DALL·E 2中,只需输入简单的文本(prompt),它就可以生成多张1024*1024的高清图像。这些图像甚至

“Making large models smaller”这是很多语言模型研究人员的学术追求,针对大模型昂贵的环境和训练成本,陈丹琦在智源大会青源学术年会上做了题为“Making large models smaller”的特邀报告。报告中重点提及了基于记忆增强的TRIME算法和基于粗细粒度联合剪枝和逐层蒸馏的CofiPruning算法。前者能够在不改变模型结构的基础上兼顾语言模型困惑度和检索速度方面的优势;而后者可以在保证下游任务准确度的同时实现更快的处理速度,具有更小的模型结构。陈丹琦 普

Wav2vec 2.0 [1],HuBERT [2] 和 WavLM [3] 等语音预训练模型,通过在多达上万小时的无标注语音数据(如 Libri-light )上的自监督学习,显著提升了自动语音识别(Automatic Speech Recognition, ASR),语音合成(Text-to-speech, TTS)和语音转换(Voice Conversation,VC)等语音下游任务的性能。然而这些模型都没有公开的中文版本,不便于应用在中文语音研究场景。 WenetSpeech [4] 是

由于复杂的注意力机制和模型设计,大多数现有的视觉 Transformer(ViT)在现实的工业部署场景中不能像卷积神经网络(CNN)那样高效地执行。这就带来了一个问题:视觉神经网络能否像 CNN 一样快速推断并像 ViT 一样强大?近期一些工作试图设计 CNN-Transformer 混合架构来解决这个问题,但这些工作的整体性能远不能令人满意。基于此,来自字节跳动的研究者提出了一种能在现实工业场景中有效部署的下一代视觉 Transformer——Next-ViT。从延迟 / 准确性权衡的角度看,

3月27号,Stability AI的创始人兼首席执行官Emad Mostaque在一条推文中宣布,Stable Diffusion XL 现已可用于公开测试。以下是一些事项:“XL”不是这个新的AI模型的官方名称。一旦发布稳定性AI公司的官方公告,名称将会更改。与先前版本相比,图像质量有所提高与先前版本相比,图像生成速度大大加快。示例图像让我们看看新旧AI模型在结果上的差异。Prompt: Luxury sports car with aerodynamic curves, shot in a

人工智能就是一个「拼财力」的行业,如果没有高性能计算设备,别说开发基础模型,就连微调模型都做不到。但如果只靠拼硬件,单靠当前计算性能的发展速度,迟早有一天无法满足日益膨胀的需求,所以还需要配套的软件来协调统筹计算能力,这时候就需要用到「智能计算」技术。最近,来自之江实验室、中国工程院、国防科技大学、浙江大学等多达十二个国内外研究机构共同发表了一篇论文,首次对智能计算领域进行了全面的调研,涵盖了理论基础、智能与计算的技术融合、重要应用、挑战和未来前景。论文链接:https://spj.scien

译者 | 李睿审校 | 孙淑娟近年来, Transformer 机器学习模型已经成为深度学习和深度神经网络技术进步的主要亮点之一。它主要用于自然语言处理中的高级应用。谷歌正在使用它来增强其搜索引擎结果。OpenAI 使用 Transformer 创建了著名的 GPT-2和 GPT-3模型。自从2017年首次亮相以来,Transformer 架构不断发展并扩展到多种不同的变体,从语言任务扩展到其他领域。它们已被用于时间序列预测。它们是 DeepMind 的蛋白质结构预测模型 AlphaFold

说起2010年南非世界杯的最大网红,一定非「章鱼保罗」莫属!这只位于德国海洋生物中心的神奇章鱼,不仅成功预测了德国队全部七场比赛的结果,还顺利地选出了最终的总冠军西班牙队。不幸的是,保罗已经永远地离开了我们,但它的「遗产」却在人们预测足球比赛结果的尝试中持续存在。在艾伦图灵研究所(The Alan Turing Institute),随着2022年卡塔尔世界杯的持续进行,三位研究员Nick Barlow、Jack Roberts和Ryan Chan决定用一种AI算法预测今年的冠军归属。预测模型图


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

안전한 시험 브라우저
안전한 시험 브라우저는 온라인 시험을 안전하게 치르기 위한 보안 브라우저 환경입니다. 이 소프트웨어는 모든 컴퓨터를 안전한 워크스테이션으로 바꿔줍니다. 이는 모든 유틸리티에 대한 액세스를 제어하고 학생들이 승인되지 않은 리소스를 사용하는 것을 방지합니다.

ZendStudio 13.5.1 맥
강력한 PHP 통합 개발 환경

SublimeText3 영어 버전
권장 사항: Win 버전, 코드 프롬프트 지원!

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구
