>  기사  >  기술 주변기기  >  RAG 외에도 대형 모델의 착각을 없애는 5가지 방법이 있습니다.

RAG 외에도 대형 모델의 착각을 없애는 5가지 방법이 있습니다.

王林
王林원래의
2024-06-10 20:25:511252검색

제작자: 51CTO Technology Stack(WeChat ID: blog51cto)

LLM이 환각, 즉 부정확하거나 오해의 소지가 있거나 의미 없는 정보를 생성할 수 있다는 것은 잘 알려져 있습니다.

흥미롭게도 OpenAI CEO인 Sam Altman과 같은 일부 사람들은 AI의 상상력을 창의성으로 보는 반면, 다른 사람들은 상상력이 새로운 과학적 발견을 만드는 데 도움이 될 수 있다고 믿습니다.

그러나 대부분의 경우 정답을 제공하는 것이 중요하며 환각은 특징이 아니라 결함입니다.

그렇다면 LLM의 환각을 줄이는 방법은 무엇일까요? 긴 맥락? 조각? 미세 조정?

사실 긴 컨텍스트 LLM은 절대 안전하지 않으며 벡터 검색 RAG는 만족스럽지 않으며 미세 조정에는 그 자체의 어려움과 한계가 있습니다.

다음은 LLM 착각을 줄이기 위해 사용할 수 있는 몇 가지 고급 기술입니다.

1. 고급 프롬프트

더 나은 또는 고급 프롬프트를 사용하면 LLM(대형 언어 모델)의 환각 문제를 해결할 수 있는지에 대해 실제로 많은 논의가 있습니다.

RAG 외에도 대형 모델의 착각을 없애는 5가지 방법이 있습니다.Pictures

어떤 사람들은 더 자세한 프롬프트 단어를 쓰는 것이 (환각) 문제를 해결하는 데 도움이 되지 않을 것이라고 생각하지만 Google Brain 공동 창립자 Andrew Ng와 같은 사람들은 가능성을 봅니다. 그들은 사람들이 문제를 더 잘 해결할 수 있도록 딥러닝 기술을 통해 프롬프트 단어를 생성하는 새로운 방법을 제안했습니다. 이 방법은 대용량 데이터와 강력한 컴퓨팅 파워를 활용해 문제와 관련된 프롬프트 단어를 자동으로 생성해 문제 해결의 효율성을 높이는 방식이다. 이 분야

Andrew Ng는 GPT-4 및 기타 고급 모델의 추론 기능을 통해 자세한 지침이 포함된 복잡한 프롬프트 단어를 매우 잘 해석할 수 있다고 믿습니다.

RAG 외에도 대형 모델의 착각을 없애는 5가지 방법이 있습니다.Pictures

“개발자는 다중 예제 학습을 통해 큐 단어에 수십, 심지어 수백 개의 예제를 제공할 수 있는데, 이는 몇 가지 예제 학습보다 더 효과적입니다.”라고 그는 썼습니다.

RAG 외에도 대형 모델의 착각을 없애는 5가지 방법이 있습니다.Pictures

프롬프트 단어를 개선하기 위해 많은 새로운 개발도 등장하고 있습니다. 예를 들어 Anthropic은 5월 10일에 간단한 설명을 대규모에 최적화된 고급 프롬프트 단어로 변환할 수 있는 새로운 "프롬프트 생성기" 도구를 출시했습니다. 언어 모델(LLM). Anthropic 콘솔을 통해 제작을 위한 프롬프트 단어를 생성할 수 있습니다.

최근 Marc Andreessen은 올바른 프롬프트를 사용하면 AI 모델에서 잠재적인 슈퍼 천재성을 발휘할 수 있다고 말했습니다. "다양한 분야의 기술을 활용하면 잠재적인 슈퍼 천재성을 발휘할 수 있습니다."라고 그는 덧붙였습니다.

2. Meta AI의 CoVe(체인 오브 검증)

Meta AI의 CoVe(체인 오브 검증)는 또 다른 기술입니다. 이 접근 방식은 사실 확인을 관리 가능한 단계로 나누고, 응답 정확도를 개선하고, 인간 중심의 사실 확인 프로세스에 맞춰 LLM(대형 언어 모델)의 환각을 줄입니다.

RAG 외에도 대형 모델의 착각을 없애는 5가지 방법이 있습니다.Pictures

CoVe에는 초기 응답 생성, 검증 질문 계획, 해당 질문에 독립적으로 답변 및 검증된 최종 응답 생성이 포함됩니다. 이 접근 방식은 출력을 체계적으로 검증하고 수정하여 모델의 정확도를 크게 향상시킵니다.

환각을 줄이고 사실의 정확성을 높여 목록 기반 질문, 폐쇄형 질문 답변, 장문 텍스트 생성 등 다양한 작업의 성능을 향상시킵니다.

3. 지식 그래프

RAG(Retrieval Enhanced Generation)는 더 이상 벡터 데이터베이스 일치로 제한되지 않습니다. 검색 효과를 크게 향상시키기 위해 많은 고급 RAG 기술이 도입되었습니다.

RAG 외에도 대형 모델의 착각을 없애는 5가지 방법이 있습니다.Pictures

예를 들어 지식 그래프(KG)를 RAG에 통합합니다. 지식 그래프에서 구조화되고 상호 연결된 데이터를 활용함으로써 현재 RAG 시스템의 추론 기능을 크게 향상시킬 수 있습니다.

4.Raptor

또 다른 기술은 더 높은 수준의 추상화를 생성하여 여러 문서에 걸쳐 있는 문제를 처리하는 Raptor입니다. 여러 문서 개념과 관련된 쿼리에 응답할 때 특히 유용합니다.

RAG 외에도 대형 모델의 착각을 없애는 5가지 방법이 있습니다.Images

Raptor와 같은 접근 방식은 청크 없이 전체 문서를 직접 포함할 수 있기 때문에 긴 컨텍스트 LLM(대형 언어 모델)에 잘 맞습니다.

이 방법은 외부 검색 메커니즘을 변환기 모델과 통합하여 환각 현상을 줄입니다. 쿼리가 수신되면 Raptor는 먼저 외부 지식 기반에서 관련 있고 검증된 정보를 검색합니다.

이렇게 검색된 데이터는 원래 쿼리와 함께 모델의 컨텍스트에 포함됩니다. Raptor는 사실과 관련 정보를 바탕으로 모델의 응답을 기반으로 생성된 콘텐츠가 정확하고 상황에 맞는지 확인합니다.

5. 등각적 기권

논문 "등각적 기권을 통한 대규모 언어 모델의 환각 현상 완화"에서는 대규모 언어 모델에서 환각을 줄이는 방법을 적용하여 모델이 응답을 회피해야 하는 경우를 결정하는 방법을 소개합니다( LLM).

RAG 외에도 대형 모델의 착각을 없애는 5가지 방법이 있습니다.Pictures

이 접근 방식은 응답의 유사성을 평가하기 위해 자체 일관성을 사용하고 엄격한 보장을 위한 등각 예측을 활용함으로써 모델이 정확성을 확신할 때만 응답하도록 보장합니다.

이 방법은 균형 잡힌 금단율을 유지하면서 환각 발생률을 효과적으로 제한하며, 이는 긴 답변이 필요한 작업에 특히 유용합니다. 오류가 있거나 비논리적인 응답을 방지하여 모델 출력의 신뢰성을 크게 향상시킵니다.

6.RAG는 구조화된 출력에서 ​​환각을 줄입니다

최근 ServiceNow는 RAG를 통해 구조화된 출력에서 ​​환각을 줄이고, LLM(대형 언어 모델)의 성능을 향상하며, 리소스 사용량을 최소화하면서 도메인 외부 일반화를 달성합니다.

RAG 외에도 대형 모델의 착각을 없애는 5가지 방법이 있습니다.Pictures

이 기술에는 텍스트를 생성하기 전에 외부 지식 기반에서 관련 JSON 개체를 검색하는 RAG 시스템이 포함됩니다. 이를 통해 생성 프로세스는 정확하고 관련성 높은 데이터를 기반으로 합니다.

RAG 외에도 대형 모델의 착각을 없애는 5가지 방법이 있습니다.Pictures

이 사전 검색 단계를 통합함으로써 모델은 허위 또는 조작된 정보를 생성할 가능성이 낮아져 환각이 줄어듭니다. 또한 이 접근 방식을 사용하면 성능 저하 없이 더 작은 모델을 사용할 수 있으므로 효율적이고 효과적입니다.

AIGC에 대해 자세히 알아보려면 다음을 방문하세요.

51CTO AI.x 커뮤니티

https://www.51cto.com/aigc/

위 내용은 RAG 외에도 대형 모델의 착각을 없애는 5가지 방법이 있습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.