찾다
기술 주변기기일체 포함Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

소개

대형 언어 모델은 빠르게 변화하는 산업을 변화시키고 있습니다. 대도는 뱅킹의 개인화 된 고객 서비스에서 글로벌 커뮤니케이션에서 실시간 언어 번역에 이르기까지 모든 것을 권장합니다. 그들은 자연 언어로 질문에 대답하고, 정보를 요약하고, 에세이를 작성하고, 코드를 생성하는 등 오늘날 세계에서 귀중한 도구를 만들 수 있습니다. 그러나 많은 장점에도 불구하고 그들은“환각”으로 알려진 비판적 결함으로 고통 받고 있습니다. 모델이 정확하고 사실적으로 보이지만 부분적으로 또는 완전히 거짓 인 정보를 생성하는 경우 모델에 의해 구성되며 실제 데이터의 접지가 부족한 경우입니다. 따라서이를 해결하기 위해 Google은 LLM을 실제 데이터와 연결하고 Google의 데이터 커먼즈를 사용하여 신뢰할 수있는 소스와의 반응을 확인하기위한 Datagemma라는 도구 인 오픈 모델을 개발했습니다.

학습 결과

  • 대형 언어 모델 (LLM)의 기본 사항과 응용 프로그램을 이해하십시오.
  • LLM의 환각의 원인과 유형을 탐색하십시오.
  • Google의 Datagemma가 실제 데이터를 사용하여 LLM 환각을 어떻게 해결하는지 알아보십시오.
  • RIG (Restrieval-Interleaved Generation) 및 검색 증강 생성 (RAG)과 같은 고급 기술에 대한 통찰력을 얻습니다.
  • Google의 데이터 커먼즈가 LLM 사실 정확도를 향상시키는 방법을 알아보십시오.

이 기사는 Data Science Blogathon 의 일부로 출판되었습니다 .

목차

  • 큰 언어 모델 이해
  • 젬마의 건축 이해
  • LLM의 맥락에서 환각은 무엇입니까?
  • Datagemma는 무엇입니까?
  • RIG : LLM 환각을 최소화하기위한 하이브리드 접근법
  • LLM 환각을 최소화하기위한 증거 증강 세대
  • Datagemma가 중요한 이유는 무엇입니까?
  • 자주 묻는 질문

큰 언어 모델 이해

대형 언어 모델은 기초 모델이며, 자연어를 이해하고 생성 할 수있는 수백만에서 수십억에 이르는 매개 변수를 갖춘 엄청난 양의 텍스트 데이터에 대해 교육을 받았습니다. 그들은 자연 언어를 처리하고 생성 할 수있는 변압기 아키텍처를 기반으로합니다. 맞춤형 데이터 세트를 사용하여 특정 도메인의 특정 작업에 대해 LLM 모델을 미세 조정할 수 있습니다. 예를 들어, Bert와 같은 LLM 모델은 사이버 보안 Corpora에서 미세 조정하여 LLM을 사용하여 위협 인텔리전스를 자동화 할 수 있습니다.

Gemma, Gemini 및 Bert의 비교

아체 쌍둥이 자리 버트
개발자를위한 경량 모델 더 크고 강력하고 대화적인 AI NLP 작업을위한 미리 훈련 된 모델
휴대폰 및 에지 컴퓨팅과 같은 자원 제약 조건이있는 응용 프로그램에 이상적입니다. 대규모 데이터 분석, 복잡한 AI 애플리케이션과 같은 리소스 제약 조건이없는 복잡한 작업에 이상적입니다. 텍스트 분류, 질문 답변, 감정 분석과 같은 작업에 이상적입니다.
제한된 리소스 환경에 쉽게 배포 할 수 있습니다 종종 자원이 풍부한 클라우드 환경 또는 데이터 센터에 배포됩니다. 온 프레미스 또는 클라우드 환경에 배치되었지만 더 큰 버전 (Bert-Large)에는 상당한 계산 자원이 필요합니다.
덜 계산 자원이 필요합니다 종종 더 많은 계산 자원이 필요합니다. Bert-Base와 같은 소규모 모델은 중간 하드웨어에 배치 할 수있는 반면 Bert-Large와 같은 대형 모델에는 더 많은 리소스가 필요할 수 있지만 여전히 Gemini보다 적습니다.

젬마의 건축 이해

Gemma의 아키텍처는 고급 검색 및 생성 기술을 원활하게 통합하여 시스템이 외부 데이터 소스에 지능적으로 액세스하면서 정확하고 일관된 응답을 생성 할 수 있도록 설계되어 다양한 AI 중심 응용 프로그램에 매우 효과적입니다.

Gemma는 변압기 디코더 아키텍처를 기반으로합니다.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

Gemma and Gemma 2 (2024 년에 출시 된 최신 버전)는 Gemma Family of Google의 LLM 모델에 속합니다. 맞춤형 작업을 위해 미세 조정할 수 있습니다. 예를 들어, CodeGemma 모델은 코드 완료를위한 미세 조정 된 Gemma 모델입니다.

LLM의 맥락에서 환각은 무엇입니까?

LLM의 환각은 모델이 정확하게 부정확하거나 일관성이 없거나 구성된 정보를 생성하는 사례이지만 우리에게 믿을만한 것으로 보입니다. 모델은 컨텐츠를 환영하며 그 컨텐츠는 실제로 사실이 아닙니다. 예를 들어 : 법원의 경우, 두 명의 변호사가 Chatgpt가 제공 한 출처를 인용하여 거짓으로 판명되었습니다.

AI 환각은 세 가지 유형 일 수 있습니다

  • 입력 충돌 환각 : 모델은 입력에서 사용자가 제공 한 정보에서 벗어나는 출력을 생성합니다.
  • 컨텍스트 충돌 환각 : 여기서, 모델은 이전에 생성 된 출력과 모순되는 출력을 생성합니다.
  • 사실 성분 환각 : 모델은 실제 지식이나 사실과 모순되는 허위/부정확 한 출력을 생성합니다.

환각을 일으키는 원인은 무엇입니까?

  • 제한된 교육 데이터 : 모델을 철저히 훈련시키지 않았거나 제한된 데이터에 대해 교육을받지 않은 경우, 새로운 프롬프트를 완전히 이해하지 못하더라도 교육 데이터와 다른 프롬프트가 발생하면 부정확 한 기존 교육 데이터를 기반으로 데이터를 생성 할 수 있습니다.
  • 너무 많은 기능 : 너무 많은 기능이 제공되면 모델은 기본 패턴을 이해하지 않고 모든 데이터 포인트를 캡처 한 다음 교육 데이터에 대해 100% 정확도를 얻으려고하지만 새로운 데이터에서는 일반화되지 않습니다.

보시다시피, 환각 된 LLM 컨텐츠는 사실 확인없이 사용하면 유해 할 수 있습니다. 사실 정확도가 중요하고 의학적 조언이나 법적 지침과 같은 잘못된 정보가있을 수없는 응용 분야에서 환각은 잠재적으로 심각한 결과를 낳을 수 있습니다. 환각은 정답만큼 자신있게 전달되므로 사용자가 인식하기가 어려워 질 수 있습니다. 또한 정확한 정보에 대한 AI에 대한 의존이 증가함에 따라 환각으로 인해 AI 시스템에 대한 신뢰가 줄어들 수 있으므로 LLM이 높은 지분 영역에서 수용하기가 더 어려워집니다.

따라서 모델 개발자는이 문제를 해결하고 정확성과 사실이 포함 된 경우 LLM이 잘못된 정보의 확산을 피하기 위해 정확하고 사실적인 출력을 생성해야합니다. AI 환각을 다루는 이러한 접근법 중 하나는 Google에 의해 Datagemma의 형태로 개발되었습니다.

Datagemma는 무엇입니까?

DataGemma는 Google에서 개발 한 개방형 모델로 LLM을 Google의 Datacommons에서 얻은 신뢰할 수있는 사실, 실제 실제 데이터와 연결합니다.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

Google Data Commons는 방대한 양의 공개 데이터 세트를 통합 형식으로 결합하여 액세스 및 사용을보다 쉽게 ​​사용할 수있는 개방형 저장소입니다. 정부 논문, 연구 조직 및 글로벌 데이터베이스를 포함한 다양한 소스의 데이터를 결합합니다. Data Commons의 주요 목적은 다양한 데이터 세트에 대한 공통 프레임 워크를 제공하여 사용자가 고가의 데이터 청소 또는 통합 노력없이 수많은 도메인에서 구조화 된 실제 데이터를 쿼리하고 분석 할 수 있도록하는 것입니다.

데이터 커먼즈의 주요 기능

  • 여기에는 미국 인구 조사국, 세계 은행, NOAA 등과 같은 장소에서 공급되는 인구 통계, 경제, 환경 및 건강 관리와 같은 다양한 주제에 대한 데이터가 포함됩니다.
  • 데이터는 표준화 된 스키마로 구성되므로 사용자는 다양한 데이터 형식 및 구조의 복잡성을 처리 할 필요없이 데이터 세트를 쉽게 쿼리 할 수 ​​있습니다.
  • 개발자는 API를 통해 데이터 커먼즈에 액세스 할 수 있습니다.
  • 모든 사람이 고품질의 신뢰할 수있는 데이터에 액세스 할 수 있도록 설계된 무료로 사용할 수있는 공공 서비스입니다.

데이터 커먼즈의 중요성

  • 연구원은 데이터 커머드를 사용하여 수동으로 데이터를 소스 및 정리할 필요없이 대형 구조화 된 데이터 세트를 신속하게 수집하고 분석 할 수 있습니다.
  • Google의 Gemma와 같은 대형 언어 모델 (LLMS)은 데이터 커먼즈를 사용하여 실제 데이터를 참조하고 환각을 줄이고 출력의 사실 정확도를 향상시킬 수 있습니다.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

링크 : 자체 데이터 커먼즈 - 데이터 커먼즈 구축

RIG : LLM 환각을 최소화하기위한 하이브리드 접근법

검색 기반 및 생성 기반 방법을 결합하여 응답의 품질과 관련성을 향상시키는 자연 언어 처리 (NLP)의 고급 기술입니다.

장비의 작동 방식에 대한 간단한 설명은 다음과 같습니다.

  • 검색 기반 방법 : 이러한 방법에는 기존 응답 또는 문서의 대규모 데이터베이스를 검색하여 가장 관련성이 높은 정보를 찾는 것이 포함됩니다. 이 접근법은 응답이 정확하고 실제 데이터에 접지되도록합니다.
  • 생성 기반 방법 : 이 방법은 모델을 사용하여 입력에 따라 처음부터 응답을 생성합니다. 이것은보다 유연하고 창의적 인 반응을 허용하지만 때로는 부정확성이나 환각으로 이어질 수 있습니다.
  • 인터리빙 : 검색 및 생성 기술을 인터리빙하거나 결합하여 RIG는 두 가지 접근 방식의 강점을 사용합니다. 이 시스템은 관련 정보를 검색 한 다음 생성 모델을 사용하여 정제 및 확장하여 정확성과 창의성을 보장합니다.

이는 대화 AI, 고객 지원 및 컨텐츠 생성과 같이 고품질의 상황에 맞는 응답이 중요한 응용 프로그램에 유용합니다.

Datagemma에서 Gemma 2는 출력을 생성하는 동안 정확한 정보를 추출 할시기를 인식하도록 미세 조정됩니다. 이에서는 출력에서 ​​생성 된 숫자를 데이터 커먼즈의보다 정확한 정보로 대체합니다. 따라서 기본적으로 모델은보다 신뢰할 수있는 소스로 출력을 다시 확인합니다.

Datagemma에서 장비가 어떻게 사용됩니까?

DataGemma에서, 검색-상영 생성 (RIG)은 검색 모델과 생성 모델의 강점을 결합하여 출력의 정확성과 관련성을 향상시키기 위해 활용되어 생성 된 컨텐츠가 데이터 커먼즈와 같은 신뢰할 수있는 소스의 신뢰할 수있는 데이터에 근거합니다.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

  • 먼저, 사용자는 LLM 모델에 쿼리를 제출합니다. 우리의 경우, LLM 모델은 DataGemma이며, 이는 27b 매개 변수를 가진 Gemma 2 모델을 기반으로하며 RIG 용으로 미세 조정됩니다.
  • Datagemma 모델은 자연어 쿼리 형태로 응답을 생성합니다. 이것의 목적은 Data Commons의 자연어 인터페이스에서 관련 데이터를 검색하는 것입니다.
  • 데이터 커먼즈가 쿼리되고 필요한 데이터가 검색됩니다.
  • 최종 응답이 생성되어 사용자에게 표시됩니다. 응답에는 데이터, 링크와 함께 소스 정보 및 일부 메타 데이터가 포함됩니다. 이것은 원래 응답에서 잠재적으로 부정확 한 숫자를 대체합니다.

Google Colab에서 단계별 절차

환각을 최소화하기 위해 리그를 구현하겠습니다.

사전 반품 :

  • A100 GPU
  • 하이 램 런타임
  • 포옹 페이스 토큰

1 단계 : Hugging Face 계정에 로그인하여 새 토큰을 만듭니다.

Hugging Face 계정을 로그인하려면 여기를 클릭하십시오.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

새 토큰 생성 :

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

2 단계 : Datacommons API 키

  • 계정을 만들려면 여기를 클릭하십시오.
  • 데이터 커먼즈를 통합 할 새 앱을 만듭니다. API 키에 등록하십시오.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

3 단계 : 데이터 커먼즈 NL API 활성화

Colab 노트북 비밀 섹션으로 이동하십시오. 새로운 비밀을 만들고 노트북 액세스를 활성화하십시오.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

  • 포옹 페이스 토큰으로 가치를 가진 hf_token
  • DC_API_KEY 데이터 커먼즈 토큰으로 가치가 있습니다

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

4 단계 : 필요한 라이브러리를 설치하십시오

필요한 라이브러리를 설치하겠습니다.

 #다음 필요한 라이브러리를 설치하십시오 
! pip install -q git https://github.com/datacommonsorg/llm-tools
! pip install -q bitsandbytes 가속

#FINETUNED GEMMA2 27B 모델을로드하십시오 

토치 수입

data_gemma를 dg로 가져옵니다

google.colab import userData에서
변압기에서 Autotokenizer, AutomodElforcausallm, BitsandbyTesconfig에서

# 데이터 커먼즈 API 클라이언트 초기화
dc_api_key = userData.get ( 'dc_api_key')
dc = dg.datacommons (api_key = dc_api_key)


# Huggingface에서 Finetuned Gemma2 모델을 얻으십시오
hf_token = userData.get ( 'hf_token')

nf4_config = BitsandbyTesconfig (
   load_in_4bit = true,
   bnb_4bit_quant_type = "nf4",
   bnb_4bit_compute_dtype = torch.bfloat16
))

model_name = 'Google/DataGemma-Rig-27B-It'
Tokenizer = Autotokenizer.from_pretrained (model_name, token = hf_token)
DataGemma_Model = AutomodElforcausallm.from_pretrained (model_name,
                                             device_map = "자동",
                                             Quantization_Config = NF4_Config,
                                             Torch_dtype = Torch.bfloat16,
                                             토큰 = hf_token)

# 리그 흐름에 사용할 LLM 모델 스터브 구축
DataGemma_Model_wrapper = dg.hfbasic (datagemma_model, Tokenizer)

5 단계 : 쿼리를 선택하거나 입력하십시오

이 단계에서 사용자는 사전 정의 된 쿼리를 선택하거나 사용자 정의 쿼리를 입력하여 시스템이 추가 처리를 위해 데이터 소스에서 관련 정보를 검색 할 수 있습니다.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

6 단계 : 리그 기술을 실행하고 출력을 생성하십시오

이 단계에서 리그 기술이 실행되어 검색 및 생성 방법을 결합하여 입력 쿼리에 기초하여 정확하고 문맥 상 관련 출력을 생성합니다.

 Ipython에서 Display 가져 오기 Markdown
TextWrap 가져 오기

def display_chat (프롬프트, 텍스트) :
  formatted_prompt = "<font size="'1'color">? ‍ 대담추 <blockquote>"Prompt "</blockquote> </font>"
  text = text.replace ( '•', ' *')
  text = textwrap.indent (text, '>', prectice = lambda _ : true)
  formatted_text = "<font size="'1'color">? \ n \ n"text "\ n </font>"
  Return Markdown (Formatted_Prompt Formatted_Text)

def to_markdown (텍스트) :
  text = text.replace ( '•', ' *')
  return markdown (textwrap.indent (text, '>', prectice = lambda _ : true))


ans = dg.rigflow (llm = datagemma_model_wrapper, data_fetcher = dc, verbose = false) .query (query = query)
Markdown (TextWrap.Indent (Ans.Answer (), '>', prectice = lambda _ : true))


display_chat (query, ans.answer ())

출력 : (다른 쿼리의 경우)

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

결론 : Gemma2는 수치 값 만 생성하는 반면 DataGemma는 소스 정보, 소스 링크, 일부 메타 데이터 및 쿼리에 대한 결론과 함께 수치 값을 생성합니다.

출처 : Google에서 제공하는 Google Colab 노트

LLM 환각을 최소화하기위한 증거 증강 세대

검색 증강 생성은 NLP (Natural Language Processing) 및 LLM (Lange Language Model) (LLM)의 접근 방식으로, 생성 된 컨텐츠의 사실 정확도와 관련성을 향상시켜 모델이 생성 프로세스 중에 외부 지식 소스에 액세스 할 수 있도록합니다. LLM이 텍스트를 생성하기 전에 데이터 커먼즈의 관련 정보를 검색하여 응답을위한 사실적인 기초를 제공합니다.

다음은 Rag의 작동 방식에 대한 간략한 설명입니다.

  • 검색 : 사용자가 쿼리를 입력하면 모델이 수신 한 다음 지식 기반 또는 외부 소스에서 관련 데이터를 추출합니다.
  • 증강 : 이 외부 정보는 언어 모델의 입력 컨텍스트를 "보강"(또는 강화)하는 데 사용되므로 상황에 맞는 관련 응답을 생성하는 데 도움이됩니다.
  • 생성 : LLM은 원래 쿼리와 검색된 정보를 기반으로 응답을 생성합니다.

DataGemma에는 헝겊이 어떻게 사용됩니까?

DataGemma에서, RAG (Retrieval-Augmented Generation)는 외부 소스에서 관련 데이터를 검색 한 다음이 검색된 지식과 AI 생성 통찰력을 결합한 컨텐츠를 생성하여 고품질 및 상황에 맞는 출력을 보장함으로써 응답 정확도를 향상시키기 위해 사용됩니다.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

Rag의 작동 방식은 다음과 같습니다.

  • 먼저, 사용자는 LLM 모델에 쿼리를 제출합니다. 우리의 경우, LLM 모델은 DataGemma이며, 이는 27b 매개 변수의 Gemma 2 모델을 기반으로하며 RAG 작업을 위해 미세 조정됩니다.
  • Datagemma 모델은 입력 쿼리를 분석 한 후 자연어 쿼리 형태로 응답을 생성합니다. 이것의 목적은 Data Commons의 자연어 인터페이스에서 관련 데이터를 검색하는 것입니다.
  • 데이터 커먼즈가 쿼리되고 필요한 정보가 검색됩니다.
  • 최종 응답이 생성되어 사용자에게 표시됩니다. 여기에는 데이터 테이블, 링크와 함께 소스 정보 및 일부 메타 데이터가 포함됩니다. 이것은 원래 응답에서 잠재적으로 부정확 한 숫자를 대체합니다.
  • 이 검색된 정보는 원래 사용자 쿼리에 추가되어 향상 또는 증강 프롬프트를 만듭니다.
  • 더 큰 LLM (우리의 경우 Gemini 1.5 Pro)는 검색된 데이터를 포함 하여이 향상된 프롬프트를 사용하여 더 나은 정확하고 사실적인 응답을 생성합니다.

Google Colab에서 단계별 절차

우리는 이제 환각을 최소화하기 위해 Rag의 단계별 절차를 살펴볼 것입니다.

사전 반품 :

  • A100 GPU
  • 하이 램 런타임
  • 포옹 페이스 토큰
  • 데이터 커먼즈 API 토큰
  • Gemini 1.5 Pro API 키

1 단계 : Gemini API 키를 만듭니다

Google AI Studio로 이동하여 Gemini API 키를 만듭니다.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

2 단계 : 노트북 액세스를 활성화합니다

Google Colab Notebook Secrets 섹션으로 이동하여 Hugging Face, Data Commons 및 Gemini 1.5 Pro API 키를 입력하십시오. 노트북 액세스를 활성화합니다.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

3 단계 : 필요한 라이브러리를 설치하십시오

이 단계에서는 리그 기술을 구현하고 Datagemma 시스템의 원활한 작동을 보장하는 필요한 라이브러리를 설치합니다.

 #Stall 라이브러리
! pip install -q git https://github.com/datacommonsorg/llm-tools
! pip install -q bitsandbytes 가속

#미세 조정 된 Gemma2 27b 모델로드
토치 수입

data_gemma를 dg로 가져옵니다

google.colab import userData에서
변압기에서 Autotokenizer, AutomodElforcausallm, BitsandbyTesconfig에서

# 데이터 커먼즈 API 클라이언트 초기화
dc_api_key = userData.get ( 'dc_api_key')
dc = dg.datacommons (api_key = dc_api_key)

# Gemini 1.5 프로 모델을 얻으십시오
gemini_api_key = userData.get ( 'gemini_api_key')
gemini_model = dg.googleaistudio (model = 'gemini-1.5-pro', api_keys = [gemini_api_key]))


# Huggingface에서 Finetuned Gemma2 모델을 얻으십시오
hf_token = userData.get ( 'hf_token')

nf4_config = BitsandbyTesconfig (
   load_in_4bit = true,
   bnb_4bit_quant_type = "nf4",
   bnb_4bit_compute_dtype = torch.bfloat16
))

model_name = 'Google/DataGemma-rag-27b-it'
Tokenizer = Autotokenizer.from_pretrained (model_name, token = hf_token)
DataGemma_Model = AutomodElforcausallm.from_pretrained (model_name,
                                             device_map = "자동",
                                             Quantization_Config = NF4_Config,
                                             Torch_dtype = Torch.bfloat16,
                                             토큰 = hf_token)

# RAG 흐름에 사용할 LLM 모델 스터브 구축
DataGemma_Model_wrapper = dg.hfbasic (datagemma_model, Tokenizer)

4 단계 : 자신의 쿼리를 선택하거나 만듭니다

원하는 출력을 검색하고 생성하기위한 리그 기술의 입력 역할을하는 사용자 정의 쿼리를 선택하거나 생성합니다.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

5 단계 : 헝겊을 실행하고 출력을 생성합니다

이제 RAG 시스템을 실행하여 관련 데이터를 검색하고 제공 한 쿼리에 따라 최종 출력을 생성합니다.

 Ipython에서 Display 가져 오기 Markdown
TextWrap 가져 오기

def display_chat (프롬프트, 텍스트) :
  formatted_prompt = "<font size="'1'color">? ‍ 대담추 <blockquote>"Prompt "</blockquote> </font>"
  text = text.replace ( '•', ' *')
  text = textwrap.indent (text, '>', prectice = lambda _ : true)
  formatted_text = "<font size="'1'color">? \ n \ n"text "\ n </font>"
  Return Markdown (Formatted_Prompt Formatted_Text)

def to_markdown (텍스트) :
  text = text.replace ( '•', ' *')
  return markdown (textwrap.indent (text, '>', prectice = lambda _ : true))

ans = dg.ragflow (llm_question = datagemma_model_wrapper, llm_answer = gemini_model, data_fetcher = dc) .query (query = query)
Markdown (TextWrap.Indent (Ans.Answer (), '>', prectice = lambda _ : true))


display_chat (query, ans.answer ())

산출:

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

결론 : 쿼리를 요청하면 쿼리와 관련된 관련 데이터 테이블을 검색 한 다음이 데이터는 의미있는 정보와 통찰력으로 최종 응답을 작성하는 데 사용됩니다. 소스 링크, 테이블 및 결론과 함께 쿼리 응답은 출력으로 생성됩니다.

링크 : 데이터 젬마 래그

Datagemma가 중요한 이유는 무엇입니까?

Datagemma는 실제 데이터의 LLM 출력을 근거로하여 모델이 사실 기반 응답을 생성하도록합니다. Google의 데이터 커먼즈에서 검증 된 데이터로 모델의 응답을 확인함으로써 Datagemma는 잘못 또는 제작 된 답변의 수를 줄이는 데 도움이됩니다. Google의 연구원들은 RIG 및 RAG 접근 방식을 사용하여 모델에서 생성 된 출력의 정확도, 특히 수치 출력이 필요한 쿼리를 다루는 데 크게 개선되었습니다.

그들은 사용자가 기준선 출력보다 리그와 래그에 의해 생성 된 출력을 선호한다는 것을 관찰했습니다. 이 접근법은 AI 환각을 줄이고 잘못된 정보의 생성을 줄일 수 있습니다. 또한 Google 은이 Gemma 모델 변형 개방형 모델을 만들었으므로 개발자와 연구원 이이 접근법을 탐색하고 LLM을보다 신뢰할 수 있고 신뢰할 수있는 공통 목표를 달성하기 위해 더욱 향상시킬 수 있습니다.

결론

LLM은 산업 전반에 걸쳐 중요한 도구가되었지만 설득력이 있지만 잘못된 정보를 생성하는“환각”경향은 중요한 문제를 제기합니다. Google의 Datagemma는 Google 데이터 커먼즈의 방대한 실제 데이터와 결합하면이 문제에 대한 가능한 솔루션을 제공합니다. DataGemma의 기술은 검증 된 통계 데이터에 LLM 출력을 기반으로하여 특히 수치 정보를 사용하여 정확도를 향상시킵니다. 또한 잘못된 정보를 줄입니다. 초기 결과는이 전략이 AI 응답의 신뢰성을 상당히 증가 시킨다는 것을 보여 주며, 소비자는 시스템이 제공하는보다 사실적인 출력을 선호합니다. Datagemma는 개방형 모델이기 때문에 연구원과 개발자는 IT를 사용하여 개선 할 수있어 LLM이 실제 응용 프로그램을위한 신뢰할 수있는 도구가되기 위해 더 가깝게 제공 할 수 있습니다. 협력은 환각을 줄이고 신뢰성을 높이는 데 도움이 될 수 있습니다.

참조

  • Datagemma : AI Open 모델 LLMS를 Google 데이터 커먼즈에 연결합니다 (Blog.google)
  • Data Commons (Research.google)의 약간의 도움으로 실제로 AI 근거 AI

자주 묻는 질문

Q 1. 기초 모델이란 무엇입니까?

A. 기초 모델은 다양한 양의 다양한 데이터에 대해 교육을받은 대규모 기계 학습 모델로 광범위한 작업에 걸쳐 일반화 할 수 있습니다. LLM은 방대한 양의 텍스트 데이터에 대해 훈련 된 파운데이션 모델의 한 유형입니다.

Q 2. AI 환각은 무엇입니까?

A. AI 환각은 AI 모델이 정확하지만 부정확하거나 제작 된 정보를 생성하는 현상을 말합니다. 이 모델은 실제 데이터 또는 사실에 근거가없는 응답을 생성합니다.

Q3. LLMS는 왜 환각됩니까?

A. llms는 훈련 된 데이터의 패턴을 기반으로 출력을 생성하기 때문에 환각됩니다. 쿼리에 응답하기에 충분한 맥락이나 관련 데이터가 없으면 기존 지식 기반에서 발견 된 유사한 데이터를 기반으로 불확실성을 인정하는 대신 그럴듯한 정보를 제작할 수 있습니다.

Q 4. Google Gemma는 무엇입니까?

A. Google Gemma는 Google Gemini의 연구를 기반으로 한 Google의 가벼운 LLM 모델입니다. Gemma의 변형은 LLM을 Google 데이터 커먼즈의 실제 통계 데이터와 연결하도록 개발 된 개방형 모델 인 Datagemma입니다.

Q 5. 리그와 헝겊의 차이점은 무엇입니까?

A. RIG는 Google Data Commons와 같은 외부 데이터 소스에 대한 생성 된 응답을 확인하여 실제 통계 데이터를 모델의 출력에 직접 통합합니다. 따라서 기본적으로 응답이 생성 된 다음 외부 소스로 사실 확인됩니다. 그러나 Rag에서는 외부 데이터베이스 또는 지식 소스에서 관련 정보를 검색 한 다음이 정보를 기반으로 응답을 생성합니다.

이 기사에 표시된 미디어는 분석 Vidhya가 소유하지 않으며 저자의 재량에 따라 사용됩니다.

위 내용은 Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
chatgpt를 사용할 수 없습니다! 즉시 테스트 할 수있는 원인과 솔루션 설명 [최신 2025]chatgpt를 사용할 수 없습니다! 즉시 테스트 할 수있는 원인과 솔루션 설명 [최신 2025]May 14, 2025 am 05:04 AM

chatgpt에 액세스 할 수 없습니까? 이 기사는 다양한 실용적인 솔루션을 제공합니다! 많은 사용자가 매일 chatgpt를 사용할 때 액세스 할 수 없거나 느린 응답과 같은 문제가 발생할 수 있습니다. 이 기사는 다양한 상황에 따라 이러한 문제를 단계별로 해결하도록 안내합니다. Chatgpt의 접근성 및 예비 문제 해결의 원인 먼저 문제가 OpenAI 서버 측 또는 사용자의 네트워크 또는 장치 문제에 있는지 확인해야합니다. 문제 해결을 위해 아래 단계를 따르십시오. 1 단계 : OpenAI의 공식 상태를 확인하십시오 chatgpt 서비스가 정상적으로 실행 중인지 확인하려면 OpenAi 상태 페이지 (status.openai.com)를 방문하십시오. 빨간색 또는 노란색 알람이 표시되면 열린 것을 의미합니다.

ASI의 위험을 계산하는 것은 인간의 마음으로 시작합니다ASI의 위험을 계산하는 것은 인간의 마음으로 시작합니다May 14, 2025 am 05:02 AM

2025 년 5 월 10 일, MIT 물리학 자 Max Tegmark는 AI Labs가 인공 초 지능을 방출하기 전에 Oppenheimer의 삼위 일체 테스트 미적분학을 모방해야한다고 Guardian에게 말했다. “내 평가는 'Compton Constant', 인종이

Chatgpt에서 가사를 작성하고 작곡하는 방법에 대한 이해하기 쉬운 설명Chatgpt에서 가사를 작성하고 작곡하는 방법에 대한 이해하기 쉬운 설명May 14, 2025 am 05:01 AM

AI 음악 제작 기술은 매일 매일 변화하고 있습니다. 이 기사는 Chatgpt와 같은 AI 모델을 예로 사용하여 AI를 사용하여 음악 제작을 지원하고 실제 사례에 대해 설명하는 방법을 자세히 설명합니다. 우리는 Sunoai, Hugging Face의 AI Jukebox 및 Python 's Music21 Library를 통해 음악을 만드는 방법을 소개합니다. 이러한 기술을 통해 모든 사람은 독창적 인 음악을 쉽게 만들 수 있습니다. 그러나 AI 생성 컨텐츠의 저작권 문제는 무시할 수 없으며 사용할 때는 신중해야합니다. 음악 분야에서 AI의 무한한 가능성을 모색 해 봅시다! OpenAi의 최신 AI 에이전트 "OpenAi Deep Research"가 소개됩니다. [chatgpt] ope

chatgpt-4는 무엇입니까? 당신이 할 수있는 일, 가격 및 GPT-3.5의 차이에 대한 철저한 설명!chatgpt-4는 무엇입니까? 당신이 할 수있는 일, 가격 및 GPT-3.5의 차이에 대한 철저한 설명!May 14, 2025 am 05:00 AM

ChatGpt-4의 출현은 AI 응용 프로그램의 가능성을 크게 확장했습니다. GPT-3.5와 비교하여 ChatGpt-4는 상당히 개선되었습니다. 강력한 맥락 이해력이 있으며 이미지를 인식하고 생성 할 수도 있습니다. 그것은 보편적 인 AI 조수입니다. 비즈니스 효율성 향상 및 창출 지원과 같은 많은 분야에서 큰 잠재력을 보여주었습니다. 그러나 동시에, 우리는 또한 사용의 예방 조치에주의를 기울여야합니다. 이 기사에서는 ChatGpt-4의 특성을 자세히 설명하고 다양한 시나리오에 대한 효과적인 사용 방법을 소개합니다. 이 기사에는 최신 AI 기술을 최대한 활용하는 기술이 포함되어 있습니다. OpenAi의 최신 AI 에이전트, "OpenAi Deep Research"에 대한 자세한 내용은 아래 링크를 클릭하십시오.

chatgpt 앱을 사용하는 방법을 설명하십시오! 일본 지원 및 음성 대화 기능chatgpt 앱을 사용하는 방법을 설명하십시오! 일본 지원 및 음성 대화 기능May 14, 2025 am 04:59 AM

chatgpt 앱 : AI 조수와 함께 창의력을 발휘하십시오! 초보자 가이드 Chatgpt 앱은 쓰기, 번역 및 질문 답변을 포함하여 광범위한 작업을 처리하는 혁신적인 AI 어시스턴트입니다. 창의적인 활동과 정보 수집에 유용한 끝없는 가능성이있는 도구입니다. 이 기사에서는 초보자를위한 이해하기 쉬운 방법, ChatGpt 스마트 폰 앱을 설치하는 방법, 음성 입력 기능 및 플러그인과 같은 앱의 고유 한 기능 및 앱을 사용할 때 염두에 두는 포인트에 이르기까지 설명합니다. 또한 플러그인 제한 및 장치 간 구성 동기화를 자세히 살펴 보겠습니다.

중국어 버전의 Chatgpt를 어떻게 사용합니까? 등록 절차 및 수수료에 대한 설명중국어 버전의 Chatgpt를 어떻게 사용합니까? 등록 절차 및 수수료에 대한 설명May 14, 2025 am 04:56 AM

Chatgpt Chinese 버전 : 중국 AI 대화의 새로운 경험 잠금 해제 Chatgpt는 전 세계적으로 인기가 있습니다. 중국어 버전도 제공한다는 것을 알고 있습니까? 이 강력한 AI 도구는 일상적인 대화를 지원할뿐만 아니라 전문적인 콘텐츠를 처리하며 단순화되고 전통적인 중국어와 호환됩니다. 중국의 사용자이든 중국어를 배우는 친구이든 상관없이 혜택을 누릴 수 있습니다. 이 기사는 계정 설정, 중국 신속한 단어 입력, 필터 사용 및 다양한 패키지 선택을 포함하여 ChatGpt 중국어 버전을 사용하는 방법을 자세히 소개하고 잠재적 위험 및 응답 전략을 분석합니다. 또한 ChatGpt 중국어 버전을 다른 중국 AI 도구와 비교하여 장점과 응용 프로그램 시나리오를 더 잘 이해할 수 있도록 도와줍니다. Openai의 최신 AI 인텔리전스

5 AI 요원 신화 당신은 지금 믿음을 중단해야합니다.5 AI 요원 신화 당신은 지금 믿음을 중단해야합니다.May 14, 2025 am 04:54 AM

이것들은 생성 AI 분야의 다음 도약으로 생각 될 수 있으며, 이는 우리에게 Chatgpt 및 기타 대규모 모델 챗봇을 제공했습니다. 단순히 질문에 대답하거나 정보를 생성하는 대신, 우리를 대신하여 조치를 취할 수 있습니다.

Chatgpt를 사용하여 여러 계정을 만들고 관리하는 불법성에 대한 이해하기 쉬운 설명Chatgpt를 사용하여 여러 계정을 만들고 관리하는 불법성에 대한 이해하기 쉬운 설명May 14, 2025 am 04:50 AM

ChatGpt를 사용한 효율적인 다중 계정 관리 기술 | 비즈니스와 사생활 사용 방법에 대한 철저한 설명! Chatgpt는 다양한 상황에서 사용되지만 일부 사람들은 여러 계정 관리에 대해 걱정할 수 있습니다. 이 기사는 ChatGpt에 대한 여러 계정을 만드는 방법, 사용할 때 수행 할 작업 및 안전하고 효율적으로 작동하는 방법을 자세히 설명합니다. 또한 비즈니스와 개인 사용의 차이, OpenAI의 이용 약관을 준수하는 것과 같은 중요한 점을 다루며 여러 계정을 안전하게 활용하는 데 도움이되는 안내서를 제공합니다. Openai

See all articles

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

Atom Editor Mac 버전 다운로드

Atom Editor Mac 버전 다운로드

가장 인기 있는 오픈 소스 편집기

SublimeText3 영어 버전

SublimeText3 영어 버전

권장 사항: Win 버전, 코드 프롬프트 지원!

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

mPDF

mPDF

mPDF는 UTF-8로 인코딩된 HTML에서 PDF 파일을 생성할 수 있는 PHP 라이브러리입니다. 원저자인 Ian Back은 자신의 웹 사이트에서 "즉시" PDF 파일을 출력하고 다양한 언어를 처리하기 위해 mPDF를 작성했습니다. HTML2FPDF와 같은 원본 스크립트보다 유니코드 글꼴을 사용할 때 속도가 느리고 더 큰 파일을 생성하지만 CSS 스타일 등을 지원하고 많은 개선 사항이 있습니다. RTL(아랍어, 히브리어), CJK(중국어, 일본어, 한국어)를 포함한 거의 모든 언어를 지원합니다. 중첩된 블록 수준 요소(예: P, DIV)를 지원합니다.

Dreamweaver Mac版

Dreamweaver Mac版

시각적 웹 개발 도구