소개
대형 언어 모델은 빠르게 변화하는 산업을 변화시키고 있습니다. 대도는 뱅킹의 개인화 된 고객 서비스에서 글로벌 커뮤니케이션에서 실시간 언어 번역에 이르기까지 모든 것을 권장합니다. 그들은 자연 언어로 질문에 대답하고, 정보를 요약하고, 에세이를 작성하고, 코드를 생성하는 등 오늘날 세계에서 귀중한 도구를 만들 수 있습니다. 그러나 많은 장점에도 불구하고 그들은“환각”으로 알려진 비판적 결함으로 고통 받고 있습니다. 모델이 정확하고 사실적으로 보이지만 부분적으로 또는 완전히 거짓 인 정보를 생성하는 경우 모델에 의해 구성되며 실제 데이터의 접지가 부족한 경우입니다. 따라서이를 해결하기 위해 Google은 LLM을 실제 데이터와 연결하고 Google의 데이터 커먼즈를 사용하여 신뢰할 수있는 소스와의 반응을 확인하기위한 Datagemma라는 도구 인 오픈 모델을 개발했습니다.
학습 결과
- 대형 언어 모델 (LLM)의 기본 사항과 응용 프로그램을 이해하십시오.
- LLM의 환각의 원인과 유형을 탐색하십시오.
- Google의 Datagemma가 실제 데이터를 사용하여 LLM 환각을 어떻게 해결하는지 알아보십시오.
- RIG (Restrieval-Interleaved Generation) 및 검색 증강 생성 (RAG)과 같은 고급 기술에 대한 통찰력을 얻습니다.
- Google의 데이터 커먼즈가 LLM 사실 정확도를 향상시키는 방법을 알아보십시오.
이 기사는 Data Science Blogathon 의 일부로 출판되었습니다 .
목차
- 큰 언어 모델 이해
- 젬마의 건축 이해
- LLM의 맥락에서 환각은 무엇입니까?
- Datagemma는 무엇입니까?
- RIG : LLM 환각을 최소화하기위한 하이브리드 접근법
- LLM 환각을 최소화하기위한 증거 증강 세대
- Datagemma가 중요한 이유는 무엇입니까?
- 자주 묻는 질문
큰 언어 모델 이해
대형 언어 모델은 기초 모델이며, 자연어를 이해하고 생성 할 수있는 수백만에서 수십억에 이르는 매개 변수를 갖춘 엄청난 양의 텍스트 데이터에 대해 교육을 받았습니다. 그들은 자연 언어를 처리하고 생성 할 수있는 변압기 아키텍처를 기반으로합니다. 맞춤형 데이터 세트를 사용하여 특정 도메인의 특정 작업에 대해 LLM 모델을 미세 조정할 수 있습니다. 예를 들어, Bert와 같은 LLM 모델은 사이버 보안 Corpora에서 미세 조정하여 LLM을 사용하여 위협 인텔리전스를 자동화 할 수 있습니다.
Gemma, Gemini 및 Bert의 비교
아체 | 쌍둥이 자리 | 버트 |
개발자를위한 경량 모델 | 더 크고 강력하고 대화적인 AI | NLP 작업을위한 미리 훈련 된 모델 |
휴대폰 및 에지 컴퓨팅과 같은 자원 제약 조건이있는 응용 프로그램에 이상적입니다. | 대규모 데이터 분석, 복잡한 AI 애플리케이션과 같은 리소스 제약 조건이없는 복잡한 작업에 이상적입니다. | 텍스트 분류, 질문 답변, 감정 분석과 같은 작업에 이상적입니다. |
제한된 리소스 환경에 쉽게 배포 할 수 있습니다 | 종종 자원이 풍부한 클라우드 환경 또는 데이터 센터에 배포됩니다. | 온 프레미스 또는 클라우드 환경에 배치되었지만 더 큰 버전 (Bert-Large)에는 상당한 계산 자원이 필요합니다. |
덜 계산 자원이 필요합니다 | 종종 더 많은 계산 자원이 필요합니다. | Bert-Base와 같은 소규모 모델은 중간 하드웨어에 배치 할 수있는 반면 Bert-Large와 같은 대형 모델에는 더 많은 리소스가 필요할 수 있지만 여전히 Gemini보다 적습니다. |
젬마의 건축 이해
Gemma의 아키텍처는 고급 검색 및 생성 기술을 원활하게 통합하여 시스템이 외부 데이터 소스에 지능적으로 액세스하면서 정확하고 일관된 응답을 생성 할 수 있도록 설계되어 다양한 AI 중심 응용 프로그램에 매우 효과적입니다.
Gemma는 변압기 디코더 아키텍처를 기반으로합니다.
Gemma and Gemma 2 (2024 년에 출시 된 최신 버전)는 Gemma Family of Google의 LLM 모델에 속합니다. 맞춤형 작업을 위해 미세 조정할 수 있습니다. 예를 들어, CodeGemma 모델은 코드 완료를위한 미세 조정 된 Gemma 모델입니다.
LLM의 맥락에서 환각은 무엇입니까?
LLM의 환각은 모델이 정확하게 부정확하거나 일관성이 없거나 구성된 정보를 생성하는 사례이지만 우리에게 믿을만한 것으로 보입니다. 모델은 컨텐츠를 환영하며 그 컨텐츠는 실제로 사실이 아닙니다. 예를 들어 : 법원의 경우, 두 명의 변호사가 Chatgpt가 제공 한 출처를 인용하여 거짓으로 판명되었습니다.
AI 환각은 세 가지 유형 일 수 있습니다
- 입력 충돌 환각 : 모델은 입력에서 사용자가 제공 한 정보에서 벗어나는 출력을 생성합니다.
- 컨텍스트 충돌 환각 : 여기서, 모델은 이전에 생성 된 출력과 모순되는 출력을 생성합니다.
- 사실 성분 환각 : 모델은 실제 지식이나 사실과 모순되는 허위/부정확 한 출력을 생성합니다.
환각을 일으키는 원인은 무엇입니까?
- 제한된 교육 데이터 : 모델을 철저히 훈련시키지 않았거나 제한된 데이터에 대해 교육을받지 않은 경우, 새로운 프롬프트를 완전히 이해하지 못하더라도 교육 데이터와 다른 프롬프트가 발생하면 부정확 한 기존 교육 데이터를 기반으로 데이터를 생성 할 수 있습니다.
- 너무 많은 기능 : 너무 많은 기능이 제공되면 모델은 기본 패턴을 이해하지 않고 모든 데이터 포인트를 캡처 한 다음 교육 데이터에 대해 100% 정확도를 얻으려고하지만 새로운 데이터에서는 일반화되지 않습니다.
보시다시피, 환각 된 LLM 컨텐츠는 사실 확인없이 사용하면 유해 할 수 있습니다. 사실 정확도가 중요하고 의학적 조언이나 법적 지침과 같은 잘못된 정보가있을 수없는 응용 분야에서 환각은 잠재적으로 심각한 결과를 낳을 수 있습니다. 환각은 정답만큼 자신있게 전달되므로 사용자가 인식하기가 어려워 질 수 있습니다. 또한 정확한 정보에 대한 AI에 대한 의존이 증가함에 따라 환각으로 인해 AI 시스템에 대한 신뢰가 줄어들 수 있으므로 LLM이 높은 지분 영역에서 수용하기가 더 어려워집니다.
따라서 모델 개발자는이 문제를 해결하고 정확성과 사실이 포함 된 경우 LLM이 잘못된 정보의 확산을 피하기 위해 정확하고 사실적인 출력을 생성해야합니다. AI 환각을 다루는 이러한 접근법 중 하나는 Google에 의해 Datagemma의 형태로 개발되었습니다.
Datagemma는 무엇입니까?
DataGemma는 Google에서 개발 한 개방형 모델로 LLM을 Google의 Datacommons에서 얻은 신뢰할 수있는 사실, 실제 실제 데이터와 연결합니다.
Google Data Commons는 방대한 양의 공개 데이터 세트를 통합 형식으로 결합하여 액세스 및 사용을보다 쉽게 사용할 수있는 개방형 저장소입니다. 정부 논문, 연구 조직 및 글로벌 데이터베이스를 포함한 다양한 소스의 데이터를 결합합니다. Data Commons의 주요 목적은 다양한 데이터 세트에 대한 공통 프레임 워크를 제공하여 사용자가 고가의 데이터 청소 또는 통합 노력없이 수많은 도메인에서 구조화 된 실제 데이터를 쿼리하고 분석 할 수 있도록하는 것입니다.
데이터 커먼즈의 주요 기능
- 여기에는 미국 인구 조사국, 세계 은행, NOAA 등과 같은 장소에서 공급되는 인구 통계, 경제, 환경 및 건강 관리와 같은 다양한 주제에 대한 데이터가 포함됩니다.
- 데이터는 표준화 된 스키마로 구성되므로 사용자는 다양한 데이터 형식 및 구조의 복잡성을 처리 할 필요없이 데이터 세트를 쉽게 쿼리 할 수 있습니다.
- 개발자는 API를 통해 데이터 커먼즈에 액세스 할 수 있습니다.
- 모든 사람이 고품질의 신뢰할 수있는 데이터에 액세스 할 수 있도록 설계된 무료로 사용할 수있는 공공 서비스입니다.
데이터 커먼즈의 중요성
- 연구원은 데이터 커머드를 사용하여 수동으로 데이터를 소스 및 정리할 필요없이 대형 구조화 된 데이터 세트를 신속하게 수집하고 분석 할 수 있습니다.
- Google의 Gemma와 같은 대형 언어 모델 (LLMS)은 데이터 커먼즈를 사용하여 실제 데이터를 참조하고 환각을 줄이고 출력의 사실 정확도를 향상시킬 수 있습니다.
링크 : 자체 데이터 커먼즈 - 데이터 커먼즈 구축
RIG : LLM 환각을 최소화하기위한 하이브리드 접근법
검색 기반 및 생성 기반 방법을 결합하여 응답의 품질과 관련성을 향상시키는 자연 언어 처리 (NLP)의 고급 기술입니다.
장비의 작동 방식에 대한 간단한 설명은 다음과 같습니다.
- 검색 기반 방법 : 이러한 방법에는 기존 응답 또는 문서의 대규모 데이터베이스를 검색하여 가장 관련성이 높은 정보를 찾는 것이 포함됩니다. 이 접근법은 응답이 정확하고 실제 데이터에 접지되도록합니다.
- 생성 기반 방법 : 이 방법은 모델을 사용하여 입력에 따라 처음부터 응답을 생성합니다. 이것은보다 유연하고 창의적 인 반응을 허용하지만 때로는 부정확성이나 환각으로 이어질 수 있습니다.
- 인터리빙 : 검색 및 생성 기술을 인터리빙하거나 결합하여 RIG는 두 가지 접근 방식의 강점을 사용합니다. 이 시스템은 관련 정보를 검색 한 다음 생성 모델을 사용하여 정제 및 확장하여 정확성과 창의성을 보장합니다.
이는 대화 AI, 고객 지원 및 컨텐츠 생성과 같이 고품질의 상황에 맞는 응답이 중요한 응용 프로그램에 유용합니다.
Datagemma에서 Gemma 2는 출력을 생성하는 동안 정확한 정보를 추출 할시기를 인식하도록 미세 조정됩니다. 이에서는 출력에서 생성 된 숫자를 데이터 커먼즈의보다 정확한 정보로 대체합니다. 따라서 기본적으로 모델은보다 신뢰할 수있는 소스로 출력을 다시 확인합니다.
Datagemma에서 장비가 어떻게 사용됩니까?
DataGemma에서, 검색-상영 생성 (RIG)은 검색 모델과 생성 모델의 강점을 결합하여 출력의 정확성과 관련성을 향상시키기 위해 활용되어 생성 된 컨텐츠가 데이터 커먼즈와 같은 신뢰할 수있는 소스의 신뢰할 수있는 데이터에 근거합니다.
- 먼저, 사용자는 LLM 모델에 쿼리를 제출합니다. 우리의 경우, LLM 모델은 DataGemma이며, 이는 27b 매개 변수를 가진 Gemma 2 모델을 기반으로하며 RIG 용으로 미세 조정됩니다.
- Datagemma 모델은 자연어 쿼리 형태로 응답을 생성합니다. 이것의 목적은 Data Commons의 자연어 인터페이스에서 관련 데이터를 검색하는 것입니다.
- 데이터 커먼즈가 쿼리되고 필요한 데이터가 검색됩니다.
- 최종 응답이 생성되어 사용자에게 표시됩니다. 응답에는 데이터, 링크와 함께 소스 정보 및 일부 메타 데이터가 포함됩니다. 이것은 원래 응답에서 잠재적으로 부정확 한 숫자를 대체합니다.
Google Colab에서 단계별 절차
환각을 최소화하기 위해 리그를 구현하겠습니다.
사전 반품 :
- A100 GPU
- 하이 램 런타임
- 포옹 페이스 토큰
1 단계 : Hugging Face 계정에 로그인하여 새 토큰을 만듭니다.
Hugging Face 계정을 로그인하려면 여기를 클릭하십시오.
새 토큰 생성 :
2 단계 : Datacommons API 키
- 계정을 만들려면 여기를 클릭하십시오.
- 데이터 커먼즈를 통합 할 새 앱을 만듭니다. API 키에 등록하십시오.
3 단계 : 데이터 커먼즈 NL API 활성화
Colab 노트북 비밀 섹션으로 이동하십시오. 새로운 비밀을 만들고 노트북 액세스를 활성화하십시오.
- 포옹 페이스 토큰으로 가치를 가진 hf_token
- DC_API_KEY 데이터 커먼즈 토큰으로 가치가 있습니다
4 단계 : 필요한 라이브러리를 설치하십시오
필요한 라이브러리를 설치하겠습니다.
#다음 필요한 라이브러리를 설치하십시오 ! pip install -q git https://github.com/datacommonsorg/llm-tools ! pip install -q bitsandbytes 가속 #FINETUNED GEMMA2 27B 모델을로드하십시오 토치 수입 data_gemma를 dg로 가져옵니다 google.colab import userData에서 변압기에서 Autotokenizer, AutomodElforcausallm, BitsandbyTesconfig에서 # 데이터 커먼즈 API 클라이언트 초기화 dc_api_key = userData.get ( 'dc_api_key') dc = dg.datacommons (api_key = dc_api_key) # Huggingface에서 Finetuned Gemma2 모델을 얻으십시오 hf_token = userData.get ( 'hf_token') nf4_config = BitsandbyTesconfig ( load_in_4bit = true, bnb_4bit_quant_type = "nf4", bnb_4bit_compute_dtype = torch.bfloat16 )) model_name = 'Google/DataGemma-Rig-27B-It' Tokenizer = Autotokenizer.from_pretrained (model_name, token = hf_token) DataGemma_Model = AutomodElforcausallm.from_pretrained (model_name, device_map = "자동", Quantization_Config = NF4_Config, Torch_dtype = Torch.bfloat16, 토큰 = hf_token) # 리그 흐름에 사용할 LLM 모델 스터브 구축 DataGemma_Model_wrapper = dg.hfbasic (datagemma_model, Tokenizer)
5 단계 : 쿼리를 선택하거나 입력하십시오
이 단계에서 사용자는 사전 정의 된 쿼리를 선택하거나 사용자 정의 쿼리를 입력하여 시스템이 추가 처리를 위해 데이터 소스에서 관련 정보를 검색 할 수 있습니다.
6 단계 : 리그 기술을 실행하고 출력을 생성하십시오
이 단계에서 리그 기술이 실행되어 검색 및 생성 방법을 결합하여 입력 쿼리에 기초하여 정확하고 문맥 상 관련 출력을 생성합니다.
Ipython에서 Display 가져 오기 Markdown TextWrap 가져 오기 def display_chat (프롬프트, 텍스트) : formatted_prompt = "<font size="'1'color">? 대담추 <blockquote>"Prompt "</blockquote> </font>" text = text.replace ( '•', ' *') text = textwrap.indent (text, '>', prectice = lambda _ : true) formatted_text = "<font size="'1'color">? \ n \ n"text "\ n </font>" Return Markdown (Formatted_Prompt Formatted_Text) def to_markdown (텍스트) : text = text.replace ( '•', ' *') return markdown (textwrap.indent (text, '>', prectice = lambda _ : true)) ans = dg.rigflow (llm = datagemma_model_wrapper, data_fetcher = dc, verbose = false) .query (query = query) Markdown (TextWrap.Indent (Ans.Answer (), '>', prectice = lambda _ : true)) display_chat (query, ans.answer ())
출력 : (다른 쿼리의 경우)
결론 : Gemma2는 수치 값 만 생성하는 반면 DataGemma는 소스 정보, 소스 링크, 일부 메타 데이터 및 쿼리에 대한 결론과 함께 수치 값을 생성합니다.
출처 : Google에서 제공하는 Google Colab 노트
LLM 환각을 최소화하기위한 증거 증강 세대
검색 증강 생성은 NLP (Natural Language Processing) 및 LLM (Lange Language Model) (LLM)의 접근 방식으로, 생성 된 컨텐츠의 사실 정확도와 관련성을 향상시켜 모델이 생성 프로세스 중에 외부 지식 소스에 액세스 할 수 있도록합니다. LLM이 텍스트를 생성하기 전에 데이터 커먼즈의 관련 정보를 검색하여 응답을위한 사실적인 기초를 제공합니다.
다음은 Rag의 작동 방식에 대한 간략한 설명입니다.
- 검색 : 사용자가 쿼리를 입력하면 모델이 수신 한 다음 지식 기반 또는 외부 소스에서 관련 데이터를 추출합니다.
- 증강 : 이 외부 정보는 언어 모델의 입력 컨텍스트를 "보강"(또는 강화)하는 데 사용되므로 상황에 맞는 관련 응답을 생성하는 데 도움이됩니다.
- 생성 : LLM은 원래 쿼리와 검색된 정보를 기반으로 응답을 생성합니다.
DataGemma에는 헝겊이 어떻게 사용됩니까?
DataGemma에서, RAG (Retrieval-Augmented Generation)는 외부 소스에서 관련 데이터를 검색 한 다음이 검색된 지식과 AI 생성 통찰력을 결합한 컨텐츠를 생성하여 고품질 및 상황에 맞는 출력을 보장함으로써 응답 정확도를 향상시키기 위해 사용됩니다.
Rag의 작동 방식은 다음과 같습니다.
- 먼저, 사용자는 LLM 모델에 쿼리를 제출합니다. 우리의 경우, LLM 모델은 DataGemma이며, 이는 27b 매개 변수의 Gemma 2 모델을 기반으로하며 RAG 작업을 위해 미세 조정됩니다.
- Datagemma 모델은 입력 쿼리를 분석 한 후 자연어 쿼리 형태로 응답을 생성합니다. 이것의 목적은 Data Commons의 자연어 인터페이스에서 관련 데이터를 검색하는 것입니다.
- 데이터 커먼즈가 쿼리되고 필요한 정보가 검색됩니다.
- 최종 응답이 생성되어 사용자에게 표시됩니다. 여기에는 데이터 테이블, 링크와 함께 소스 정보 및 일부 메타 데이터가 포함됩니다. 이것은 원래 응답에서 잠재적으로 부정확 한 숫자를 대체합니다.
- 이 검색된 정보는 원래 사용자 쿼리에 추가되어 향상 또는 증강 프롬프트를 만듭니다.
- 더 큰 LLM (우리의 경우 Gemini 1.5 Pro)는 검색된 데이터를 포함 하여이 향상된 프롬프트를 사용하여 더 나은 정확하고 사실적인 응답을 생성합니다.
Google Colab에서 단계별 절차
우리는 이제 환각을 최소화하기 위해 Rag의 단계별 절차를 살펴볼 것입니다.
사전 반품 :
- A100 GPU
- 하이 램 런타임
- 포옹 페이스 토큰
- 데이터 커먼즈 API 토큰
- Gemini 1.5 Pro API 키
1 단계 : Gemini API 키를 만듭니다
Google AI Studio로 이동하여 Gemini API 키를 만듭니다.
2 단계 : 노트북 액세스를 활성화합니다
Google Colab Notebook Secrets 섹션으로 이동하여 Hugging Face, Data Commons 및 Gemini 1.5 Pro API 키를 입력하십시오. 노트북 액세스를 활성화합니다.
3 단계 : 필요한 라이브러리를 설치하십시오
이 단계에서는 리그 기술을 구현하고 Datagemma 시스템의 원활한 작동을 보장하는 필요한 라이브러리를 설치합니다.
#Stall 라이브러리 ! pip install -q git https://github.com/datacommonsorg/llm-tools ! pip install -q bitsandbytes 가속 #미세 조정 된 Gemma2 27b 모델로드 토치 수입 data_gemma를 dg로 가져옵니다 google.colab import userData에서 변압기에서 Autotokenizer, AutomodElforcausallm, BitsandbyTesconfig에서 # 데이터 커먼즈 API 클라이언트 초기화 dc_api_key = userData.get ( 'dc_api_key') dc = dg.datacommons (api_key = dc_api_key) # Gemini 1.5 프로 모델을 얻으십시오 gemini_api_key = userData.get ( 'gemini_api_key') gemini_model = dg.googleaistudio (model = 'gemini-1.5-pro', api_keys = [gemini_api_key])) # Huggingface에서 Finetuned Gemma2 모델을 얻으십시오 hf_token = userData.get ( 'hf_token') nf4_config = BitsandbyTesconfig ( load_in_4bit = true, bnb_4bit_quant_type = "nf4", bnb_4bit_compute_dtype = torch.bfloat16 )) model_name = 'Google/DataGemma-rag-27b-it' Tokenizer = Autotokenizer.from_pretrained (model_name, token = hf_token) DataGemma_Model = AutomodElforcausallm.from_pretrained (model_name, device_map = "자동", Quantization_Config = NF4_Config, Torch_dtype = Torch.bfloat16, 토큰 = hf_token) # RAG 흐름에 사용할 LLM 모델 스터브 구축 DataGemma_Model_wrapper = dg.hfbasic (datagemma_model, Tokenizer)
4 단계 : 자신의 쿼리를 선택하거나 만듭니다
원하는 출력을 검색하고 생성하기위한 리그 기술의 입력 역할을하는 사용자 정의 쿼리를 선택하거나 생성합니다.
5 단계 : 헝겊을 실행하고 출력을 생성합니다
이제 RAG 시스템을 실행하여 관련 데이터를 검색하고 제공 한 쿼리에 따라 최종 출력을 생성합니다.
Ipython에서 Display 가져 오기 Markdown TextWrap 가져 오기 def display_chat (프롬프트, 텍스트) : formatted_prompt = "<font size="'1'color">? 대담추 <blockquote>"Prompt "</blockquote> </font>" text = text.replace ( '•', ' *') text = textwrap.indent (text, '>', prectice = lambda _ : true) formatted_text = "<font size="'1'color">? \ n \ n"text "\ n </font>" Return Markdown (Formatted_Prompt Formatted_Text) def to_markdown (텍스트) : text = text.replace ( '•', ' *') return markdown (textwrap.indent (text, '>', prectice = lambda _ : true)) ans = dg.ragflow (llm_question = datagemma_model_wrapper, llm_answer = gemini_model, data_fetcher = dc) .query (query = query) Markdown (TextWrap.Indent (Ans.Answer (), '>', prectice = lambda _ : true)) display_chat (query, ans.answer ())
산출:
결론 : 쿼리를 요청하면 쿼리와 관련된 관련 데이터 테이블을 검색 한 다음이 데이터는 의미있는 정보와 통찰력으로 최종 응답을 작성하는 데 사용됩니다. 소스 링크, 테이블 및 결론과 함께 쿼리 응답은 출력으로 생성됩니다.
링크 : 데이터 젬마 래그
Datagemma가 중요한 이유는 무엇입니까?
Datagemma는 실제 데이터의 LLM 출력을 근거로하여 모델이 사실 기반 응답을 생성하도록합니다. Google의 데이터 커먼즈에서 검증 된 데이터로 모델의 응답을 확인함으로써 Datagemma는 잘못 또는 제작 된 답변의 수를 줄이는 데 도움이됩니다. Google의 연구원들은 RIG 및 RAG 접근 방식을 사용하여 모델에서 생성 된 출력의 정확도, 특히 수치 출력이 필요한 쿼리를 다루는 데 크게 개선되었습니다.
그들은 사용자가 기준선 출력보다 리그와 래그에 의해 생성 된 출력을 선호한다는 것을 관찰했습니다. 이 접근법은 AI 환각을 줄이고 잘못된 정보의 생성을 줄일 수 있습니다. 또한 Google 은이 Gemma 모델 변형 개방형 모델을 만들었으므로 개발자와 연구원 이이 접근법을 탐색하고 LLM을보다 신뢰할 수 있고 신뢰할 수있는 공통 목표를 달성하기 위해 더욱 향상시킬 수 있습니다.
결론
LLM은 산업 전반에 걸쳐 중요한 도구가되었지만 설득력이 있지만 잘못된 정보를 생성하는“환각”경향은 중요한 문제를 제기합니다. Google의 Datagemma는 Google 데이터 커먼즈의 방대한 실제 데이터와 결합하면이 문제에 대한 가능한 솔루션을 제공합니다. DataGemma의 기술은 검증 된 통계 데이터에 LLM 출력을 기반으로하여 특히 수치 정보를 사용하여 정확도를 향상시킵니다. 또한 잘못된 정보를 줄입니다. 초기 결과는이 전략이 AI 응답의 신뢰성을 상당히 증가 시킨다는 것을 보여 주며, 소비자는 시스템이 제공하는보다 사실적인 출력을 선호합니다. Datagemma는 개방형 모델이기 때문에 연구원과 개발자는 IT를 사용하여 개선 할 수있어 LLM이 실제 응용 프로그램을위한 신뢰할 수있는 도구가되기 위해 더 가깝게 제공 할 수 있습니다. 협력은 환각을 줄이고 신뢰성을 높이는 데 도움이 될 수 있습니다.
참조
- Datagemma : AI Open 모델 LLMS를 Google 데이터 커먼즈에 연결합니다 (Blog.google)
- Data Commons (Research.google)의 약간의 도움으로 실제로 AI 근거 AI
자주 묻는 질문
Q 1. 기초 모델이란 무엇입니까?A. 기초 모델은 다양한 양의 다양한 데이터에 대해 교육을받은 대규모 기계 학습 모델로 광범위한 작업에 걸쳐 일반화 할 수 있습니다. LLM은 방대한 양의 텍스트 데이터에 대해 훈련 된 파운데이션 모델의 한 유형입니다.
Q 2. AI 환각은 무엇입니까?A. AI 환각은 AI 모델이 정확하지만 부정확하거나 제작 된 정보를 생성하는 현상을 말합니다. 이 모델은 실제 데이터 또는 사실에 근거가없는 응답을 생성합니다.
Q3. LLMS는 왜 환각됩니까?A. llms는 훈련 된 데이터의 패턴을 기반으로 출력을 생성하기 때문에 환각됩니다. 쿼리에 응답하기에 충분한 맥락이나 관련 데이터가 없으면 기존 지식 기반에서 발견 된 유사한 데이터를 기반으로 불확실성을 인정하는 대신 그럴듯한 정보를 제작할 수 있습니다.
Q 4. Google Gemma는 무엇입니까?A. Google Gemma는 Google Gemini의 연구를 기반으로 한 Google의 가벼운 LLM 모델입니다. Gemma의 변형은 LLM을 Google 데이터 커먼즈의 실제 통계 데이터와 연결하도록 개발 된 개방형 모델 인 Datagemma입니다.
Q 5. 리그와 헝겊의 차이점은 무엇입니까?A. RIG는 Google Data Commons와 같은 외부 데이터 소스에 대한 생성 된 응답을 확인하여 실제 통계 데이터를 모델의 출력에 직접 통합합니다. 따라서 기본적으로 응답이 생성 된 다음 외부 소스로 사실 확인됩니다. 그러나 Rag에서는 외부 데이터베이스 또는 지식 소스에서 관련 정보를 검색 한 다음이 정보를 기반으로 응답을 생성합니다.
이 기사에 표시된 미디어는 분석 Vidhya가 소유하지 않으며 저자의 재량에 따라 사용됩니다.
위 내용은 Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

Hugging Face의 올림픽 코더 -7b : 강력한 오픈 소스 코드 추론 모델 우수한 코드 중심 언어 모델을 개발하기위한 경쟁은 강화되고 있으며, Hugging Face는 엄청난 경쟁자 인 OlympicCoder-7B와 경쟁에 참여했습니다.

AI가 단순한 질문에 대답하는 것 이상을 할 수 있기를 바라는 여러분 중 몇 명이 있습니까? 나는 내가 가지고 있다는 것을 알고 있으며, 늦게 그것이 어떻게 변화하고 있는지에 놀랐습니다. AI 챗봇은 더 이상 채팅에 관한 것이 아니라 창작에 관한 것입니다.

Smart AI가 모든 수준의 엔터프라이즈 소프트웨어 플랫폼 및 애플리케이션에 통합되기 시작함에 따라 (강력한 핵심 도구와 덜 안정적인 시뮬레이션 도구가 있음을 강조해야 함) 이러한 에이전트를 관리하려면 새로운 인프라 기능 세트가 필요합니다. 독일 베를린에 본사를 둔 프로세스 오케스트레이션 회사 인 Camunda는 Smart AI가 적절한 역할을 수행하고 새로운 디지털 작업장에서 정확한 비즈니스 목표 및 규칙에 맞게 조정하는 데 도움이 될 수 있다고 생각합니다. 이 회사는 현재 조직이 AI 에이전트를 모델링, 배포 및 관리하도록 돕기 위해 설계된 지능형 오케스트레이션 기능을 제공합니다. 실용적인 소프트웨어 엔지니어링 관점에서, 이것이 무엇을 의미합니까? 확실성과 비 결정적 프로세스의 통합 이 회사는 핵심은 사용자 (일반적으로 데이터 과학자, 소프트웨어)를 허용하는 것이라고 말했다.

다음 '25 년 Google Cloud에 참석하면서 Google이 AI 제품을 구별하는 방법을보고 싶어했습니다. 에이전트 공간 (여기서 논의 된)과 고객 경험 제품군 (여기서 논의)에 관한 최근의 발표는 유망한 비즈니스 valu를 강조했습니다.

검색 증강 생성 (RAG) 시스템을위한 최적의 다국적 임베딩 모델 선택 오늘날의 상호 연결된 세계에서 효과적인 다국어 AI 시스템을 구축하는 것이 가장 중요합니다. 강력한 다국어 임베딩 모델은 RE에 중요합니다

Tesla의 Austin Robotaxi 런칭 : Musk의 주장에 대한 자세한 내용 Elon Musk는 최근 텍사스 오스틴에서 Tesla의 다가오는 Robotaxi 런칭을 발표하여 안전상의 이유로 소규모 10-20 대의 차량을 배치하여 빠른 확장 계획을 세웠습니다. 시간

인공 지능이 적용되는 방식은 예상치 못한 일 수 있습니다. 처음에 우리 중 많은 사람들이 주로 코드 작성 및 컨텐츠 작성과 같은 창의적이고 기술적 인 작업에 주로 사용되었다고 생각할 수도 있습니다. 그러나 하버드 비즈니스 리뷰 (Harvard Business Review)가 최근 조사한 결과는 그렇지 않습니다. 대부분의 사용자는 일뿐만 아니라 지원, 조직, 심지어 우정을 위해 인공 지능을 추구합니다! 이 보고서는 AI 신청 사례의 첫 번째는 치료 및 동반자라고 밝혔다. 이것은 24/7 가용성과 익명의 정직한 조언과 피드백을 제공하는 능력이 큰 가치가 있음을 보여줍니다. 반면에, 마케팅 작업 (예 : 블로그 작성, 소셜 미디어 게시물 만들기 또는 광고 사본)은 인기있는 사용 목록에서 훨씬 낮습니다. 이게 왜? 연구 결과와 그것이 어떻게 계속되는지 보자.

AI 요원의 부상은 비즈니스 환경을 변화시키고 있습니다. 클라우드 혁명과 비교하여, AI 에이전트의 영향은 지식 작업에 혁명을 일으킬 것으로 예상되며, 기하 급수적으로 더 크다. 인간의 의사 결정 마키를 시뮬레이션하는 능력


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

SublimeText3 Linux 새 버전
SublimeText3 Linux 최신 버전

VSCode Windows 64비트 다운로드
Microsoft에서 출시한 강력한 무료 IDE 편집기

MinGW - Windows용 미니멀리스트 GNU
이 프로젝트는 osdn.net/projects/mingw로 마이그레이션되는 중입니다. 계속해서 그곳에서 우리를 팔로우할 수 있습니다. MinGW: GCC(GNU Compiler Collection)의 기본 Windows 포트로, 기본 Windows 애플리케이션을 구축하기 위한 무료 배포 가능 가져오기 라이브러리 및 헤더 파일로 C99 기능을 지원하는 MSVC 런타임에 대한 확장이 포함되어 있습니다. 모든 MinGW 소프트웨어는 64비트 Windows 플랫폼에서 실행될 수 있습니다.

Dreamweaver Mac版
시각적 웹 개발 도구

DVWA
DVWA(Damn Vulnerable Web App)는 매우 취약한 PHP/MySQL 웹 애플리케이션입니다. 주요 목표는 보안 전문가가 법적 환경에서 자신의 기술과 도구를 테스트하고, 웹 개발자가 웹 응용 프로그램 보안 프로세스를 더 잘 이해할 수 있도록 돕고, 교사/학생이 교실 환경 웹 응용 프로그램에서 가르치고 배울 수 있도록 돕는 것입니다. 보안. DVWA의 목표는 다양한 난이도의 간단하고 간단한 인터페이스를 통해 가장 일반적인 웹 취약점 중 일부를 연습하는 것입니다. 이 소프트웨어는
