정보 과부하의 디지털 시대에는 대규모 데이터 세트에서 실행 가능한 통찰력을 추출하는 것이 그 어느 때보다 중요합니다. 최근 저는 방대한 회의록 모음에서 정확한 답변을 제공하는 주요 과제를 해결하기 위해 RAG(검색 증강 생성)를 활용하는 여정에 착수했습니다. 이 블로그에서는 RAG 기반 질의 응답 시스템을 구조화되지 않은 회의 데이터에서 통찰력을 추출하기 위한 강력한 도구로 전환한 장애물, 솔루션 및 성과를 살펴봅니다.
문제 설명: RAG를 사용한 쿼리 응답의 과제
주요 과제 중 하나는 대규모 회의록 저장소 내에서 복잡한 의도별 쿼리를 처리할 수 있는 시스템을 구축하는 것이었습니다. 기존 RAG 쿼리 응답 모델은 관련이 없거나 불완전한 정보를 반환하는 경우가 많아 사용자 의도를 포착하지 못했습니다. 다양한 쿼리 유형과 결합된 회의 데이터의 구조화되지 않은 특성으로 인해 더욱 세련된 솔루션이 필요했습니다.
초기 접근 방식: 효과적인 쿼리 응답을 위한 기반 마련
나는 검색과 응답 생성을 결합하도록 설계된 기본 RAG 모델로 시작했습니다. 사용된 두 가지 초기 기술은 다음과 같습니다.
청킹: 큰 문서를 문장 경계에 따라 작은 세그먼트로 나누면 검색 범위가 좁아져 검색 성능이 향상됩니다.
임베딩 및 벡터 저장: 청킹 후 각 세그먼트를 벡터 데이터베이스에 임베딩하여 저장하여 효율적인 검색이 가능합니다.
그러나 이 설정에는 한계가 있었습니다. 초기 청크 접근 방식에서는 관련 없는 정보가 검색되는 경우가 많았으며 생성된 답변의 정확성과 각 쿼리의 의도에 대한 일관성이 부족했습니다.
대규모 RAG 쿼리 응답의 과제
- 복잡한 쿼리 처리: 특정 복잡한 질문에는 기본 의미 검색을 넘어 더 깊은 의미 이해가 필요합니다.
- 문맥 불일치: 검색된 청크는 문맥상 유사하지만 쿼리 요구 사항을 충족할 만큼 정확하지 않은 경우가 많습니다.
- 검색 정밀도 제한: 작은 문서 세트(예: 5~10개)를 검색하면 관련성이 부족한 제한된 결과가 나오는 경우가 많습니다.
이러한 문제로 인해 RAG 쿼리 응답의 정확성을 높이기 위한 더욱 발전된 접근 방식의 필요성이 강조되었습니다.
향상된 쿼리 정확성을 위한 고급 RAG 기술(솔루션)
이러한 문제를 해결하기 위해 저는 여러 가지 고급 방법론을 적용하여 시스템을 반복적으로 개선했습니다.
의미적 청킹
기존 청킹과 달리 시맨틱 청킹은 각 세그먼트 내에서 의미의 우선순위를 지정하여 검색된 정보를 쿼리 의도에 맞춰 관련성을 높입니다.
from langchain_experimental.text_splitter import SemanticChunker from langchain_openai.embeddings import OpenAIEmbeddings from langchain.schema import Document # Initialize OpenAI Embeddings with API key openai_api_key = "" embedder = OpenAIEmbeddings(openai_api_key=openai_api_key) text_splitter = SemanticChunker(embedder) def prepare_docs_for_indexing(videos): all_docs = [] for video in videos: video_id = video.get('video_id') title = video.get('video_name') transcript_info = video.get('details', {}).get('transcript_info', {}) summary = video.get('details', {}).get('summary') created_at = transcript_info.get('created_at') # Getting the created_at timestamp # Get the full transcription text transcription_text = transcript_info.get('transcription_text', '') # Create documents using semantic chunking docs = text_splitter.create_documents([transcription_text]) for doc in docs: # Add metadata to each document doc.metadata = { "created_at": created_at, "title": title, "video_id": video_id, "summary": summary } all_docs.append(doc) return all_docs docs = prepare_docs_for_indexing(videos) # Output the created documents for doc in docs: print("____________") print(doc.page_content)
최대 마진 검색
이 방법은 관련 데이터와 관련 없는 데이터를 구별하여 가장 일치하는 데이터 청크만 검색함으로써 검색 정밀도를 향상시켰습니다.
람다 점수
Lambda Scoring을 사용하면 관련성을 기준으로 결과의 순위를 매길 수 있었고 더 나은 답변 품질을 위해 쿼리 의도와 더 밀접하게 일치하는 응답의 우선 순위를 지정할 수 있었습니다.
from langchain_community.vectorstores import OpenSearchVectorSearch from langchain_openai import OpenAIEmbeddings embeddings = OpenAIEmbeddings() docsearch = OpenSearchVectorSearch.from_documents( docs, embeddings, opensearch_url="http://localhost:9200" ) query = "your query" docs = docsearch.max_marginal_relevance_search(query, k=2, fetch_k=10, lambda_param=0.25)
멀티 쿼리 및 RAG Fusion
복잡한 질문의 경우 시스템은 여러 하위 쿼리를 생성합니다. 그런 다음 RAG Fusion은 다양한 답변을 하나의 응집력 있는 응답으로 통합하여 응답 품질을 향상하고 오류를 줄입니다.
def generate_multi_queries(question: str): # Template to generate multiple queries template = """You are an AI language model assistant. Your task is to generate five different versions of the given user question to retrieve relevant documents from a vector database. By generating multiple perspectives on the user question, your goal is to help the user overcome some of the limitations of the distance-based similarity search. Provide these alternative questions separated by newlines. Original question: {question}""" # Creating a prompt template for query generation prompt_perspectives = ChatPromptTemplate.from_template(template) # Generate the queries using ChatOpenAI and output parser generate_queries = ( prompt_perspectives | ChatOpenAI(temperature=0, openai_api_key=openai_api_key) | StrOutputParser() | (lambda x: x.split("\n")) ) # Invoke the chain to generate queries multi_queries = generate_queries.invoke({"question": question}) return multi_queries
def reciprocal_rank_fusion(results: list[list], k=60): """Applies Reciprocal Rank Fusion (RRF) to fuse ranked document lists.""" fused_scores = {} for docs in results: for rank, doc in enumerate(docs): doc_str = dumps(doc) # Convert to a serializable format if doc_str not in fused_scores: fused_scores[doc_str] = 0 fused_scores[doc_str] += 1 / (rank + k) # RRF formula # Sort documents by the fused score reranked_results = [ (loads(doc), score) for doc, score in sorted(fused_scores.items(), key=lambda x: x[1], reverse=True) ] return reranked_result
향상된 색인 생성 및 최적화된 벡터 검색
인덱싱 메커니즘을 개선하고 벡터 검색 매개변수를 개선하여 특히 대규모 데이터 세트의 경우 검색이 더 빠르고 정확해졌습니다.
결과: RAG 쿼리 응답의 주요 성과
이러한 기술을 구현함으로써 상당한 개선이 이루어졌습니다.
- 검색 정밀도 향상: 의미적 청킹 및 최대 마진 검색과 같은 기술을 통해 정제된 데이터 검색을 통해 가장 관련성이 높은 청크만 반환됩니다.
- 향상된 관련성: Lambda Scoring은 관련 결과의 우선순위를 효과적으로 지정하여 쿼리 의도에 따라 응답을 긴밀하게 조정합니다.
- 복잡한 쿼리 처리 개선: 다중 쿼리 생성 및 RAG Fusion을 통해 시스템에서 복잡한 질문을 관리하고 포괄적인 답변을 제공할 수 있었습니다.
- 더욱 강화된 시스템 견고성: 이러한 개선을 통해 시스템은 기본 모델에서 대규모의 구조화되지 않은 회의 데이터를 위한 정교하고 신뢰할 수 있는 질의 응답 도구로 향상되었습니다.
주요 시사점 및 교훈
이 여정을 통해 저는 다음과 같은 몇 가지 핵심 통찰력을 얻었습니다.
- 적응성이 핵심입니다. 첫 번째 시도에서 효과적인 솔루션이 나타나는 경우는 거의 없습니다. 반복적인 개선과 유연성이 필수적입니다.
- 계층화된 방법론으로 견고성 향상: 의미론적 청킹, 최대 마진 검색, 람다 채점 등 여러 접근 방식을 통합하여 더욱 강력하고 효과적인 시스템을 만들었습니다.
- 철저한 쿼리 처리: 다중 쿼리 생성 및 RAG Fusion은 다양한 관점에서 질문을 해결하는 것의 중요성을 강조했습니다.
- 의미에 초점: 구조 자체가 아닌 데이터 내 의미를 강조하여 검색 정확도가 크게 향상되었습니다.
결론: RAG 기반 시스템의 미래 전망
고급 기술로 RAG 모델을 강화하여 단순한 검색 시스템을 복잡하고 미묘한 쿼리에 응답하기 위한 강력한 도구로 전환했습니다. 앞으로는 실시간 학습 기능을 통합하여 시스템이 새로운 데이터에 동적으로 적응할 수 있도록 하는 것이 목표입니다. 이 경험을 통해 기술적 능력이 심화되었고 데이터 검색 시스템의 유연성, 의미 집중 및 반복적 개선의 중요성이 강조되었습니다.
최종 생각: 고급 RAG 시스템 구현 가이드
RAG 문제를 극복한 경험을 공유함으로써 유사한 솔루션을 구현하기 위한 지침을 제공하고자 합니다. 반복적인 개선과 결합된 전략적 기술은 즉각적인 문제를 해결했을 뿐만 아니라 질의 응답 시스템의 미래 발전을 위한 강력한 기반을 마련했습니다.
위 내용은 RAG로 질의 응답 마스터하기: 대규모 회의 데이터의 주요 과제 극복의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

Pythonusesahybridmodelofilationandlostretation : 1) ThePyThoninterPretreCeterCompileSsourcodeIntOplatform-IndependentBecode.

Pythonisbothingretedandcompiled.1) 1) it 'scompiledtobytecodeforportabilityacrossplatforms.2) thebytecodeisthentenningreted, withfordiNamictyTeNgreted, WhithItmayBowerShiledlanguges.

forloopsareusedwhendumberofitessiskNowninadvance, whilewhiloopsareusedwhentheationsdepernationsorarrays.2) whiloopsureatableforscenarioScontiLaspecOndCond

pythonisnotpurelynlogreted; itusesahybrideprophorfbyodecodecompilationandruntime -INGRETATION.1) pythoncompilessourcecodeintobytecode, thepythonVirtualMachine (pvm)

ToconcatenatelistsinpythonwithesameElements, 사용 : 1) OperatorTokeEpduplicates, 2) asettoremovedUplicates, or3) listComperensionForControlOverDuplicates, 각 methodHasDifferentPerferformanCeanDorderImpestications.

PythonisancerpretedLanguage, 비판적 요소를 제시하는 PytherfaceLockelimitationsIncriticalApplications.1) 해석 된 언어와 같은 thePeedBackandbackandrapidProtoTyping.2) CompilledlanguagesLikec/C transformt 해석

useforloopswhhenmerfiterationsiskNownInAdvance 및 WhileLoopSweHeniTesslationsDepoyConditionismet whilEroopsSuitsCenarioswhereTheLoopScenarioswhereTheLoopScenarioswhereTheLoopScenarioswhereTherInatismet, 유용한 광고 인 푸트 gorit


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

맨티스BT
Mantis는 제품 결함 추적을 돕기 위해 설계된 배포하기 쉬운 웹 기반 결함 추적 도구입니다. PHP, MySQL 및 웹 서버가 필요합니다. 데모 및 호스팅 서비스를 확인해 보세요.

SublimeText3 영어 버전
권장 사항: Win 버전, 코드 프롬프트 지원!

MinGW - Windows용 미니멀리스트 GNU
이 프로젝트는 osdn.net/projects/mingw로 마이그레이션되는 중입니다. 계속해서 그곳에서 우리를 팔로우할 수 있습니다. MinGW: GCC(GNU Compiler Collection)의 기본 Windows 포트로, 기본 Windows 애플리케이션을 구축하기 위한 무료 배포 가능 가져오기 라이브러리 및 헤더 파일로 C99 기능을 지원하는 MSVC 런타임에 대한 확장이 포함되어 있습니다. 모든 MinGW 소프트웨어는 64비트 Windows 플랫폼에서 실행될 수 있습니다.

DVWA
DVWA(Damn Vulnerable Web App)는 매우 취약한 PHP/MySQL 웹 애플리케이션입니다. 주요 목표는 보안 전문가가 법적 환경에서 자신의 기술과 도구를 테스트하고, 웹 개발자가 웹 응용 프로그램 보안 프로세스를 더 잘 이해할 수 있도록 돕고, 교사/학생이 교실 환경 웹 응용 프로그램에서 가르치고 배울 수 있도록 돕는 것입니다. 보안. DVWA의 목표는 다양한 난이도의 간단하고 간단한 인터페이스를 통해 가장 일반적인 웹 취약점 중 일부를 연습하는 것입니다. 이 소프트웨어는

에디트플러스 중국어 크랙 버전
작은 크기, 구문 강조, 코드 프롬프트 기능을 지원하지 않음