>기술 주변기기 >일체 포함 >비즈니스 계획 및 기업가 정신을위한 AI 기반 스마트 가이드 개발

비즈니스 계획 및 기업가 정신을위한 AI 기반 스마트 가이드 개발

王林
王林원래의
2025-02-25 18:36:11147검색

중간 멤버가 아닌 경우이 링크에서 전체 스토리를 읽을 수 있습니다. . chatgpt가 출시되고 다음과 같은 큰 언어 모델 (LLM)의 서지가 시작된 후, 환각의 고유 한 제한, 지식 컷오프 날짜 및 조직 또는 개인 별 정보를 제공 할 수없는 무능력이 곧 명백 해졌고 전공으로 여겨졌습니다. 단점. 이러한 문제를 해결하기 위해, RAG (Respreval Augment Generation) 방법은 곧 외부 데이터를 LLM에 통합하고 주어진 지식 기반의 질문에 답변하기 위해 행동을 안내하는 견인력을 얻었습니다. 흥미롭게도, Rag의 첫 번째 논문은 2020 년 Facebook AI Research (현재 Meta AI)의 연구원들에 의해 발간되었지만 Chatgpt의 출현까지는 그 잠재력이 완전히 실현되기 전까지는 아니 었습니다. 그 이후로 멈추지 않았습니다. 보다 진보되고 복잡한 래그 프레임 워크가 도입 되어이 기술의 정확성을 향상시킬뿐만 아니라 멀티 모달 데이터를 처리 할 수 ​​있었으며 광범위한 응용 분야의 잠재력을 확대 할 수있었습니다. 나는이 주제에 대해 다음 기사에 대해 자세히 썼으며, 특히 맥락의 멀티 모달 래그, 비즈니스 애플리케이션에 대한 멀티 모달 AI 검색, 정보 추출 및 매치 메이킹 플랫폼에 대해 논의합니다. .

다중 모드 데이터를 큰 언어 모델로 통합하는 비즈니스 애플리케이션에 대한 멀티 모달 ai 검색

ai 기반 정보 추출 및 매치 메이킹

RAG 기술의 확장 환경과 신흥 데이터 액세스 요구 사항을 통해 정적 지식 기반의 질문에 대한 답변에 답하는 리트리버 전용 RAG의 기능은 다른 다양한 지식 소스 및 도구를 통합하여 확장 될 수 있음을 깨달았습니다. 예를 들어 :

다중 데이터베이스 (예 : 벡터 데이터베이스 및 지식 그래프로 구성된 지식 기반) 최근 정보에 액세스하려면 실시간 웹 검색 여러 출처에서 정보를 비교하고 통합합니다

이를 달성하기 위해 Rag는 쿼리를 기반으로 최고의 지식 소스 및/또는 도구를 선택할 수 있어야합니다. AI 요원의 출현은 쿼리를 기반으로 최상의 행동 과정을 선택할 수있는 " 에이전트 래그 "라는 아이디어를 도입했습니다.이 기사에서는 SBG (Smart Business Guide)라는 특정 에이전트 래그 응용 프로그램을 개발할 것입니다. Interreg Central Baltic이 자금을 지원하는 낙관적. 이 프로젝트는 AI를 사용한 기업가 정신 및 사업 계획을 위해 핀란드와 에스토니아의 숙련 된 이민자들에게 중점을 둡니다. SBG는이 프로젝트의 업 스킬 프로세스에 사용될 도구 중 하나입니다. 이 도구는 정통 소스에서 비즈니스를 시작하려는 사람들 또는 이미 사업을하고있는 사람들에 이르기까지 정확하고 빠른 정보를 제공하는 데 중점을 둡니다. SBG의 에이전트 래그는 다음과 같이 구성됩니다

비즈니스 및 기업가 정신 가이드는 비즈니스 계획, 기업가 정신, 회사 등록, 과세, 비즈니스 아이디어, 규칙 및 규정, 비즈니스 기회, 라이센스 및 허가, 비즈니스 지침 등에 대한 정보를 포함하는 지식 기반입니다. 최근 정보를 소스로 가져 오려는 웹 검색 신뢰할 수있는 출처에서 정보를 가져 오는 지식 추출 도구. 이 정보는 관련 당국의 연락처, 최근 과세 규칙, 최근 비즈니스 등록 규칙 및 최근 라이센스 규정이 포함됩니다. 이 에이전트 래그에서 특별한 것은 무엇입니까?

다른 오픈 소스 모델을 선택하는 옵션 ) ** 및

독점 모델 s _ (gpt 전체 에이전트 워크 플로에서 -4o, gpt-4o-min_i). 오픈 소스 모델은 로컬로 실행되지 않으므로 강력하고 비싼 컴퓨팅 머신이 필요하지 않습니다. 대신, 그들은 groq cloud 's platfor m에서 실행됩니다. 그리고 그렇습니다. 이것은
  • 비용-프레 ** e 에이전트 걸레로 만듭니다. GPT 모델은 OpenAI의 API 키로 선택할 수도 있습니다. 지식 기반 검색, 웹 검색 및 하이브리드 검색을 시행하는 옵션. 응답 품질 향상을위한 검색된 문서의 등급 및 채점을 기반으로 웹 검색을 지능적으로 호출합니다. 응답 유형을 선택할 수있는 옵션 :
  • 컨시 , 중간, 또는
  • 설명 구체적으로, 기사는 다음 주제를 중심으로 구성됩니다 :

    llamaparse를 사용하여 지식 기반을 구성하기 위해 데이터를 구문 분석합니다 langgraph를 사용하여 에이전트 워크 플로 개발 무료 오픈 소스 모델을 사용하여 고급 에이전트 래그 (Smart Business Guide 또는 SBG라고 불리는) 개발 이 응용 프로그램의 전체 코드는 github에서 찾을 수 있습니다.

    응용 프로그램 코드는 두 가지로 구성되어 있습니다. py
      파일 : _agentic 전체 에이전트 워크 플로우를 구현하고 app.py lemelit 그래픽 사용자 인터페이스. 그것에 뛰어 들어 봅시다. SBG의 지식 기반은 핀란드 기관이 발표 한 진정한 비즈니스 및 기업가 정신 가이드로 구성됩니다. 이 가이드는 방대한 규모이며 그들로부터 필요한 정보를 찾는 것은 사소한 것이 아니기 때문에 목적은이 가이드로부터 정확한 정보를 제공 할 수있을뿐만 아니라 웹 검색 및 기타 신뢰할 수있는 소스로 증강 할 수있는 에이전트 래그를 개발하는 것입니다. 업데이트 된 정보를위한 핀란드. llamaparse는 LLM과 LLM 사용 사례를 위해 구축 된 Genai-Native 문서 구문 분석 플랫폼입니다. 위에서 언급 한 기사에서 llamaparse의 사용을 설명했습니다. 이번에는 Llamacloud에서 문서를 직접 구문 분석했습니다. Llamaparse는 하루에 1000 개의 무료 크레딧을 제공합니다. 이 크레딧의 사용은 구문 분석 모드에 따라 다릅니다. 텍스트 전용 PDF의 경우‘ fast 프리미엄 나는 다음 구문 분석 지침을 정의했다

      구문 분석 된 문서는 llamacloud에서 Markdown 형식으로 다운로드되었습니다. Llamacloud API를 통해 동일한 구문 분석을 수행 할 수 있습니다.

      는 여기에 Pikkala, A. et al., (2015)의 가이드 창의성 및 비즈니스의 예제 페이지가 있습니다 ( "

      이 페이지의 구문 분석 출력은 다음과 같습니다. llamaparse 페이지의 모든 구조에서 정보를 효율적으로 추출했습니다. 페이지에 표시된 노트는 이미지 형식입니다. 구문 분석 된 마크 다운 문서는 chunk_size = 3000 및 chunk_overlap = 200을 사용하여 langchain 's recursiveCharacterTextSplitter 를 사용하여 청크로 나뉩니다.

      그 후, vectorstore는 Open-Source 모델 또는 Openai 's

      You are given a document containing text, tables, and images. Extract all the contents in their correct format. Extract each table in a correct format and include a detailed explanation of each table before its extracted format. 
      If an image contains text, extract all the text in the correct format and include a detailed explanation of each image before its extracted text. 
      Produce the output in markdown text. Extract each page separately in the form of an individual node. Assign the document name and page number to each extracted node in the format: [Creativity and Business, page 7]. 
      Include the document name and page number at the start and end of each extracted page.
      텍스트-embedding-3-large와 같은 임베딩 모델을 사용하여 Chroma 데이터베이스에서 생성됩니다. .

      에이전트 워크 플로 생성

      AI 에이전트는 워크 플로와 의사 결정 논리의 조합으로, 질문에 지능적으로 답변하거나 더 간단한 하위 작업으로 분해되어야하는 다른 복잡한 작업을 수행하는 것입니다. 나는 langgraph를 사용하여 AI 에이전트를위한 워크 플로를 설계하여 그래프 형태의 행동 또는 결정 순서를 설계했습니다. 에이전트는 벡터 데이터베이스 (지식 기반), 웹 검색, 하이브리드 검색 또는 도구를 사용하여 질문에 답변할지 여부를 결정해야합니다.
      다음 기사에서, 나는 langgraph를 사용하여 에이전트 워크 플로우를 만드는 과정을 설명했다.자동 인터넷 검색으로 무료 AI 에이전트를 개발하는 방법

      우리는 결정을 내리기 위해 워크 플로를 나타내는 그래프 노드 를 만들어야합니다 (예 : 웹 검색 또는 벡터 데이터베이스 검색). 노드는 결정과 행동의 흐름 (예 : 검색 후 다음 상태)을 정의하는 가장자리 에 의해 연결됩니다. 그래프는 state 가 그래프를 통해 이동할 때 정보를 추적하여 에이전트가 각 단계마다 올바른 데이터를 사용하도록합니다. 워크 플로의 진입 점은 사용자의 쿼리를 분석하여 워크 플로에서 실행할 초기 노드를 결정하는 라우터 기능입니다. 전체 워크 플로에는 다음 노드가 포함되어 있습니다

      검색 : 벡터 스토어에서 의미 적으로 유사한 정보 덩어리를 가져옵니다. _ grade_documents _ : 사용자의 쿼리를 기반으로 검색된 청크의 관련성을 등급에 따라. route_after_grading _ : 등급에 따라 검색 된 문서와 함께 응답을 장려할지 웹 검색으로 진행하는지 여부를 결정합니다.

      WebSearch

        : Tavily Search Engine의 API를 사용하여 웹 소스의 정보를 가져옵니다.
      • 생성 : 제공된 컨텍스트 (벡터 스토어 및/또는 웹 검색에서 검색된 정보)를 사용하여 사용자 쿼리에 대한 응답을 생성합니다. _ get_contact_tool _ : 핀란드 이민 서비스와 관련된 사전 정의 된 신뢰할 수있는 URL에서 연락처 정보를 가져옵니다. _ get_tax_info
      • _ : 사전 정의 된 신뢰할 수있는 URL에서 세금 관련 정보를 가져옵니다 _ get_registration_info _ : 미리 정의 된 신뢰할 수있는 URL에서 핀란드의 회사 등록 프로세스에 대한 세부 정보를 가져옵니다. _
      • get_licensing_info
      • _ : 핀란드에서 사업을 시작하는 데 필요한 라이센스 및 허가에 대한 정보를 가져옵니다. _ Hybrid_search _ : 문서 검색 및 인터넷 검색 결과를 결합하여 쿼리에 응답하기위한 더 넓은 컨텍스트를 제공합니다. .
      • 관련 관련이없는
      • : 워크 플로의 초점과 관련이없는 질문을 처리합니다 여기 워크 플로의 가장자리가 있습니다.
          _
        • 검색 → grade_documents _ : 검색된 문서는 등급을 위해 전송됩니다 _ grade_documents → WebSearch _ : 검색된 문서가 관련이없는 것으로 간주되면 웹 검색이 호출됩니다.
        • _ grade_documents → 생성 _ : 검색된 문서가 관련이 있으면 응답 생성으로 진행됩니다.
        • WebSearch → Generate : 응답 생성에 대한 웹 검색 결과를 전달합니다. _get_contact_tool, get_tax
        info
      • , _get_registration
      • > info , _get_licensing info → :이 4 개의 도구에서 까지의 가장자리가 생성됩니다. 생성 노드는 응답 생성을 위해 특정 신뢰할 수있는 소스에서 가져온 정보를 전달합니다. _hybrid 검색 생성
      • : 응답 생성에 대한 결합 된 결과 (vectorstore websearch)를 전달합니다. 관련 관련이없는 생성 : 관련없는 질문에 대한 폴백 응답을 제공합니다. . 그래프 상태 구조는 워크 플로의 상태를 유지하기위한 컨테이너 역할을하며 다음 요소를 포함합니다. 질문 : 워크 플로를 구동하는 사용자의 쿼리 또는 입력.
      • 생성
      • : 처리 후 채워진 사용자의 쿼리에 대한 최종 응답. _ web_search_needed _ : 검색된 문서의 관련성에 따라 웹 검색이 필요한지 여부를 나타내는 플래그. 문서
      • : 쿼리와 관련된 검색되거나 처리 된 문서 목록. _ answer_style _ : "간결한", "보통"또는 "설명"과 같은 원하는 대답 스타일을 지정합니다. 그래프 상태 구조는 다음과 같이 정의됩니다 다음 라우터 기능 다음 라우터 기능은 쿼리를 분석하고 처리를 위해 관련 노드로 라우팅합니다. 체인은 도구 선택 사전 및 쿼리에서 도구/노드를 선택하라는 프롬프트로 구성됩니다. 체인은 라우터 LLM을 호출하여 관련 도구를 선택합니다. 워크 플로와 관련이없는 질문은 _handle 노드를 통해 폴백 응답을 제공하는 _handle > 노드로 라우팅됩니다.

  • 전체 워크 플로는 다음 그림에 묘사되어 있습니다비즈니스 계획 및 기업가 정신을위한 AI 기반 스마트 가이드 개발 검색 및 등급

    검색 노드는 벡터 스토어에서 관련 정보 덩어리를 가져 오기 위해 질문과 함께 리트리버를 호출합니다. 이 청크 ( " documents ")는 _grade 문서로 전송되어 관련성을 등급을 매 깁니다. 등급이 매겨진 청크 ( "_filtered Grading chain

    는 각 청크의 관련성을 평가하기 위해 Grader LLM을 안내하는 프롬프트로 그레이더 체인을 초기화합니다. _grade 문서 노드는 각 청크를 분석하여 질문과 관련이 있는지 여부를 결정합니다. 각 청크에 대해, 청크가 질문과 관련이 있는지 여부에 따라 " 예 "또는 " 아니오 "을 출력합니다.
    웹 및 하이브리드 검색
    검색 노드는 검색된 정보에서 관련 덩어리가 발견되지 않거나 _route Question node에 의해 직접 관련된 덩어리가 발견되지 않을 때 _route_after 노드에 의해 도달합니다. _internet_search enabled State Flag는 " true "입니다 (선택됨 사용자 인터페이스의 라디오 버튼) 또는 라우터 함수는 쿼리를 _web 검색으로 라우팅하기로 결정합니다. Tavily Search Engine의 무료 API는 웹 사이트에서 계정을 작성하여 얻을 수 있습니다. 무료 계획은 한 달에 1000 개의 신용 포인트를 제공합니다. Tavily Search 결과는 상태 변수 " document "에 추가 된 다음 상태 변수 " Question ". 하이브리드 검색은 리트리버와 Tavily 검색 및 채워진 " document "상태 변수의 결과를 결합합니다. 도구 호출 이 에이전트 워크 플로에 사용 된 도구는 사전 정의 된 신뢰할 수있는 URL에서 정보를 가져 오는 스크래핑 기능입니다. Tavily와 이러한 도구의 차이점은 Tavily가 다양한 인터넷 검색을 수행하여 다양한 소스의 결과를 가져 오는 것입니다. 반면,이 도구는 Python의 아름다운 수프 웹 스크래핑 라이브러리를 사용하여 신뢰할 수있는 소스 (사전 정의 된 URL)에서 정보를 추출합니다. 이런 식으로, 우리는 특정 쿼리에 관한 정보가 알려진 신뢰할 수있는 소스에서 추출되도록합니다. 또한이 정보 검색은 완전히 자유 롭습니다 여기 _get_tax info 노드가 일부 도우미 함수와 함께 작동하는 방법은 다음과 같습니다. 이 유형의 다른 도구 (노드)도 같은 방식으로 작동합니다.

    You are given a document containing text, tables, and images. Extract all the contents in their correct format. Extract each table in a correct format and include a detailed explanation of each table before its extracted format. 
    If an image contains text, extract all the text in the correct format and include a detailed explanation of each image before its extracted text. 
    Produce the output in markdown text. Extract each page separately in the form of an individual node. Assign the document name and page number to each extracted node in the format: [Creativity and Business, page 7]. 
    Include the document name and page number at the start and end of each extracted page.
    응답 생성 생성 는 미리 정의 된 프롬프트 (Langchain의 prompttemplate 클래스)가있는 체인을 호출하여 최종 응답을 생성합니다. _RAG 프롬프트 는 상태 변수를 수신합니다 _ "questio "Contex t"및 생성 노드 생성은 먼저 상태 변수 " question documents "및 "_answer style "및 형식을 검색합니다. "는 "를 컨텍스트 역할을하는 단일 문자열로 문서화합니다. 그 후, _rag 프롬프트 로 생성 체인을 호출하고 응답 생성 llm _ 가 "generatio_n"상태 변수로 채워진 최종 답변을 생성합니다. 이 상태 변수는 _app.p_y에 의해 sleamlit 사용자 인터페이스에 생성 된 응답을 표시하는 데 사용됩니다. Groq의 무료 API를 사용하면 모델의 속도 또는 컨텍스트 창 제한을 누를 가능성이 있습니다. 이 경우 노드를 생성하여 모델 이름 목록에서 모델을 원형 방식으로 동적으로 전환하고 응답을 생성 한 후 현재 모델로 되돌립니다. 헬퍼 함수 _agentic 에는 응용 프로그램, LLMS, 임베딩 모델 및 세션 변수를 초기화하기위한 다른 도움말 기능이 있습니다. 함수 _initialize > 앱 초기화 중에 app.py >에서 호출되고 lemlit

    앱을 통해 모델 또는 상태 변수가 변경 될 때마다 __가 트리거됩니다. 구성 요소를 다시 구분하고 업데이트 된 상태를 저장합니다. 이 기능은 또한 다양한 세션 변수를 추적하고 중복 초기화를 방지합니다.
    import os
    from llama_parse import LlamaParse
    from llama_index.core import SimpleDirectoryReader
    
    # Define parsing instructions
    parsing_instructions = """
    Extract the text from the document using proper structure.
    """
    def save_to_markdown(output_path, content):
        """
        Save extracted content to a markdown file.
    
        Parameters:
        output_path (str): The path where the markdown file will be saved.
        content (list): The extracted content to be saved.
        """
        with open(output_path, "w", encoding="utf-8") as md_file:
            for document in content:
                # Extract the text content from the Document object
                md_file.write(document.text + "nn")  # Access the 'text' attribute
    
    def extract_document(input_path):
        # Initialize the LlamaParse parser
        parsing_instructions = """You are given a document containing text, tables, and images. Extract all the contents in their correct format. Extract each table in a correct format and include a detailed explanation of each table before its extracted format. 
        If an image contains text, extract all the text in the correct format and include a detailed explanation of each image before its extracted text. 
        Produce the output in markdown text. Extract each page separately in the form of an individual node. Assign the document name and page number to each extracted node in the format: [Creativity and Business, page 7]. 
        Include the document name and page number at the start and end of each extracted page.
        """
        parser = LlamaParse(
            result_type="markdown",
            parsing_instructions=parsing_instructions,
            premium_mode=True,
            api_key=LLAMA_CLOUD_API_KEY,
            verbose=True
        )
    
        file_extractor = {".pdf": parser}
        documents = SimpleDirectoryReader(
            input_path, file_extractor=file_extractor
        ).load_data()
        return documents
    
    input_path = r"C:Usersh02317Downloadsdocs"  # Replace with your document path
    output_file = r"C:Usersh02317Downloadsextracted_document.md"  # Output markdown file name
    
    # Extract the document
    extracted_content = extract_document(input_path)
    save_to_markdown(output_file, extracted_content)
    다음 도우미 기능은 응답 LLM, 임베딩 모델, 라우터 LLM 및 Grading LLM을 초기화합니다. 모델 이름 목록 인 _Model

    목록 는 노드를 생성하여 모델을 동적으로 전환하는 동안 모델을 추적하는 데 사용됩니다. 워크 플로 설정 이제 _route question 를 사용하는 그래프 상태, 노드, 조건부 진입 지점이며, 노드 사이의 흐름을 설정하기 위해 가장자리가 정의됩니다. 마지막으로, 워크 플로는 lemelit 인터페이스 내에서 사용하기 위해 실행 파일 app 로 컴파일됩니다. 워크 플로의 조건 입력 점은 _route question 함수를 사용하여 쿼리를 기반으로 워크 플로에서 첫 번째 노드를 선택합니다. 조건부 가장자리 (_workflow.add_conditional edges )는 websearch 로 전환 할 것인지 노드를 생성 할 것인지 _grade 에 기초하여 노드를 생성할지 여부를 설명합니다. 문서 노드.

    You are given a document containing text, tables, and images. Extract all the contents in their correct format. Extract each table in a correct format and include a detailed explanation of each table before its extracted format. 
    If an image contains text, extract all the text in the correct format and include a detailed explanation of each image before its extracted text. 
    Produce the output in markdown text. Extract each page separately in the form of an individual node. Assign the document name and page number to each extracted node in the format: [Creativity and Business, page 7]. 
    Include the document name and page number at the start and end of each extracted page.
    간단한 인터페이스 app.py

    의 간소화 응용 프로그램은 모델 선택, 답변 스타일 및 쿼리 별 도구에 동적 설정을 사용하여 질문과 응답을 표시하는 대화식 인터페이스를 제공합니다. _Initialize rag.py에서 가져온 _initialize

    app 함수는 _agentic

    rag.py, 에서 가져옵니다. 모든 LLM, 임베딩 모델 및 왼쪽 사이드 바에서 선택한 기타 옵션을 포함한 모든 세션 변수를 초기화합니다. sys.stdout io.stringio 버퍼로 리디렉션하여 캡처됩니다. 그런 다음이 버퍼의 내용은 _text area 구성 요소를 사용하여 디버그 자리 표시기에 표시됩니다. 다음은 Streamlit 인터페이스의 스냅 샷입니다 다음 이미지는 에 의해 생성 된 답변을 보여줍니다. 쿼리 라우터 (_route

    question )는 리트리버 (벡터 검색)를 호출하고 그레이더 기능은 검색된 모든 청크를 관련으로 찾습니다. 따라서 생성을 통해 답을 생성하기로 한 결정은 노드 노드. 다음 이미지는‘ explanatory 프롬프트 에 지시받은 것처럼, LLM은 더 많은 설명으로 답을 자세히 설명합니다. 다음 이미지는 라우터 트리거링 _get_license

    info
    import os
    from llama_parse import LlamaParse
    from llama_index.core import SimpleDirectoryReader
    
    # Define parsing instructions
    parsing_instructions = """
    Extract the text from the document using proper structure.
    """
    def save_to_markdown(output_path, content):
        """
        Save extracted content to a markdown file.
    
        Parameters:
        output_path (str): The path where the markdown file will be saved.
        content (list): The extracted content to be saved.
        """
        with open(output_path, "w", encoding="utf-8") as md_file:
            for document in content:
                # Extract the text content from the Document object
                md_file.write(document.text + "nn")  # Access the 'text' attribute
    
    def extract_document(input_path):
        # Initialize the LlamaParse parser
        parsing_instructions = """You are given a document containing text, tables, and images. Extract all the contents in their correct format. Extract each table in a correct format and include a detailed explanation of each table before its extracted format. 
        If an image contains text, extract all the text in the correct format and include a detailed explanation of each image before its extracted text. 
        Produce the output in markdown text. Extract each page separately in the form of an individual node. Assign the document name and page number to each extracted node in the format: [Creativity and Business, page 7]. 
        Include the document name and page number at the start and end of each extracted page.
        """
        parser = LlamaParse(
            result_type="markdown",
            parsing_instructions=parsing_instructions,
            premium_mode=True,
            api_key=LLAMA_CLOUD_API_KEY,
            verbose=True
        )
    
        file_extractor = {".pdf": parser}
        documents = SimpleDirectoryReader(
            input_path, file_extractor=file_extractor
        ).load_data()
        return documents
    
    input_path = r"C:Usersh02317Downloadsdocs"  # Replace with your document path
    output_file = r"C:Usersh02317Downloadsextracted_document.md"  # Output markdown file name
    
    # Extract the document
    extracted_content = extract_document(input_path)
    save_to_markdown(output_file, extracted_content)
    도구를 보여줍니다.

    다음 이미지는 벡터 검색에서 관련 청크가 없을 때 _route_after

    노드에 의해 호출 된 웹 검색을 보여줍니다. 비즈니스 계획 및 기업가 정신을위한 AI 기반 스마트 가이드 개발 다음 이미지는 sleamlit

    응용 프로그램에서 선택한 하이브리드 검색 옵션으로 생성 된 응답을 보여줍니다. _route Qustion 노드는 _internet_search enabled 상태 플래그‘ true ’을 찾아 _hybrid 노드 를 찾습니다. 확장 방향 이 응용 프로그램은 여러 방향으로 향상 될 수 있습니다

      여러 언어 (예 : 러시아어, 에스토니아, 아랍어 등)의 음성 지원 검색 및 질문 답변 응답의 다른 부분을 선택하고 더 많은 정보 나 설명을 요청합니다. 마지막 메시지 수의 메모리 추가 다른 양식 (예 : 이미지)을 포함하여 답변 브레인 스토밍, 글쓰기 및 아이디어 생성에 더 많은 에이전트를 추가합니다
    • 그게 모두입니다!
    • 기사가 마음에 들면 기사를 박수 치고 (여러 번
    • ? ) 댓글을 작성하고 Medium and LinkedIn에서 저를 따르십시오.

    위 내용은 비즈니스 계획 및 기업가 정신을위한 AI 기반 스마트 가이드 개발의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

    성명:
    본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.