찾다
백엔드 개발파이썬 튜토리얼LangChain 및 LlamaAn AI Developer&#s Journey로 기사 생성기 구축

LangChain 및 Llama3을 사용하여 기사 생성기 구축: AI 개발자의 여정

저는 AI 개발자로서 복잡한 LLM(대형 언어 모델) 상호 작용을 보다 쉽게 ​​관리할 수 있는 방법을 찾는 경우가 많습니다. LangChain은 AI 개발 커뮤니티에서 인기가 높아지고 있을 뿐만 아니라 일반적인 LLM 통합 문제를 해결하기 위한 실용적인 접근 방식 때문에 관심을 끌었습니다. 복잡한 LLM 작업을 간소화된 워크플로로 변환하는 프레임워크의 평판은 테스트에 참여할 만큼 흥미로웠습니다. 저는 LangChain의 기능과 Llama3 모델을 결합하여 실제 응용 프로그램을 갖춘 도구를 만드는 기사 생성 시스템을 구축하기로 결정했습니다.

LangChain이 타당한 이유

LangChain은 복잡한 작업을 처리하기 위한 체계적이고 직관적인 접근 방식을 제공하여 LLM과 상호 작용하는 방식을 변화시킵니다. 각 구성 요소가 특정 목적을 수행하는 잘 설계된 개발 키트라고 생각하십시오. 원시 API 호출을 저글링하고 프롬프트를 수동으로 관리하는 대신 프레임워크는 개발자 관점에서 자연스럽게 느껴지는 깔끔한 인터페이스를 제공합니다. 이는 프로세스를 단순화하는 것뿐만 아니라 LLM 애플리케이션을 더욱 안정적이고 유지 관리하기 쉽게 만드는 것입니다.

LangChain의 주요 구성 요소

기본적으로 LangChain은 더 복잡한 동작을 생성하기 위해 서로 연결되는 일련의 작업인 체인을 사용합니다. 이러한 체인은 프롬프트 형식 지정부터 모델 응답 처리까지 모든 작업을 수행합니다. 프레임워크에는 프롬프트를 관리하고 상호 작용 전반에 걸쳐 컨텍스트를 유지하기 위한 정교한 시스템이 포함되어 있지만 기사 생성기의 체인 및 프롬프트 측면에 주로 중점을 둘 것입니다.

기사 생성기

이 프로젝트에서 저는 주제, 길이, 어조, 대상 독자 등 특정 매개변수를 기반으로 맞춤형 기사를 생성할 수 있는 실용적인 시스템을 구축하고 싶었습니다. Ollama를 통해 액세스한 Llama3 모델은 이 작업에 대한 성능과 유연성의 적절한 균형을 제공했습니다.

시작하기

설정은 간단합니다.

  1. 먼저 필요한 패키지를 설치했습니다.
pip install langchain langchain-ollama requests
  1. 그런 다음 Ollama를 설정했습니다.
    1. https://ollama.com/blog/llama3에서 Ollama를 다운로드하여 설치했습니다.
    2. 새 터미널에서 Ollama 서버를 시작했습니다.
ollama serve
  1. Llama3 모델을 가져왔습니다.
ollama pull llama3

기사 생성기를 사용하는 동안 Ollama 서버가 터미널에서 실행되고 있어야 합니다. 닫혀 있으면 발전기가 모델에 연결될 수 없습니다.

핵심 구성 요소 구축

시스템의 각 부분이 어떻게 작동하는지 살펴보겠습니다.

연결 관리

이 간단한 확인은 연결 문제를 조기에 포착하여 런타임 오류를 방지하는 데 도움이 됩니다. Ollama 서버 연결을 확인하는 신뢰할 수 있는 방법입니다:

pip install langchain langchain-ollama requests

모델 구성

생성된 콘텐츠에서 올바른 균형을 맞추려면 모델 설정이 중요합니다.

ollama serve

이러한 매개변수는 기사 생성을 위해 다양한 조합을 테스트한 후 제가 찾은 최적의 위치를 ​​나타냅니다.

온도(0.7): 출력의 무작위성을 제어합니다. 값이 낮을수록(예: 0.3) 텍스트가 더 예측 가능해지고, 값이 높을수록(예: 0.9) 창의적이 됩니다. 0.7이 밸런스가 좋습니다.

Top_p(0.9): 핵 샘플링이라고도 하는 이 매개변수는 고려해야 할 단어 옵션 수를 모델에 알려줍니다. 0.9에서는 주제에 집중하면서 텍스트를 흥미롭게 유지하기에 충분한 옵션을 살펴봅니다.

num_ctx(4096): 컨텍스트 창 크기 또는 모델이 한 번에 작업할 수 있는 텍스트의 양입니다. 이는 대략 3000-3500 단어를 처리할 수 있으므로 입력 및 상당한 기사 출력 모두에 충분한 공간을 제공합니다.

신속한 엔지니어링

프롬프트 템플릿은 모델에서 원하는 것을 정의하는 곳입니다.

ollama pull llama3

생성 파이프라인

LangChain의 가장 우아한 특징 중 하나는 간단한 체인 구성입니다.

def check_ollama_connection():
    """
    Check if Ollama server is running
    """
    try:
        requests.get('http://localhost:11434/api/tags')
        return True
    except requests.exceptions.ConnectionError:
        return False

이 한 줄은 프롬프트 형식 지정, 모델 상호 작용 및 응답 처리를 처리하는 완전한 생성 파이프라인을 생성합니다.

명령줄 인터페이스

사용자 친화적인 도구를 만들기 위해 명령줄 인터페이스를 구현했습니다.

llm = OllamaLLM(
    model="llama3",
    temperature=0.7,  # Balances creativity and consistency
    top_p=0.9,       # Helps with text diversity
    num_ctx=4096     # Sets the context window
)

실제 사용법

생성기의 사용법은 매우 간단합니다. 코드를 실행하고 매개변수를 전달하면 됩니다.

예시 #1

article_template = """
You are a professional content writer tasked with creating a comprehensive article.

Topic: {topic}

Writing Requirements:
1. Length: Approximately {word_count} words
2. Style: {tone} tone
3. Target Audience: {audience}
4. Format: Plain text without any markdown notation
5. Additional Details/Requirements: {extra_details}

Content Structure Guidelines:
- Start with an engaging introduction that hooks the reader
- Organize content into clear sections with descriptive headings (not numbered)
- Include relevant examples, statistics, or case studies when appropriate
- Provide practical insights and actionable takeaways
- End with a compelling conclusion that summarizes key points
- Ensure smooth transitions between paragraphs and sections

Writing Style Guidelines:
- Use clear, concise language appropriate for the target audience
- Avoid jargon unless necessary for the target audience
- Incorporate relevant examples and real-world applications
- Maintain an engaging and natural flow throughout the article
- Use active voice predominantly
- Include specific details and evidence to support main points
- Ensure proper paragraph breaks for readability

Additional Notes:
- Do not use any markdown formatting
- Keep paragraphs concise and focused
- Use proper spacing between sections
- If technical terms are used, provide brief explanations
- Include a brief overview of what will be covered at the start

Please write the article now:
"""

생성된 기사:

chain = prompt | llm

예시 #2

def parse_arguments():
    """
    Parse command line arguments
    """
    parser = argparse.ArgumentParser(description='Generate an article using AI')

    parser.add_argument('--topic', 
                       type=str, 
                       required=True,
                       help='The topic of the article')

    parser.add_argument('--word-count', 
                       type=int, 
                       default=800,
                       help='Target word count (default: 800)')

    parser.add_argument('--tone', 
                       type=str, 
                       default='professional',
                       choices=['professional', 'casual', 'academic', 'informative', 'technical'],
                       help='Writing tone (default: professional)')

    parser.add_argument('--audience', 
                       type=str, 
                       default='general',
                       help='Target audience (default: general)')

    parser.add_argument('--extra-details', 
                       type=str, 
                       default='',
                       help='Additional requirements or details for the article')

    return parser.parse_args()

생성된 기사:

python main.py \
  --topic "Benefits of playing board games with friends" \
  --word-count 200 \
  --tone casual \
  --audience "Board games lovers" \
  --extra-details "Avoid markdown notation"

주요 학습 내용

이 프로젝트를 통해 저는 LangChain과의 협력에 대한 몇 가지 중요한 통찰력을 발견했습니다.

  1. 성능 패턴: 1세대는 모델 로딩으로 인해 시간이 더 오래 걸리지만 후속 실행은 훨씬 더 빠릅니다.
  2. 컨텍스트 관리: 4096 토큰 컨텍스트 창은 우수한 성능을 유지하면서 대부분의 기사에 충분한 공간을 제공합니다.
  3. 세대 매개변수: 온도(0.7) 및 top_p(0.9) 설정은 창의성과 일관성 사이의 최적의 균형을 제공합니다.

최종 생각

이 기사 생성기를 구축함으로써 AI 개발에서 LangChain의 실질적인 가치가 입증되었습니다. LLM 상호 작용의 복잡성을 처리하는 동시에 개발자가 유용한 기능을 구축하는 데 집중할 수 있는 자유를 제공합니다. 프레임워크는 추상화와 제어 사이의 균형을 유지하여 안정적인 AI 기반 애플리케이션을 더 쉽게 만들 수 있도록 해줍니다.

해당 분야의 소중한 동료나 열광적인 팬에게 LangChain은 개발에 필요한 모든 의미를 제공한다고 확신하며, 가장 좋은 점은 유연성과 타협하지 않는다는 점입니다. AI 도구 분야가 기하급수적으로 성장하고 있다는 점을 고려하면 LangChain과 같은 프레임워크는 실용적이고 생산 가능한 애플리케이션을 구축하는 데 더욱 가치가 있을 것입니다.

Building an Article Generator with LangChain and LlamaAn AI Developer

앵무새와 사슬을 형상화한 LangChain 로고에는 기발한 의미가 담겨 있습니다. 앵무새는 LLM이 인간의 언어를 반복하고 재작업하기 때문에 때때로 "확률론적 앵무새"라고 불리는 방식을 나타냅니다. 체인 부분은 프레임워크가 언어 모델 "앵무새"를 유용한 애플리케이션으로 "체인"하는 데 어떻게 도움이 되는지에 대한 재미있는 참조입니다.

위 내용은 LangChain 및 LlamaAn AI Developer&#s Journey로 기사 생성기 구축의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
목록과 배열 사이의 선택은 큰 데이터 세트를 다루는 파이썬 응용 프로그램의 전반적인 성능에 어떤 영향을 미칩니 까?목록과 배열 사이의 선택은 큰 데이터 세트를 다루는 파이썬 응용 프로그램의 전반적인 성능에 어떤 영향을 미칩니 까?May 03, 2025 am 12:11 AM

forhandlinglargedatasetsinpython, usenumpyarraysforbetterperformance.1) numpyarraysarememory-effic andfasterfornumericaloperations.2) leveragevectorization foredtimecomplexity.4) managemoryusage withorfications data

Python의 목록 대 배열에 대한 메모리가 어떻게 할당되는지 설명하십시오.Python의 목록 대 배열에 대한 메모리가 어떻게 할당되는지 설명하십시오.May 03, 2025 am 12:10 AM

inpython, listsusedyammoryAllocation과 함께 할당하고, whilempyarraysallocatefixedMemory.1) listsAllocatemememorythanneedInitiality.

파이썬 어레이에서 요소의 데이터 유형을 어떻게 지정합니까?파이썬 어레이에서 요소의 데이터 유형을 어떻게 지정합니까?May 03, 2025 am 12:06 AM

Inpython, youcansspecthedatatypeyfelemeremodelerernspant.1) usenpynernrump.1) usenpynerp.dloatp.ploatm64, 포모 선례 전분자.

Numpy 란 무엇이며 Python의 수치 컴퓨팅에 중요한 이유는 무엇입니까?Numpy 란 무엇이며 Python의 수치 컴퓨팅에 중요한 이유는 무엇입니까?May 03, 2025 am 12:03 AM

numpyissentialfornumericalcomputinginpythonduetoitsspeed, memory-efficiency 및 comperniveMathematicaticaltions

'연속 메모리 할당'의 개념과 배열의 중요성에 대해 토론하십시오.'연속 메모리 할당'의 개념과 배열의 중요성에 대해 토론하십시오.May 03, 2025 am 12:01 AM

contiguousUousUousUlorAllocationScrucialForraysbecauseItAllowsOfficationAndFastElementAccess.1) ItenableSconstantTimeAccess, o (1), DuetodirectAddressCalculation.2) Itimprovesceeffiency theMultipleementFetchespercacheline.3) Itsimplififiesmomorym

파이썬 목록을 어떻게 슬라이스합니까?파이썬 목록을 어떻게 슬라이스합니까?May 02, 2025 am 12:14 AM

slicepaythonlistisdoneusingthesyntaxlist [start : step : step] .here'showitworks : 1) startistheindexofthefirstelementtoinclude.2) stopistheindexofthefirstelemement.3) stepisincrementbetwetweentractionsoftortionsoflists

Numpy Array에서 수행 할 수있는 일반적인 작업은 무엇입니까?Numpy Array에서 수행 할 수있는 일반적인 작업은 무엇입니까?May 02, 2025 am 12:09 AM

NumpyAllowsForVariousOperationsOnArrays : 1) BasicArithmeticLikeadDition, Subtraction, A 및 Division; 2) AdvancedOperationsSuchasmatrixmultiplication; 3) extrayintondsfordatamanipulation; 5) Ag

파이썬으로 데이터 분석에 어레이가 어떻게 사용됩니까?파이썬으로 데이터 분석에 어레이가 어떻게 사용됩니까?May 02, 2025 am 12:09 AM

Arraysinpython, 특히 Stroughnumpyandpandas, areestentialfordataanalysis, setingspeedandefficiency

See all articles

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

맨티스BT

맨티스BT

Mantis는 제품 결함 추적을 돕기 위해 설계된 배포하기 쉬운 웹 기반 결함 추적 도구입니다. PHP, MySQL 및 웹 서버가 필요합니다. 데모 및 호스팅 서비스를 확인해 보세요.

VSCode Windows 64비트 다운로드

VSCode Windows 64비트 다운로드

Microsoft에서 출시한 강력한 무료 IDE 편집기

에디트플러스 중국어 크랙 버전

에디트플러스 중국어 크랙 버전

작은 크기, 구문 강조, 코드 프롬프트 기능을 지원하지 않음

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)