llama.cpp 로고 (소스)
Georgi Gerganov, llama.cpp에 의해 개발 된
llm mama.cpp의 주요 장점
CPU-First 디자인은 다양한 프로그래밍 환경 및 플랫폼에서 통합을 단순화합니다. 기능 풍부함 : 핵심 저수준 기능에 초점을 맞추는 동안 Langchain의 높은 수준의 기능을 반영하고 개발을 간소화합니다 (확장 성이 향후 고려 될 수 있음).
. 타겟팅 최적화 : 라마 아키텍처 (GGML 및 GGUF와 같은 형식 사용)에 집중하면 효율이 상당한 이익을 얻습니다.
변압기와 라마 (Umar Jamil)의 건축 적 차이
프리 정규화 (gpt3) : rmsnorm을 사용하여 훈련 안정성을 향상시킵니다 Swiglu 활성화 함수 (Palm) : 성능 향상을 위해 Relu를 대체합니다 로터리 임베딩 (GPT-Neo) :
절대 위치 임베드를 제거한 후 로프를 추가합니다.: 모델 파일로가는 경로. : 입력 프롬프트.
conda create --name llama-cpp-env conda activate llama-cpp-env: CPU 또는 GPU
: 최대 토큰이 생성되었습니다 : 생성을 중단하기위한 문자열 목록 : 랜덤 니스 (0-1)를 제어합니다
: 예측의 다양성을 제어합니다. : 출력에 프롬프트를 포함 시키십시오 (true/false)pip install llama-cpp-python # or pip install llama-cpp-python==0.1.48
llama_cpp_script.py
from llama_cpp import Llama
포그 페이스 (Source)의 Zephyr 모델 (소스)
프로젝트 구조 : [프로젝트 구조를 보여주는 이미지]
<:> 모델 로딩 :
<:> 텍스트 생성 함수 : Llama
<: :> 메인 실행 :
model_path
위 내용은 llama.cpp 튜토리얼 : 효율적인 LLM 추론 및 구현을위한 완전한 안내서의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!