olmo 2 : 액세스 가능한 AI
를위한 강력한 오픈 소스 LLM
(이 기사는 데이터 과학 블로그의 일부입니다.) 목차 :
이해를 이해합니다
olmo 2는 전임자 Olmo-0424를 크게 향상시킵니다. 7b 및 13b 매개 변수 모델은 영어 학문 벤치 마크에서 LLAMA 3.1과 같은 오픈 웨이트 모델과 비슷한 완전 개방형 모델과 비슷하거나 초과하는 성능을 보여줍니다.
정제 및 전문화 : 는 Dolmino-Mix-1124 데이터 세트, 고품질 웹 데이터 및 도메인 별 데이터 (Academic Content, Q & A 포럼, 지시 데이터, 수학 워크 북)의 큐 레이트 된 혼합 인 Dolmino-Mix-1124 데이터 세트를 사용하여 모델의 지식과 기술을 정찰합니다. "모델 스프링"은 최종 체크 포인트를 더욱 향상시킵니다
olmo 2를 탐험하고 실행하는 것은 입니다
olmo 2는 쉽게 접근 할 수 있습니다. 교육 코드 및 평가 지표와 함께 모델 및 데이터 다운로드 지침을 사용할 수 있습니다. Olmo 2를 로컬로 운영하려면 Ollama를 사용하십시오. 설치 후 명령 줄에서 를 실행하십시오. 필요한 라이브러리 (Langchain 및 Gradio)는 PIP를 통해 설치할 수 있습니다.
로 챗봇 구축
자주 묻는 질문 (FAQS) (원래 기사의 FAQ는 여기에 포함되어 있습니다.)
실질적인 성능 이득 :
Olmo 2의 아키텍처는 원래 Olmo를 기반으로하며 안정성과 성능 향상을위한 개선을 통합합니다. 훈련 과정은 두 단계로 구성되어 있습니다 :
재단 교육 :
ollama run olmo2:7b
이 코드는 기본 챗봇 인터페이스를 제공합니다. 이 기초에보다 정교한 응용 프로그램을 구축 할 수 있습니다. 예제 출력 및 프롬프트는 원본 기사에 나와 있습니다. import gradio as gr
from langchain_core.prompts import ChatPromptTemplate
from langchain_ollama.llms import OllamaLLM
def generate_response(history, question):
template = """Question: {question}
Answer: Let's think step by step."""
prompt = ChatPromptTemplate.from_template(template)
model = OllamaLLM(model="olmo2")
chain = prompt | model
answer = chain.invoke({"question": question})
history.append({"role": "user", "content": question})
history.append({"role": "assistant", "content": answer})
return history
with gr.Blocks() as iface:
chatbot = gr.Chatbot(type='messages')
with gr.Row():
with gr.Column():
txt = gr.Textbox(show_label=False, placeholder="Type your question here...")
txt.submit(generate_response, [chatbot, txt], chatbot)
iface.launch()
(참고 : 이미지 URL은 변하지 않습니다.)
위 내용은 Gradio 및 Langchain과 함께 Olmo-2를 로컬로 운영합니다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!