.
Deepseek R1 : 독창성과 효율성에 대한 증거
Model | Base Model | Download |
DeepSeek-R1-Distill-Qwen-1.5B | Qwen2.5-Math-1.5B | ? HuggingFace |
DeepSeek-R1-Distill-Qwen-7B | Qwen2.5-Math-7B | ? HuggingFace |
DeepSeek-R1-Distill-Llama-8B | Llama-3.1-8B | ? HuggingFace |
DeepSeek-R1-Distill-Qwen-14B | Qwen2.5-14B | ? HuggingFace |
DeepSeek-R1-Distill-Qwen-32B | Qwen2.5-32B | ? HuggingFace |
DeepSeek-R1-Distill-Llama-70B | Llama-3.3-70B-Instruct | ? HuggingFace |
다른 접근법 : 를 취했습니다
.
1. 강력한 감독 미세 조정 대신 강화 학습
순수 강화 학습 (rl)
Qwen, llama 등
소형 고품질 감독 데이터 세트 를 "콜드 스타트"에 도입했습니다.
이를 통해 모델은 처음부터 더 나은 부트 스트랩을 가능하게하여 강력한 추론 능력을 유지하면서 인간과 같은 유창성 및 가독성 를 보장했습니다.
Benchmark | DeepSeek-R1 (%) | OpenAI o1-1217 (%) | Verdict |
AIME 2024 (Pass@1) | 79.8 | 79.2 | DeepSeek-R1 wins (better math problem-solving) |
Codeforces (Percentile) | 96.3 | 96.6 | OpenAI-o1-1217 wins (better competitive coding) |
GPQA Diamond (Pass@1) | 71.5 | 75.7 | OpenAI-o1-1217 wins (better general QA performance) |
MATH-500 (Pass@1) | 97.3 | 96.4 | DeepSeek-R1 wins (stronger math reasoning) |
MMLU (Pass@1) | 90.8 | 91.8 | OpenAI-o1-1217 wins (better general knowledge understanding) |
SWE-bench Verified (Resolved) | 49.2 | 48.9 | DeepSeek-R1 wins (better software engineering task handling) |
Deepseek-R1 강점 :
그런 다음 모델을 실행합니다 여기에 Deepseek R1의 Ollama가 있습니다. Ollama Run Deepseek-R1
명령을 복사하십시오 : Ollama Run Deepseek-r1나는 Ollama Run Deepseek-R1 : 1.5b를 로컬에서 실행하고 있으며 모델을 다운로드하는 데 몇 분이 걸립니다.
프롬프트 : Fibonacci nth 시리즈에 대한 코드를 제공하십시오
. 추천 : 효율적이고 재사용 가능한 솔루션이 필요한 경우 DeepSeek r1의
접근 방식으로 이동하십시오. Fibonacci 시퀀스를 간단한 방식으로 이해하려면 openai o1의 접근 방식을 사용하십시오.
Math-500 벤치 마크에서 97.3% 정확도를 자랑하는 DeepSeek-R1은 복잡한 계산, 통계 분석 또는 수학적 모델링이 필요한 응용 프로그램에서 탁월합니다. 이것은 금융, 엔지니어링 및 과학 연구와 같은 분야에 대한 강력한 선택입니다.
위 내용은 DeepSeek R1 vs Openai O1 : 어느 것이 더 낫습니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!