ホームページ >テクノロジー周辺機器 >AI >Deepseek V3:685BモデルはGPT-4oとLlama 3.1を打ち負かします

Deepseek V3:685BモデルはGPT-4oとLlama 3.1を打ち負かします

尊渡假赌尊渡假赌尊渡假赌
尊渡假赌尊渡假赌尊渡假赌オリジナル
2025-03-13 10:36:11749ブラウズ

昨年、 Deepseek LLMは、670億の印象的なパラメーターを備えた波を作りました。これは、英語と中国の理解における2兆トークンの広大なデータセットで細心の注意を払って訓練されました。研究コラボレーションのための新しいベンチマークを設定して、DeepSeekは7B/67Bベースモデルとチャットモデルの両方をオープンソースで整えました。さて、6850億パラメーターを持つAIがあり、AIスペースのほぼすべてのモデルよりも優れており、オープンソースであるとしたらどうなるでしょうか?興味をそそるように聞こえますか? Deepseekは、Deepseekの中国の研究室によって開発されたDeepseek V3のリリースで巨大な飛躍を遂げ、AIイノベーションの境界をさらに押し上げました。これは、各トークンに対して37Bがアクティブ化された合計パラメーターを備えた強力な混合物(MOE)言語モデルです。

ここで印象的な部分は、わずか550万ドルでトレーニングで驚くべきコスト効率を達成しました!!!

寛容なライセンスの下でリリースされたDeepSeek V3は、開発者がモデルを商用アプリケーションを含む多様なアプリケーションにダウンロード、変更、統合することを可能にします。その汎用性は、説明的なプロンプトからエッセイや電子メールのコーディング、翻訳、電子メールの生成など、さまざまなテキストベースのタスクに及び、開発者とビジネスの両方の強力なツールになります。

また、 DeepSeek V3は、いくつかの重要なドメインで、公然と利用可能なAIモデルの両方を上回ります。 Codeforcesの競争力のあるプログラミングでは、Deepseek V3は、 MetaのLlama 3.1 405b 、OpenaiのGPT-4o 、AlibabaのQwen 2.5 72bを含むライバルを凌ぎます。このモデルは、エイダーポリグロットテスト(リーダーボードの2番目のスポット)にも優れており、既存のプロジェクトとシームレスに統合する新しいコードを生成する比類のない機能を示しています。

まだ最大の飛躍:

  • 60トークン/秒(V2より3倍高速!)
  • 強化された機能
  • API互換性はそのまま
  • 完全にオープンソースモデルと論文

目次

  • Deepseek V3:大規模でオープンソースの6850億パラメーター
  • Deepseek V3とは何ですか?
    • 1。高度なアーキテクチャ:多目的潜在的な注意と負荷分散
    • 2。前例のないスケールと効率での事前トレーニング
    • 3。トレーニング後の強化:推論の習得のための知識の蒸留
    • 4.比類のないパフォーマンスと安定性
  • さまざまなベンチマークでのDeepSeek V3の評価
    • 評価されたベンチマーク
    • DeepSeek-V3の全体的なパフォーマンス
  • Aider PolyGlotベンチマークの結果
    • 重要な観察
  • Deepseek V3のチャットWebサイト&APIプラットフォーム
  • DeepSeek V3を実行する方法は?
    • 地元で実行する方法は?
    • DeepSeek-Inferデモを使用したセットアッププロセス
    • LLM Deepseekプラグイン
  • Deepseek V3実験
    • 最初の実験
    • 2番目の実験
    • 3番目の実験
  • 結論

Deepseek V3:大規模でオープンソースの6850億パラメーター

6850億のパラメーター(671bのメインモデルの重みとマルチトークン予測(MTP)モジュールの重みの14b)があることをご存知ですか、 Deepseek V3は2017年に何杯のビールを飲んだかを思い出すことができますか?印象的ですよね?また、クリエイターによると、彼らは550万ドルをDeepseek V3の訓練に費やしました。これをOpenaiのCEOであるSam Altmanと比較すると、GPT-4のトレーニングコストは1億ドルを超えていると述べました。

また、DeepSeek-V3は、30.8m GPU時間を使用するLlama 3 405Bと比較して、わずか2.8m GPU時間(〜11倍の計算率)でより強力なモデルであると考えられています。

Deepseek(Chinese AI Co)は、予算の冗談で訓練されたフロンティアグレードのLLMのオープンウェイトリリースで、今日簡単に見えるようにしています(2048 GPU、600万ドル)。

参照のために、このレベルの機能は、16K GPUに近いクラスターを必要とすることになっています。

- Andrej Karpathy(@karpathy)2024年12月26日

Deepseek V3とは何ですか?

Deepseek V3は、AIアーキテクチャとトレーニング効率の記念碑的な飛躍を表し、大規模な言語モデルの境界を押し広げます。このオープンソースモデルは、最先端のパフォーマンスを提供するだけでなく、驚くべき効率とスケーラビリティを備えています。 DeepSeek V3を傑出したイノベーションにしているのは次のとおりです。

1。高度なアーキテクチャ:多目的潜在的な注意と負荷分散

Deepseek V3は、前任者のDeepseek V2から実績のあるフレームワークを構築し、マルチヘッドの潜在的な注意(MLA)と最先端のDeepSeekmoeアーキテクチャを採用しています。これらの革新により、効率的な推論と費用対効果の高いトレーニングが保証されます。さらに、DeepSeek V3は、補助障害のない負荷分散戦略を採用しており、負荷分散メカニズムに関連する典型的なパフォーマンストレードオフを排除します。

このモデルは、マルチトークン予測(MTP)の目標も統合し、複数のトークンを同時に予測する能力を高めます。これにより、パフォーマンスが向上するだけでなく、投機的なデコードが可能になり、推論速度が大幅に加速されます。

2。前例のないスケールと効率での事前トレーニング

Deepseek V3は、14.8兆個の多様で高品質のトークンの広大なデータセットで事前に訓練されています(よりよく理解するために、100万個のトークンは約750,000語です)。このトレーニング前は、革新的なFP8混合精密トレーニングフレームワークを使用して達成され、超大型スケールモデルでのFP8の最初の成功したアプリケーションをマークします。結果は次のとおりです。

  • シームレスなGPU使用率:アルゴリズム、フレームワーク、ハードウェアの共同設計を通じて、DeepSeek V3はクロスノードMOEトレーニングで通信ボトルネックを克服し、ほぼ完全な計算コミュニケーションのオーバーラップを達成します。
  • 費用対効果の高いトレーニング:わずか2.664m H800 GPU時間で、DeepSeek V3が最も強力なオープンソースベースモデルとして登場し、効率のための新しい基準を設定します。トレーニング後の段階では、追加の0.1m GPU時間のみが必要であるため、プロセスは非常に経済的です。

3。トレーニング後の強化:推論の習得のための知識の蒸留

Deepseek V3は、革新的な知識蒸留パイプラインを統合し、DeepSeek R1シリーズモデルの推論機能を活用しています。このパイプラインには、高度な検証と反射パターンがモデルに組み込まれ、推論パフォーマンスが劇的に改善されます。さらに、出力スタイルと長さは細心の注意を払って制御され、タスク全体の汎用性と一貫性が確保されます。

4.比類のないパフォーマンスと安定性

広範な評価により、Deepseek V3がすべてのオープンソースモデルを上回り、ライバルをリードするクローズドソースAIシステムを上回ることが確認されています。その大規模と複雑さにもかかわらず、トレーニングプロセスは非常に安定しており、サイクル全体を通して回復可能な損失のスパイクやロールバックはありませんでした。

Deepseek V3は、イノベーションとコラボレーションの力の証であり、開発者と研究者に、AI以上の幅広い課題に取り組むための強力でスケーラブルで費用対効果の高いツールを提供します。そのオープンソースの性質により、アクセシビリティが保証され、コーディング、推論、マルチモーダルアプリケーションのブレークスルーへの道が開かれます。

ダウンロードするリンクは次のとおりです。

モデル 合計パラメーター コンテキストの長さ ダウンロード
deepseek-v3-base 671b 128K ハギングフェイス
deepseek-v3 671b 128K ハギングフェイス

さまざまなベンチマークでのDeepSeek V3の評価

Deepseek V3:685BモデルはGPT-4oとLlama 3.1を打ち負かします

評価されたベンチマーク

  • MMLU-Pro(正確な一致 - EM):事実とマルチタスクQAの精度を測定します。
  • GPQA-ダイヤモンド(パス@1):より困難なタスクに焦点を当てて、正確なQAパフォーマンスを評価します。
  • Math 500(EM):数学的推論と問題解決をテストします。
  • AIME 2024(パス@1):高度な数学競争の問題に焦点を当てています。
  • Codeforces(パーセンタイル):競争スキルをコーディングする測定。
  • SWEベンチ検証(解決):ソフトウェアエンジニアリングタスク解決の精度をテストします。

重要な観察

  1. mmlu-pro
    • DeepSeek-V3は75.9%の精度でリードし、 GPT-4-0513(73.3%)Claude-3.5(72.6%)などの最も近い競合他社を超えています。
    • これは、マルチタスクの事実上のQAの強さを示しています。
  2. GPQA-ダイヤモンド
    • 繰り返しますが、DeepSeek-V3は59.1%で最高のスコアを獲得し、Claude-3.5( 49.9% )やQwen2.5( 51.1% )などの他の人を上回ります。
    • 高不全のQAタスクの強い精度を示します。
  3. 数学500
    • Claude-3.5( 80.0% )とGPT-4-0513( 78.3% )よりもはるかに先に、 90.2%の精度で支配的です。
    • 例外的な数学的推論を示します。
  4. AIME 2024
    • 得点は39.2%で、これはGPT-4-0513( 23.3% )およびClaude-3.5( 16.0% )よりもはるかに高くなっています。
    • 高度な競争レベルの数学の問題を解決する能力を強調しています。
  5. codeforces
    • 51.6パーセンタイル、GPT-4-0513( 35.6パーセンタイル)およびその他のモデルよりも優れた成績を収めました。
    • 強力なコーディング競争機能を反映しています。
  6. SWE-BENCH検証
    • 得点42.0% 、GPT-4-0513( 50.8% )と競争力があり、Claude-3.5( 38.8% )よりも優れています。
    • ソフトウェアエンジニアリングの問題解決の能力を示します。

DeepSeek-V3の全体的なパフォーマンス

  • 一貫性と優位性: DeepSeek-V3は、GPT-4がわずかにエッジを出すSWEベンチを除くすべての主要なベンチマークで一貫してアウトパフォームします。
  • 強度:その最強の領域は、数学的な問題解決(数学500)およびマルチタスクQA(MMLU-PRO)です。
  • 以前のバージョンのエッジ: DeepSeek-V2.5の大幅な改善は、特にAIME 2024(39.2%対23.3%)およびコードフォース(51.6%対35.6%)で明らかであり、推論と競争力のあるプログラミングスキルの強化を示しています。

この評価は、複雑な推論、高度な数学、競争力のあるプログラミングタスクを処理する際のDeepSeek-V3の優れた機能を強調しています。

また、ここにオープンエンドジェネレーションの評価があります:

モデル アリーナハード アルパカエバル2.0
DeepSeek-V2.5-0905 76.2 50.5
QWEN2.5-72B-Instruct 81.2 49.1
llama-3.1405b 69.3 40.5
GPT-4O-0513 80.4 51.1
Claude-sonnet-3.5-1022 85.2 52.0
deepseek-v3 85.5 70.0
  1. アリーナハードパフォーマンス
    • Deepseek-V3は85.5で最高にランクされており、Claude-Sonnet-3.5(85.2)を狭く上回り、DeepSeek-V2.5(76.2)を大幅に上回っています。
    • これは、困難なシナリオで、バランスのとれたコンテキストを意識した応答を生成する特別な能力を示しています。
  2. Alpacaeval 2.0パフォーマンス
    • Deepseek-V3は70.0でリードし、2番目に良いパフォーマーであるClaude-Sonnet-3.5(52.0)をはるかに上回ります。
    • これは、ユーザーの好みの大幅な改善とオープンエンドの出力の全体的な品質を示しており、ユーザーの期待とより良い整合性を示しています。
  3. 競合他社との比較
    • QWEN2.5(アリーナハード:81.2、アルパカエバル:49.1):
      • アリーナハードではかなりうまく機能しますが、ユーザーの好みには大幅に遅れをとっており、ユーザーフレンドリーな応答スタイルとの整合性が弱いことを示しています。
    • GPT-4-0513(Arena-Hard:80.4、Alpacaeval:51.1):
      • 両方のメトリックで競争力がありますが、deepseek-v3のユーザー中心の品質と一致しません。
    • llama-3.1(アリーナハード:69.3、アルパカエバル:40.5):
      • 両方のベンチマークでスコアが低く、オープンエンドの生成機能が弱いことを強調します。
    • deepseek-v2.5(アリーナハード:76.2、アルパカエバル:50.5):
      • V2.5からV3への跳躍はかなりのものであり、応答のコヒーレンスとユーザー優先アライメントの主要なアップグレードを示しています。

これを参照して、評価をよりよく理解することもできます。

Deepseek V3:685BモデルはGPT-4oとLlama 3.1を打ち負かします

Deepseek V3 Githubへのリンク

Aider PolyGlotベンチマークの結果

Deepseek V3:685BモデルはGPT-4oとLlama 3.1を打ち負かします

エイダーポリグロットベンチマークの結果を以下に示します。この結果は、モデルを正しく完了する能力に関するモデルを評価します。評価は2つの出力形式に分けられます。

  • Diff-Like Format(Shaded Bars) :出力がコードのDiffまたは小さな更新に似ているタスク。
  • 全体の形式(ソリッドバー) :応答全体の生成を必要とするタスク。

重要な観察

  1. トップパフォーマー
    • O1-2024-11-12(Tingli)は、形式全体で65%近くの精度でベンチマークをリードし、タスク全体で並外れたパフォーマンスを示しています。
    • Deepseek Chat V3プレビューとClaude-3.5 Sonnet-2024-1022は、40〜50%の範囲のスコアで、両方の形式でしっかりしたタスクの完了を示します。
  2. パフォーマンスの中間
    • Gemini Exp-206およびClaude-3.5 Haiku-2024-1022の両方の形式で適度にスコアを獲得し、バランスの取れた平均パフォーマンスを強調しています。
    • Deepseek Chat v2.5とFlash-2.0は、下位範囲の下部に座っており、主要なモデルと比較してタスク解像度が弱いことを示しています。
  3. パフォーマーの低い人
    • Y-Lightning、QWEN2.5-CODER 32B-Instruct、およびGPT-4O-MINI 2024-07-18のスコアは最低で、精度は10〜15%未満です。これは、DIFFのようなタスクと全体の形式の両方のタスクの両方を処理する上で大きな制限を示しています。
  4. 形式の比較
    • モデルは通常、DIFFのような形式よりも形式全体でわずかに優れたパフォーマンスを発揮し、フルレスポンスの生成がより小さな増分変化よりも優れていることを意味します。
    • シェードバー(DIFFのような形式)は、すべての形式のカウンターパートよりも一貫して低く、この特定の機能に一貫したギャップが示されています。

Deepseekチャットv3プレビューの位置:

  • 上位3人のパフォーマーにランクされています。
  • 形式全体で約50%、DIFFのような形式でわずかに低いスコア。
  • これは、完全なタスク生成を処理する際の強力な能力を示していますが、DIFFのようなタスクの改善の余地を残します。

洞察:

  • ベンチマークは、評価されたモデルの多様な長所と短所を強調しています。
  • O1-2024-11-12のようなモデルは、両方のタスク形式にわたって優位性を示していますが、Deepseek Chat v3プレビューのような他のモデルは主にフルタスク生成で優れています。
  • 低いパフォーマーは、微妙なタスク処理機能の両方で最適化の必要性を示しています。

これは最終的に、ベンチマークタスクの完了におけるさまざまなAIシステムの汎用性と特殊な強度を反映しています。

Deepseek V3のチャットWebサイト&APIプラットフォーム

  1. 公式Webサイト: Deepseek Chatを使用して、 DeepSeek-V3と対話できます。

Deepseek V3:685BモデルはGPT-4oとLlama 3.1を打ち負かします

  1. さらに、DeepSeekプラットフォームでOpenAI互換APIリンクを提供します。
    APIコストがあり、トークンに依存します。

Deepseek V3:685BモデルはGPT-4oとLlama 3.1を打ち負かします

DeepSeek V3を実行する方法は?

チャットUIを使用したくなく、モデルを直接操作したい場合は、代替手段があります。このモデル、DeepSeek-V3には、すべての重量が顔にリリースされています。そこにあるセーフテンザーファイルにアクセスできます。

モデルサイズとハードウェアの要件:

第一に、このモデルは大規模であり、6710億のパラメーターがあり、標準の消費者グレードのハードウェアで実行するのが難しいです。ハードウェアが十分に強力でない場合は、DeepSeekプラットフォームを使用して直接アクセスすることをお勧めします。利用可能になった場合は、ハグする顔のスペースを待ちます。

地元で実行する方法は?

十分なハードウェアがある場合は、DeepSeek-Inferデモ、Sglang、LMDeploy、Tensort-llm、VLLM、AMD GPU、Huawei Ascend NPUを使用してモデルをローカルに実行できます。

モデルを量子化されたバージョンに変換して、メモリ要件を削減します。これは、ローエンドシステムに特に役立ちます。

FP8ウェイトをBF16に変換する方法は次のとおりです。

BF16が必要な場合は変換スクリプト

CD推論
python fp8_cast_bf16.py  -  input-fp8-hf-path/path/to/fp8_weights  -  output-bf16-hf-path/path/to/bf16_weights

DeepSeek-Inferデモを使用したセットアッププロセス

Hugging FaceのTransformersライブラリは、まだモデルを直接サポートしていません。セットアップするには、次のことが必要です。

DeepSeek AI GitHubリポジトリをクローンします。

 git clone https://github.com/deepseek-ai/deepseek-v3.git

必要な依存関係をインストールします。

 CD DeepSeek-V3/推論
PIPインストール-R要件。txt

ハグの顔のチェックポイントをダウンロードして、モデルをローカルに実行します。

これを参照してください:Deepseek V3

おすすめ:

  • 強力なハードウェアがある場合は、モデルをローカルで実行して、その可能性を完全に調査してみてください。
  • それ以外の場合は、Seamless AccessにDeepSeek.comチャットUIまたはAPIプラットフォームを使用します。

LLM Deepseekプラグイン

LLM-DeepSeekプラグインを使用して、モデルにアクセスすることもできます。

 #ステップ1:LLMパッケージをインストールします
!ピップインストールLLM
#ステップ2:DeepSeekプラグインをインストールします
!llmインストールllm-deepseek
#ステップ3:DeepSeek APIキーを設定します
!llmキーはdeepseekを設定します
#プロンプトが表示されたら、APIキーを貼り付けます
#ステップ4:DeepSeekチャットモデルを実行します
!llm -m deepseek -chat 'ペットのオセロットのための5つの偉大な名前'
#ステップ5:DeepSeek Coderモデルを実行します
!llm -m deepseek -coder 'pythonでリンクされたリストを逆にする方法'

Deepseek V3実験

DeepSeekプラットフォームでは、Webを探索し、Openaiのアプローチと同様に、複雑な問題を解決するために深い推論に従事することができます。

Deepseek V3:685BモデルはGPT-4oとLlama 3.1を打ち負かします

ここにいくつかのプロンプトと出力があります:

最初の実験

プロンプト:子供とサッカーのSVGを生成する

出力:

これは、サッカーで遊んでいる子供のシンプルなSVG表現です。あなたはできる
このコードをHTMLファイルまたはSVGビューアーにコピーして貼り付けて、
画像:

 <svg xmlns="http://www.w3.org/2000/svg" viewbox="0 0 200 200" width="200" height="200">



<circle cx="100" cy="70" r="20" fill="#ffcc99"></circle>



<rect x="90" y="90" width="20" height="40" fill="#4caf50"></rect>















<ellipse cx="140" cy="140" rx="10" ry="5" fill="#8b4513"></ellipse>





</svg>

説明:

子供は単純な形で表されます:頭のための円、長方形
 体のために、そして腕と脚の線。

サッカーは、クラシックフットボールを模倣するために2つの白いラインを持つ楕円です
 デザイン。

色、サイズ、および位置を調整して、画像をカスタマイズできます
 さらに遠く。

これを強化または変更したい場合はお知らせください!

Deepseek V3:685BモデルはGPT-4oとLlama 3.1を打ち負かします

2番目の実験

プロンプト:クラシックなヘビゲームを作成します

出力:

クラシックなヘビゲームの作成には、HTML、CSS、およびJavaScriptの使用が含まれます
。以下は簡単な実装です。

 







<meta name="Viewport" content="width = device-width、initial-scale = 1.0">

<title> Snake Game </title>

<style>

体 {

ディスプレイ:Flex;

justify-content:center;

Align-Items:Center;

高さ:100VH;

マージン:0;

バックグラウンドカラー:#000;

}

キャンバス{

ボーダー:1pxソリッド#fff;

}

</style>





<canvas width="400" height="400"> </canvas>

 





JavaScript(snake.js)

const canvas = document.getElementById( "gamecanvas");

const ctx = canvas.getContext( "2d");

const gridsize = 20;

const tilecount = canvas.width / gridsize;

snake = [{x:10、y:10}];

let direction = {x:0、y:0};

let food = {x:math.floor(math.random() * tilecount)、y:
 math.floor(math.random() * tilecount)};

スコア= 0とします。

function gameloop(){

アップデート();

描く();

Settimeout(Gameloop、100);

}

function update(){

const head = {x:snake [0] .x rirect.x、y:snake [0] .y direction.y};

//壁またはそれ自体との衝突を確認してください

if(head.x  = tilecount || head.y  = tilecount
 || Snake.some(segment => segment.x === head.x && segment.y === head.y)){

resetgame();

戻る;

}

snake.unshift(head);

//ヘビが食べ物を食べるかどうかを確認します

if(head.x === food.x && head.y === food.y){

スコア ;

food = {x:math.floor(math.random() * tilecount)、y:
 math.floor(math.random() * tilecount)};

} それ以外 {

snake.pop();

}

}

関数draw(){

//キャンバスをクリアします

ctx.fillstyle = "#000";

ctx.fillrect(0、0、canvas.width、canvas.height);

//ヘビを描きます

ctx.fillstyle = "#0f0";

snake.foreach(segment => ctx.fillrect(segment.x * gridsize、segment.y *
 gridsize、gridsize、gridsize));

//食べ物を描きます

ctx.fillstyle = "#f00";

ctx.fillrect(food.x * gridsize、food.y * gridsize、gridsize、gridsize);

//スコアを描きます

ctx.fillstyle = "#fff";

ctx.font = "20px arial";

ctx.filltext( "スコア:"スコア、10、30);

}

function resetgame(){

スネーク= [{x:10、y:10}];

方向= {x:0、y:0};

スコア= 0;

food = {x:math.floor(math.random() * tilecount)、y:
 math.floor(math.random() * tilecount)};

}

window.addeventlistener( "keydown"、e => {

switch(e.key){

ケース「矢印」:

if(direction.y === 0)方向= {x:0、y:-1};

壊す;

ケース「Arrowdown」:

if(direction.y === 0)方向= {x:0、y:1};

壊す;

ケース「arrowleft」:

if(direction.x === 0)方向= {x:-1、y:0};

壊す;

ケース「arrowright」:

if(direction.x === 0)方向= {x:1、y:0};

壊す;

}

});

gameloop();

それがどのように機能するか:

キャンバスのセットアップ:ゲームは<canvas>要素に描画されます。

ヘビの動き:ヘビは一連のセグメントとして表されます。頭
 方向に基づいて動き、尾が続きます。

食品:食べ物のランダムな位置が生成されます。ヘビが食べるとき
 食べ物、それは成長し、スコアが増加します。

衝突検出:ゲームは、ヘビが壁と衝突するか、または
 それ自体、そしてそれがそうであればリセットします。

コントロール:矢印キーは、ヘビの方向を変更するために使用されます。

実行方法:

HTMLとJavaScriptコードをファイルに保存します(index.htmlおよびsnake.js)。

ブラウザでindex.htmlファイルを開きます。

矢印キーを使用してヘビを制御します。

機能を追加するか、ゲームを改善したい場合はお知らせください! </canvas>

3番目の実験

プロンプト:GITリポジトリをクローンする方法は?

出力

Deepseek V3:685BモデルはGPT-4oとLlama 3.1を打ち負かします

まず、6秒間考えてから出力を与えます

GITリポジトリのクローニングには、既存のリポジトリのコピーの作成が含まれます<br> 遠隔地(github、gitlab、bitbucketなど)からお近くの場所まで<br> 機械。このコピーには、すべてのプロジェクトファイル、履歴のコミット、および<br> 枝。<br><br> Gitリポジトリをクローンする手順は次のとおりです。<br><br> 1. gitをインストールします<br>gitがマシンに取り付けられていることを確認してください。インストールされていない場合は、ダウンロードしてください<br> 公式のGIT Webサイトからインストールします。<br><br> 2。端子またはコマンドプロンプトを開きます<br>ターミナル(Linux/Mac)またはコマンドプロンプト(Windows)を開きます。<br><br> 3.目的のディレクトリに移動します<br>CDコマンドを使用して、クローンを作成するディレクトリに移動します<br> リポジトリ。<br><br>バッシュ<br>コピー<br>cd/path/to/directory<br> 4。リポジトリをクローンします<br>Gitクローンコマンドを使用して、リポジトリのURLが続きます。<br><br>バッシュ<br>コピー<br>git clone https://github.com/username/repository.git<br> https://github.com/username/repository.gitを実際のURLに置き換えます<br> クローンするリポジトリ。<br><br> 5.クローン化されたディレクトリを入力します<br>クローニング後、リポジトリディレクトリに移動します。<br><br>バッシュ<br>コピー<br>CDリポジトリ<br>6.クローンを確認します<br>リポジトリが確認されていることを確認できます。<br> リモートURL。<br><br>バッシュ<br>コピー<br>git remote -v<br>これにより、リモートリポジトリのURLが表示されます。<br><br>例<br>バッシュ<br>コピー<br>#目的のディレクトリに移動します<br>CD〜/ドキュメント<br><br>#リポジトリをクローンします<br>git clone https://github.com/username/repository.git<br><br> #リポジトリディレクトリを入力します<br>CDリポジトリ<br><br>#リモートURLを確認します<br>git remote -v<br>オプション:SSHを使用したクローニング<br>SSHキーを設定している場合は、SSH URLを使用してリポジトリをクローンできます。<br><br>バッシュ<br>コピー<br>git clone [電子メール保護]:username/repository.git<br>オプション:浅いクローン<br>歴史の一部だけが必要な場合(たとえば、最新のコミット)、<br> 浅いクローンを実行します:<br><br>バッシュ<br>コピー<br>gitクローン - デプス1 https://github.com/username/repository.git<br>これは、完全な履歴が必要ない大規模なリポジトリに役立ちます。<br><br>結論<br>これで、Gitリポジトリをローカルマシンに正常にクローニングしました。あなた<br> プロジェクトの作業を開始し、変更を加え、必要に応じてコミットできます。

deepseekチャットはV3を搭載しており、強力です!

ここでは、AI企業のロゴを備えた小惑星ゲームのMVPです。数分で完全に構築されました!

ソネット3.5は王ではありませんか?もう?
人類はあなたの番です!

コメントpic.twitter.com/fcmztb52fqで作成されたアーティファクト

- Ivan Fioravantiᯅ(@ivanfioravanti)2024年12月25日

すべての出力はマークまであり、出力速度は非常に印象的でした。さらに、DeepSeekを使用すると、モデルに推論的な質問をすることができ、複雑な問題解決と詳細な分析のための多用途で効率的なツールになります。

また読む:Deepseek V3 vs GPT-4O:オープンソースAIはGPT-4Oのパワーと競合できますか?

結論

Deepseek V3は、前例のないスケールと比類のない効率を組み合わせて、大規模なAIモデルの進化における記念碑的な成果として立っています。革新的なアーキテクチャ、費用対効果の高いトレーニング、印象的な6850億パラメーターにより、Deepseek V3はAIスペースで可能なことを再定義します。多様なベンチマークで優れたモデルの能力は、オープンソースとクローズドソースの競合他社の両方を上回ることで、その並外れた能力を強調しています。

DeepSeek V3は、コーディング、推論、数学的問題解決などのタスクで最先端のパフォーマンスを提供するだけでなく、オープンソースの可用性を備えた最先端のAIへのアクセスを民主化します。開発者、研究者、企業は、イノベーションとコラボレーションを促進する寛容なライセンスによってサポートされている計り知れない力を活用できます。

わずか550万ドルのトレーニングコストで例外的な結果を達成することにより、Deepseek V3は、スケーラビリティと効率が共存できることを証明し、AI開発の将来の新しい基準を設定します。このリリースは、Deepseekだけでなく、AIコミュニティ全体のために、機械学習、自然言語処理などのブレークスルーへの道を開いて、大幅に前進します。

DeepSeekを始めて、その可能性を最大限に発揮してください!初心者向けのコースに参加して、その機能とマスターキーテクニックを探りましょう。

以上がDeepseek V3:685BモデルはGPT-4oとLlama 3.1を打ち負かしますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。