検索
ホームページテクノロジー周辺機器AIO3-MINIは論理的な推論のためにDeepSeek-R1を置き換えることができますか?

AI駆動の推論モデルは、2025年に世界を席巻しています! DeepSeek-R1とO3-Miniの発売により、AIチャットボットでは前例のないレベルの論理推論機能が見られました。この記事では、これらのモデルにAPIを介してアクセスし、論理的推論スキルを評価して、O3-MINIがDeepSeek-R1を置き換えることができるかどうかを調べます。標準のベンチマークでのパフォーマンスを比較し、論理パズルの解決やテトリスゲームの構築などの実際のアプリケーションを比較します!バックルして乗り心地に参加してください。

目次

  • deepseek-r1 vs o3-mini:論理的推論ベンチマーク
  • deepseek-r1 vs o3-mini:api価格の比較
  • deepseek-r1およびo3-miniにアクセスする方法比較
    • タスク1:テトリスゲームの構築
    • タスク2:リレーショナル不平等の分析
    • タスク3:数学の論理的推論
    • 論理的推論の比較概要deepseek-r1 vs o3-mini:論理的推論ベンチマーク
deepseek-r1とo3-miniは、構造化された思考と控除に対するユニークなアプローチを提供し、さまざまな種類の複雑な問題解決タスクに適しています。彼らのベンチマークパフォーマンスについて話す前に、まずこれらのモデルのアーキテクチャをこっそり覗いてみましょう。 o3-miniは、Openaiの最も高度な推論モデルです。密な変圧器アーキテクチャを使用して、各トークンをすべてのモデルパラメーターで処理して、パフォーマンスが強いが高いリソースの消費を加えます。対照的に、Deepseekの最も論理的なモデルであるR1は、Experts(MOE)の混合(MOE)フレームワークを採用しており、効率を高めるために入力あたりのパラメーターのサブセットのみをアクティブにします。これにより、DeepSeek-R1がよりスケーラブルになり、堅実なパフォーマンスを維持しながら計算的に最適化されます。
  • 詳細:OpenaiのO3-MiniはDeepSeek-R1よりも優れていますか?
  • 今、私たちが見る必要があるのは、これらのモデルが論理的推論タスクでどれだけうまく機能するかです。まず、ライブベンチベンチマークテストでのパフォーマンスを見てみましょう。
  • ソース:livebench.ai

    ベンチマークの結果は、OpenaiのO3-Miniが、数学を除くほぼすべての側面でDeepSeek-R1を上回ることを示しています。 Deepseekの71.38と比較して、世界平均スコアは73.94であるため、O3-Miniは全体的なパフォーマンスがわずかに強いことを示しています。特に推論に優れており、Deepseekの83.17に対して89.58を達成し、優れた分析および問題解決機能を反映しています。

    また読む:Google Gemini 2.0 Pro vs Deepseek-R1:コーディングは誰ですか?

    deepseek-r1 vs o3-mini:API価格の比較 これらのモデルをAPIを通じてテストしているので、これらのモデルの費用を見てみましょう。

    Model Context length Input Price Cached Input Price Output Price
    o3-mini 200k .10/M tokens .55/M tokens .40/M tokens
    deepseek-chat 64k .27/M tokens .07/M tokens .10/M tokens
    deepseek-reasoner 64k .55/M tokens .14/M tokens .19/M tokens
    テーブルに見られるように、OpenaiのO3-Miniは、APIコストの点でDeepSeek R1のほぼ2倍高価です。 Deepseek R1は、入力に1.10ドル、出力に4.40ドルを請求しますが、DeepSeek R1は入力で100万ドル、出力に2.19ドルのより費用対効果の高いレートを提供しているため、大規模なアプリケーションでは予算向けのオプションになります。

    ソース:deepseek-r1 | o3-mini

    deepseek-r1およびo3-miniにアクセスする方法

    ハンズオンパフォーマンスの比較に足を踏み入れる前に、APIを使用してDeepSeek-R1およびO3-Miniにアクセスする方法を学びましょう。

    あなたがこれのためにしなければならないのは、必要なライブラリとAPIキーをインポートすることだけです:

    from openai import OpenAI
    from IPython.display import display, Markdown
    import time
    with open("path_of_api_key") as file:
       openai_api_key = file.read().strip()
    deepseek-r1 vs o3-mini:論理的推論の比較
    with open("path_of_api_key") as file:
       deepseek_api = file.read().strip()

    APIアクセスを取得したので、論理的推論機能に基づいてDeepSeek-R1とO3-Miniを比較しましょう。このために、両方のモデルに同じプロンプトを提供し、これらのメトリックに基づいてそれらの応答を評価します:

    モデルが回答を生成するために時間をかける時間
      生成された応答の品質、および
    1. 応答を生成するために発生した
    2. コスト。
    3. その後、パフォーマンスに応じて、各タスクのモデル0または1をスコアリングします。それでは、タスクを試して、deepseek-r1 vs o3-mini推論戦で勝者として誰が現れるかを見てみましょう!
    4. タスク1:テトリスゲームの構築
    このタスクでは、モデルがPythonを使用して完全に機能するテトリスゲームを実装する必要があります。ゲームロジック、ピースの動き、衝突検出、および外部ゲームエンジンに依存せずにレンダリングする必要があります。

    プロンプト:

    「この問題についてPythonコードを書く:TetrisゲームのPythonコードを生成する「

    deepseek-r1 api への入力 DeepSeek-R1

    による 応答

    INPUT_COST_CACHE_HIT = 0.14 / 1_000_000  # <pre class="brush:php;toolbar:false">task1_start_time = time.time()
    
    
    client = OpenAI(api_key=api_key)
    
    messages = messages=[
           {
           "role": "system",
           "content": """You are a professional Programmer with a large experience ."""
    
    
       },
    {
           "role": "user",
           "content": """write a python code for this problem: generate a python code for Tetris game.
    """
    
    
       }
       ]
    
    
    # Use a compatible encoding (cl100k_base is the best option for new OpenAI models)
    encoding = tiktoken.get_encoding("cl100k_base")
    
    
    # Calculate token counts
    input_tokens = sum(len(encoding.encode(msg["content"])) for msg in messages)
    
    
    completion = client.chat.completions.create(
       model="o3-mini-2025-01-31",
       messages=messages
    )
    
    
    output_tokens = len(encoding.encode(completion.choices[0].message.content))
    
    
    task1_end_time = time.time()
    
    
    
    
    input_cost_per_1k = 0.0011  # Example: <pre class="brush:php;toolbar:false">INPUT_COST_CACHE_HIT = 0.14 / 1_000_000  # <pre class="brush:php;toolbar:false">task2_start_time = time.time()
    
    client = OpenAI(api_key=api_key)
    
    messages = [
        {
            "role": "system",
            "content": """You are an expert in solving Reasoning Problems. Please solve the given problem"""
        },
        {
            "role": "user",
            "content": """In the following question, assuming the given statements to be true, find which of the conclusions among given conclusions is/are definitely true and then give your answers accordingly.
            Statements: H > F ≤ O ≤ L; F ≥ V  D
            The options are:
            A. Only I is true 
            B. Only II is true
            C. Both I and II are true
            D. Either I or II is true
            E. Neither I nor II is true
            """
        }
    ]
    
    # Use a compatible encoding (cl100k_base is the best option for new OpenAI models)
    encoding = tiktoken.get_encoding("cl100k_base")
    
    # Calculate token counts
    input_tokens = sum(len(encoding.encode(msg["content"])) for msg in messages)
    
    completion = client.chat.completions.create(
        model="o3-mini-2025-01-31",
        messages=messages
    )
    
    output_tokens = len(encoding.encode(completion.choices[0].message.content))
    
    task2_end_time = time.time()
    
    
    input_cost_per_1k = 0.0011  # Example: <pre class="brush:php;toolbar:false">INPUT_COST_CACHE_HIT = 0.14 / 1_000_000  # <pre class="brush:php;toolbar:false">task3_start_time = time.time()
    client = OpenAI(api_key=api_key)
    messages = [
            {
    		"role": "system",
    		"content": """You are a Expert in solving Reasoning Problems. Please solve the given problem"""
    
    	},
     {
    		"role": "user",
    		"content": """ 
    Study the given matrix carefully and select the number from among the given options that can replace the question mark (?) in it.
        __________________
    	|  7  | 13	| 174| 
    	|  9  | 25	| 104|
    	|  11 | 30	| ?  |
        |_____|_____|____|
        The options are: 
       A 335
       B 129
       C 431 
       D 100
       Please mention your approch that you have taken at each step
     """
    
    	}
        ]
    
    # Use a compatible encoding (cl100k_base is the best option for new OpenAI models)
    encoding = tiktoken.get_encoding("cl100k_base")
    
    # Calculate token counts
    input_tokens = sum(len(encoding.encode(msg["content"])) for msg in messages)
    
    completion = client.chat.completions.create(
        model="o3-mini-2025-01-31",
        messages=messages
    )
    
    output_tokens = len(encoding.encode(completion.choices[0].message.content))
    
    task3_end_time = time.time()
    
    
    input_cost_per_1k = 0.0011  # Example: .005 per 1,000 input tokens
    output_cost_per_1k = 0.0044  # Example: .015 per 1,000 output tokens
    
    # Calculate cost
    input_cost = (input_tokens / 1000) * input_cost_per_1k
    output_cost = (output_tokens / 1000) * output_cost_per_1k
    total_cost = input_cost + output_cost
    
    # Print results
    print(completion.choices[0].message)
    print("----------------=Total Time Taken for task 3:----------------- ", task3_end_time - task3_start_time)
    print(f"Input Tokens: {input_tokens}, Output Tokens: {output_tokens}")
    print(f"Estimated Cost: ${total_cost:.6f}")
    
    # Display result
    from IPython.display import Markdown
    display(Markdown(completion.choices[0].message.content))
    .14 per 1M tokens INPUT_COST_CACHE_MISS = 0.55 / 1_000_000 # .55 per 1M tokens OUTPUT_COST = 2.19 / 1_000_000 # .19 per 1M tokens # Start timing task3_start_time = time.time() # Initialize OpenAI client for DeepSeek API client = OpenAI(api_key=api_key, base_url="https://api.deepseek.com") messages = [ { "role": "system", "content": """You are a Expert in solving Reasoning Problems. Please solve the given problem""" }, { "role": "user", "content": """ Study the given matrix carefully and select the number from among the given options that can replace the question mark (?) in it. __________________ | 7 | 13 | 174| | 9 | 25 | 104| | 11 | 30 | ? | |_____|_____|____| The options are: A 335 B 129 C 431 D 100 Please mention your approch that you have taken at each step """ } ] # Get token count using tiktoken (adjust model name if necessary) encoding = tiktoken.get_encoding("cl100k_base") # Use a compatible tokenizer input_tokens = sum(len(encoding.encode(msg["content"])) for msg in messages) # Call DeepSeek API response = client.chat.completions.create( model="deepseek-reasoner", messages=messages, stream=False ) # Get output token count output_tokens = len(encoding.encode(response.choices[0].message.content)) task3_end_time = time.time() total_time_taken = task3_end_time - task3_start_time # Assume cache miss for worst-case pricing (adjust if cache info is available) input_cost = (input_tokens / 1_000_000) * INPUT_COST_CACHE_MISS output_cost = (output_tokens / 1_000_000) * OUTPUT_COST total_cost = input_cost + output_cost # Print results print("Response:", response.choices[0].message.content) print("------------------ Total Time Taken for Task 3: ------------------", total_time_taken) print(f"Input Tokens: {input_tokens}, Output Tokens: {output_tokens}") print(f"Estimated Cost: ${total_cost:.6f}") # Display result from IPython.display import Markdown display(Markdown(response.choices[0].message.content)).005 per 1,000 input tokens output_cost_per_1k = 0.0044 # Example: .015 per 1,000 output tokens # Calculate cost input_cost = (input_tokens / 1000) * input_cost_per_1k output_cost = (output_tokens / 1000) * output_cost_per_1k total_cost = input_cost + output_cost # Print results print(completion.choices[0].message) print("----------------=Total Time Taken for task 2:----------------- ", task2_end_time - task2_start_time) print(f"Input Tokens: {input_tokens}, Output Tokens: {output_tokens}") print(f"Estimated Cost: ${total_cost:.6f}") # Display result from IPython.display import Markdown display(Markdown(completion.choices[0].message.content)).14 per 1M tokens INPUT_COST_CACHE_MISS = 0.55 / 1_000_000 # .55 per 1M tokens OUTPUT_COST = 2.19 / 1_000_000 # .19 per 1M tokens # Start timing task2_start_time = time.time() # Initialize OpenAI client for DeepSeek API client = OpenAI(api_key=api_key, base_url="https://api.deepseek.com") messages = [ {"role": "system", "content": "You are an expert in solving Reasoning Problems. Please solve the given problem."}, {"role": "user", "content": """ In the following question, assuming the given statements to be true, find which of the conclusions among given conclusions is/are definitely true and then give your answers accordingly. Statements: H > F ≤ O ≤ L; F ≥ V D The options are: A. Only I is true B. Only II is true C. Both I and II are true D. Either I or II is true E. Neither I nor II is true """} ] # Get token count using tiktoken (adjust model name if necessary) encoding = tiktoken.get_encoding("cl100k_base") # Use a compatible tokenizer input_tokens = sum(len(encoding.encode(msg["content"])) for msg in messages) # Call DeepSeek API response = client.chat.completions.create( model="deepseek-reasoner", messages=messages, stream=False ) # Get output token count output_tokens = len(encoding.encode(response.choices[0].message.content)) task2_end_time = time.time() total_time_taken = task2_end_time - task2_start_time # Assume cache miss for worst-case pricing (adjust if cache info is available) input_cost = (input_tokens / 1_000_000) * INPUT_COST_CACHE_MISS output_cost = (output_tokens / 1_000_000) * OUTPUT_COST total_cost = input_cost + output_cost # Print results print("Response:", response.choices[0].message.content) print("------------------ Total Time Taken for Task 2: ------------------", total_time_taken) print(f"Input Tokens: {input_tokens}, Output Tokens: {output_tokens}") print(f"Estimated Cost: ${total_cost:.6f}") # Display result from IPython.display import Markdown display(Markdown(response.choices[0].message.content)).005 per 1,000 input tokens output_cost_per_1k = 0.0044 # Example: .015 per 1,000 output tokens # Calculate cost input_cost = (input_tokens / 1000) * input_cost_per_1k output_cost = (output_tokens / 1000) * output_cost_per_1k total_cost = input_cost + output_cost print(completion.choices[0].message) print("----------------=Total Time Taken for task 1:----------------- ", task1_end_time - task1_start_time) print(f"Input Tokens: {input_tokens}, Output Tokens: {output_tokens}") print(f"Estimated Cost: ${total_cost:.6f}") # Display result from IPython.display import Markdown display(Markdown(completion.choices[0].message.content)).14 per 1M tokens INPUT_COST_CACHE_MISS = 0.55 / 1_000_000 # .55 per 1M tokens OUTPUT_COST = 2.19 / 1_000_000 # .19 per 1M tokens # Start timing task1_start_time = time.time() # Initialize OpenAI client for DeepSeek API client = OpenAI(api_key=api_key, base_url="https://api.deepseek.com") messages = [ { "role": "system", "content": """You are a professional Programmer with a large experience.""" }, { "role": "user", "content": """write a python code for this problem: generate a python code for Tetris game.""" } ] # Get token count using tiktoken (adjust model name if necessary) encoding = tiktoken.get_encoding("cl100k_base") # Use a compatible tokenizer input_tokens = sum(len(encoding.encode(msg["content"])) for msg in messages) # Call DeepSeek API response = client.chat.completions.create( model="deepseek-reasoner", messages=messages, stream=False ) # Get output token count output_tokens = len(encoding.encode(response.choices[0].message.content)) task1_end_time = time.time() total_time_taken = task1_end_time - task1_start_time # Assume cache miss for worst-case pricing (adjust if cache info is available) input_cost = (input_tokens / 1_000_000) * INPUT_COST_CACHE_MISS output_cost = (output_tokens / 1_000_000) * OUTPUT_COST total_cost = input_cost + output_cost # Print results print("Response:", response.choices[0].message.content) print("------------------ Total Time Taken for Task 1: ------------------", total_time_taken) print(f"Input Tokens: {input_tokens}, Output Tokens: {output_tokens}") print(f"Estimated Cost: ${total_cost:.6f}") # Display result from IPython.display import Markdown display(Markdown(response.choices[0].message.content))

    DeepSeek-R1の完全な応答をここで見つけることができます。

    出力トークンコスト:O3-MINIは論理的な推論のためにDeepSeek-R1を置き換えることができますか?

    入力トークン:28 |出力トークン:3323 |推定コスト:0.0073ドル

    コード出力

    o3-mini api

    への入力

    比較分析

    このタスクでは、モデルは実際のゲームプレイを可能にする機能的なテトリスコードを生成するために必要でした。 DeepSeek-R1は、コード出力ビデオで実証されているように、完全に機能する実装を正常に作成しました。対照的に、O3-Miniのコードはよく構築されているように見えましたが、実行中にエラーが発生しました。その結果、DeepSeek-R1はこのシナリオでO3-MINIを上回り、より信頼性の高いプレイ可能なソリューションを提供します。

    スコア:

    deepseek-r1:1 | o3-mini:0 タスク2:関係の不平等の分析

    このタスクでは、基本的な並べ替え方法に依存するのではなく、リレーショナルの不平等を効率的に分析する必要があります。

    プロンプト:

    次の質問では、与えられたステートメントが真実であると仮定して、与えられた結論の中でどの結論が真実であるかを見つけて、それに応じて答えを与えます。 ステートメント:

    h&gt; f≤o≤l; f≥V&lt; d

    結論:I。L≥VII。 o&gt; d

    オプションは次のとおりです a。私だけが真実です

    b。 IIのみが真です

    c。 IとIIの両方がtrue

    です d。 IまたはIIのいずれかがTRUE

    です e。私もIIも真実ではありません

    deepseek-r1 api への入力

    出力トークンコスト:

    入力トークン:136 |出力トークン:352 |推定コスト:$ 0.000004 DeepSeek-R1

    による
    from openai import OpenAI
    from IPython.display import display, Markdown
    import time

    応答

    o3-mini api

    への入力

    出力トークンコスト:O3-MINIは論理的な推論のためにDeepSeek-R1を置き換えることができますか?

    入力トークン:135 |出力トークン:423 |推定コスト:$ 0.002010 O3-Mini

    with open("path_of_api_key") as file:
       openai_api_key = file.read().strip()

    比較分析

    O3-MINIは最も効率的なソリューションを提供し、非常に短い時間で簡潔で正確な応答を提供します。明確さを維持しながら、論理的な健全性を確保し、迅速な推論タスクに最適です。 DeepSeek-R1も同様に正しいものの、はるかに遅く、より冗長です。論理的な関係の詳細な内訳は説明可能性を向上させますが、簡単な評価には過度に感じる可能性があります。どちらのモデルも同じ結論に到達しますが、O3-Miniの速度と直接的なアプローチにより、実用的な選択肢になります。

    スコア:deepseek-r1:0 | o3-mini:1

    タスク3:数学の論理的推論

    このタスクは、算術操作、乗算、または数学ルールの組み合わせを含む場合がある数値パターンを認識するようにモデルに挑戦します。ブルートフォース検索の代わりに、モデルは、隠されたロジックを効率的に推測するために構造化されたアプローチを採用する必要があります。

    プロンプト:

    指定されたマトリックスを注意深く調査し、その中の疑問符(?)を置き換えることができる与えられたオプションの中から数値を選択します。 ____________ | 7 | 13 | 174 |

    | 9 | 25 | 104 |

    | 11 | 30 | ? |

    | _____ | ____ | ___ |

    オプションは次のとおりです

    a 335

    b 129

    c 431

    d 100

    各ステップで取ったアプローチに言及してください。 "

    deepseek-r1 api

    への入力

    出力トークンコスト:

    入力トークン:134 |出力トークン:274 |推定コスト:$ 0.000003

    DeepSeek-R1
    from openai import OpenAI
    from IPython.display import display, Markdown
    import time

    による 応答

    o3-mini api

    への入力

    O3-MINIは論理的な推論のためにDeepSeek-R1を置き換えることができますか?

    出力トークンコスト:

    入力トークン:134 |出力トークン:736 |推定コスト:0.003386ドル

    O3-Mini with open("path_of_api_key") as file: openai_api_key = file.read().strip()

    O3-MINIは論理的な推論のためにDeepSeek-R1を置き換えることができますか?

    比較分析

    O3-MINIは論理的な推論のためにDeepSeek-R1を置き換えることができますか?

    ここで、各行で続くパターンは次のとおりです

    (1番目)^3-(2番目の番号)^2 = 3番目の番号O3-MINIは論理的な推論のためにDeepSeek-R1を置き換えることができますか? このパターンの適用:

    O3-MINIは論理的な推論のためにDeepSeek-R1を置き換えることができますか?行1:7^3 - 13^2 = 343 - 169 = 174

    行2:9^3 - 25^2 = 729 - 625 = 104 行3:11^3 - 30^2 = 1331 - 900 = 431

    したがって、正解は431です

    deepseek-r1は、このパターンを正しく識別して適用し、正しい答えにつながります。その構造化されたアプローチは、結果を計算するのにかなり時間がかかるが、精度を保証します。一方、O3-Miniは一貫したパターンを確立できません。乗算、追加、指数などの複数の操作を試みますが、決定的な答えには到達しません。これにより、不明確で誤った応答が生じます。全体として、DeepSeek-R1は論理的な推論と精度でO3-Miniを上回りますが、O3-Miniは一貫性のない効果のないアプローチのために苦労しています。

    スコア:

    deepseek-r1:1 | o3-mini:0

      最終スコア:deepseek-r1:2 | o3-mini:1

      論理的推論比較の概要

      Task No. Task Type Model Performance Time Taken (seconds) Cost
      1 Code Generation DeepSeek-R1 ✅ Working Code 606.45 .0073
      o3-mini ❌ Non-working Code 99.73 .014265
      2 Alphabetical Reasoning DeepSeek-R1 ✅ Correct 74.28 .000004
      o3-mini ✅ Correct 8.08 .002010
      3 Mathematical Reasoning DeepSeek-R1 ✅ Correct 450.53 .000003
      o3-mini ❌ Wrong Answer 12.37 .003386

      結論

      この比較で見たように、Deepseek-R1とO3-Miniの両方が、さまざまなニーズに応えるユニークな強みを示しています。 DeepSeek-R1は、特に数学的推論と複雑なコード生成において、精度駆動型タスクに優れているため、論理的な深さと正確性を必要とするアプリケーションの強力な候補となります。ただし、1つの重要な欠点は、応答時間が遅いことです。これは、アクセシビリティに影響を与えたサーバーメンテナンスの継続的な問題に一部起因しています。一方、O3-MINIは応答時間を大幅に高速化しますが、誤った結果を生成する傾向は、ハイステークスの推論タスクに対する信頼性を制限します。

      この分析では、言語モデルの速度と精度のトレードオフを強調しています。 O3-MINIは迅速で低リスクのアプリケーションに役立つ可能性がありますが、DeepSeek-R1は、その遅延問題に対処すると、推論集約型タスクの優れた選択肢として際立っています。 AIモデルが進化し続けるにつれて、パフォーマンス効率と正確性のバランスをとることが、さまざまなドメインにわたってAI駆動型のワークフローを最適化するための鍵となります。

      また読む:OpenaiのO3-MiniはコーディングでClaude Sonnet 3.5を倒すことができますか?

      よくある質問

      q1。 DeepSeek-R1とO3-Miniの重要な違いは何ですか? DeepSeek-R1は数学的推論と複雑なコード生成に優れているため、論理的な深さと精度を必要とするアプリケーションに最適です。一方、O3-MINIは大幅に高速ですが、しばしば精度を犠牲にし、時折間違った出力につながります。 DeepSeek-R1は、タスクをコーディングするためにO3-MINIよりも優れていますか? DeepSeek-R1は、その優れた精度と複雑なロジックを処理する能力により、コーディングと推論集約型タスクに適した選択肢です。 O3-MINIはより迅速な応答を提供しますが、エラーが生成される可能性があり、ハイステークスプログラミングタスクの信頼性が低下する可能性があります。 O3-MINIは実際のアプリケーションに適していますか? O3-MINIは、チャットボット、カジュアルなテキスト生成、インタラクティブなAIエクスペリエンスなど、低リスクのスピード依存性アプリケーションに最適です。ただし、高精度を必要とするタスクの場合、DeepSeek-R1が好ましいオプションです。推論と問題解決に適したモデル - deepseek-r1またはo3-mini? ​​

      a。 DeepSeek-R1には優れた論理的推論と問題解決機能があり、数学的な計算、プログラミング支援、科学的クエリに強い選択肢となっています。 O3-MINIは、複雑な問題解決シナリオで迅速ですが、時には一貫性のない応答を提供します。

    以上がO3-MINIは論理的な推論のためにDeepSeek-R1を置き換えることができますか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

    声明
    この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
    サム・アルトマンなどが現在、AIの最新の進捗のための新しいゲージとしてバイブを使用している理由サム・アルトマンなどが現在、AIの最新の進捗のための新しいゲージとしてバイブを使用している理由May 06, 2025 am 11:12 AM

    AIフィールドの評価メトリックとしての「バイブ」の使用の増加について説明しましょう。この分析は、AIの進歩に関する私の進行中のフォーブスコラムの一部であり、AI開発の複雑な側面を調査します(こちらのリンクを参照)。 AI評価のバイブ TRADI

    Robotaxiの未来を建設するWaymo工場内Robotaxiの未来を建設するWaymo工場内May 06, 2025 am 11:11 AM

    Waymo's Arizona Factory:大量生産する自動運転ジャガー以上 アリゾナ州フェニックスの近くに位置するWaymoは、自律的なジャガーIペースの電気SUVの艦隊を生産する最先端の施設を運営しています。 この239,000平方フィートの工場がオープンしました

    内部S&PグローバルのコアでAIを使用したデータ駆動型変換内部S&PグローバルのコアでAIを使用したデータ駆動型変換May 06, 2025 am 11:10 AM

    S&PグローバルのチーフデジタルソリューションオフィサーであるJigar Kocherlakotaは、同社のAIの旅、戦略的買収、将来に焦点を当てたデジタル変革について議論しています。 変革的なリーダーシップの役割と将来の準備ができています コチェルラコタの役割

    スーパーアプリの台頭:デジタルエコシステムで繁栄する4つのステップスーパーアプリの台頭:デジタルエコシステムで繁栄する4つのステップMay 06, 2025 am 11:09 AM

    アプリからエコシステムまで:デジタル景観のナビゲート デジタル革命は、ソーシャルメディアとAIをはるかに超えています。 私たちは、「すべてのアプリ」の台頭を目撃しています。 サムa

    MasterCardとVisaはAIエージェントを解き放ち、あなたのために買い物をしますMasterCardとVisaはAIエージェントを解き放ち、あなたのために買い物をしますMay 06, 2025 am 11:08 AM

    MasterCardのエージェント給与:AI搭載の支払いは、コマースに革命をもたらします VisaのAIを搭載したトランザクション機能は見出しになりましたが、MasterCardはトークン化、信頼、およびエージェントに基づいて構築されたより高度なAI-Native支払いシステムであるエージェントペイを発表しました。

    Bocking the Bold:Future VenturesのTransformative Innovation PlaybookBocking the Bold:Future VenturesのTransformative Innovation PlaybookMay 06, 2025 am 11:07 AM

    Future Ventures Fund IV:新しいテクノロジーに200万ドルの賭け Future Venturesは最近、過度にサブスクライブされたファンドIVを閉鎖し、合計2億ドルです。 Steve Jurvetson、Maryanna Saenko、およびNico Enriquezが管理するこの新しい基金は、重要なInvを表しています

    AIが急上昇すると、企業はSEOからGEOに移行しますAIが急上昇すると、企業はSEOからGEOに移行しますMay 05, 2025 am 11:09 AM

    AIアプリケーションの爆発により、企業は従来の検索エンジン最適化(SEO)から生成エンジン最適化(GEO)に移行しています。 Googleがシフトをリードしています。その「AIの概要」機能は、10億人以上のユーザーにサービスを提供しており、ユーザーがリンクをクリックする前に完全な回答を提供しています。 [^2] 他の参加者も急速に上昇しています。 ChatGpt、Microsoft Copilot、Perplexityは、従来の検索結果を完全にバイパスする新しい「Answer Engine」カテゴリを作成しています。 これらのAIに生成された回答にビジネスが表示されない場合、従来の検索結果で高くランク付けされていても、潜在的な顧客は決してあなたを見つけることはありません。 SEOからGeoまで - これは正確に何を意味しますか? 何十年もの間

    これらの経路のどれが今日のAIをプッシュして賞賛されるAGIになることについての大きな賭けこれらの経路のどれが今日のAIをプッシュして賞賛されるAGIになることについての大きな賭けMay 05, 2025 am 11:08 AM

    人工一般情報(AGI)への潜在的なパスを探りましょう。 この分析は、AIの進歩に関する私の進行中のフォーブスコラムの一部であり、AGIと人工的な緊急事態(ASI)を達成する複雑さを掘り下げています。 (関連するアートを参照してください

    See all articles

    ホットAIツール

    Undresser.AI Undress

    Undresser.AI Undress

    リアルなヌード写真を作成する AI 搭載アプリ

    AI Clothes Remover

    AI Clothes Remover

    写真から衣服を削除するオンライン AI ツール。

    Undress AI Tool

    Undress AI Tool

    脱衣画像を無料で

    Clothoff.io

    Clothoff.io

    AI衣類リムーバー

    Video Face Swap

    Video Face Swap

    完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

    ホットツール

    SublimeText3 Linux 新バージョン

    SublimeText3 Linux 新バージョン

    SublimeText3 Linux 最新バージョン

    SAP NetWeaver Server Adapter for Eclipse

    SAP NetWeaver Server Adapter for Eclipse

    Eclipse を SAP NetWeaver アプリケーション サーバーと統合します。

    SublimeText3 中国語版

    SublimeText3 中国語版

    中国語版、とても使いやすい

    Dreamweaver Mac版

    Dreamweaver Mac版

    ビジュアル Web 開発ツール

    PhpStorm Mac バージョン

    PhpStorm Mac バージョン

    最新(2018.2.1)のプロフェッショナル向けPHP統合開発ツール