検索
ホームページテクノロジー周辺機器AIkimi K1.5 vs Openai O1:どちらの優れた推論モデルですか?

Openaiは、O1やO1-Miniのような推論モデルを導入した最初のものでしたが、ゲームで唯一のプレーヤーですか?ロングショットではありません! Deepseek、Qwen、そして今、Kimiのような中国のLLMは、はるかに手頃な価格で同様の機能を提供することにより、Openaiに挑戦するためにステップアップしています。 Deepseekの印象的なデビューの後、新しいKimi K1.5モデルでキミアイが輝く番です。この記事では、同じタスクでOpenai O1に対してKimi K1.5をテストし、どちらが良いかを確認します!

目次

    kimi k1.5とは?検索
  • タスク5:画像分析
  • 最終結果:kimi K1.5 vs openai o1
  • 結論
  • 注意してください:
  • 注意:kimi K1.5は無料です。O1とO1-MINIのCHATGPT Plusにアクセスしながら20ドルです。タスクに飛び込む前に、2つのモデルを比較しましょう。
  • kimi k1.5?
  • とは何ですか
  • Kimi K1.5は、Moonshot AIによるマルチモーダルLLMで、強化学習(RL)で訓練され、テキスト、ビジョン、コーディング全体のさまざまな推論タスクで優れているように設計されています。最近発売されたKimi K1.5は、プレビューやミニの接尾辞なしでOpenaiのO1モデルの機能に合わせて、印象的なパフォーマンスにすぐに注目を集めました。
  • キー機能
  • 無制限の使用で完全に無料
  • 100のWebサイトにわたるリアルタイムWeb検索

最大50のファイル(PDF、ドキュメント、PPT、画像)を簡単に分析します 高度なベッドコット推論、無料で利用可能

基本的なテキスト抽出を超えて、画像の理解が強化されました

読み取り:

Openai O1:Openaiの新しいモデルシリーズ
  • o1-mini:STEMと推論のためのゲームを変えるモデル
  • kimi k1.5 vs openai o1およびo1-mini
  • kimi K1.5は、ロングコットのタスクでOpenaiのO1とO1-MINIに一致し、GPT-4OとClaude Sonnet 3.5をショートコットタスクで上回ります。特に視覚的な推論において、そのマルチモーダル機能は、OpenAIのモデルの強力な競争相手としてそれを位置づけています。 RLトレーニング技術、マルチモーダルデータレシピ、およびインフラストラクチャの最適化の使用は、これらの結果を達成する上で極めて重要です。

    K1.5ロングコットモデル:マルチモーダル推論の進出

    Kimi K1.5ロングコットモデルは、長いコンテキストスケーリング、改善されたポリシー最適化方法、およびビジョンテキスト強化学習(RL)の組み合わせにより、最先端(SOTA)パフォーマンスを実現します。次のトークンの予測に依存し、利用可能なトレーニングデータによって制限されている従来の言語モデルの事前削減とは異なり、Kimi K1.5はRLを活用して、報酬を求めて探求することを学ぶことでトレーニングデータを拡大します。このアプローチは、モンテカルロツリー検索やバリュー関数などの複雑なテクニックを回避する、単純で効果的なRLフレームワークを確立します。

    kimi K1.5 vs Openai O1:どちらの優れた推論モデルですか?

    キーベンチマークは、モデルの並外れたパフォーマンスを強調しています:

    • 数学的推論:MATH-500で96.2、AIME 2024で77.5のスコア、OpenaiのO1およびO1-Miniモデルと一致します。
    • プログラミング
    • :codeforcesの94パーセンタイル、競争力のあるプログラミングに優れています 視覚的推論
    • :74.9 Mathvistaで、強力なマルチモーダル統合を紹介します。
    • 計画、反射、修正などの長いコンテキストタスクを処理するモデルの能力は、トレーニング中の部分的なロールアウト、効率、パフォーマンスの向上によって強化されます。
    • K1.5ショートコットモデル:効率とパフォーマンス

    ショートコットモデルは、長いコットモデルの成功に基づいており、効果的なLong2Shortメソッドを使用して、長期コットのテクニックをより効率的なフレームワークに蒸留します。このアプローチは、微調整、強化学習、および短期間の蒸留を組み合わせて、短いコンテキストタスクの迅速かつ正確な推論を提供します。

    顕著な成果には以下が含まれます

    kimi K1.5 vs Openai O1:どちらの優れた推論モデルですか?数学的推論

    :Math-500で94.6のスコア、AIME 2024で60.8で、GPT-4oやClaude Sonnet 3.5などの既存のショートコットモデルを最大550%上回る。

    プログラミング
      :47.3 livecodebenchで、コード生成とデバッグタスクに優れています。
    • 自然言語の理解
    • :チャットボットや仮想アシスタントなどのリアルタイムアプリケーションに効果的です。
    • モデルのマージや最短の拒絶サンプリングを含む長期にわたる蒸留技術により、計算コストが削減された高性能を確保し、ショートコットモデルを非常に効率的にします。 もっと知るために、ここで彼らの研究論文をチェックアウトできます!
    • さあ、同じプロンプトでkimi k1.5とopenai o1を評価しましょう! タスク1:Zebra Puzzle

    プロンプト:

    このゼブラパズルを正しく解決します

    openai O1応答:

    コレクターの詳細
    Collector Position Nationality Lot Amount Spent Shirt Color
    Collector #1 Portuguese Toy Unknown Blue
    Collector #2 Japanese Lot 40 0,000 Purple
    Collector #3 Italian Lot 30 0,000 Pink
    Collector #4 Canadian Unknown 0,000 Yellow
    Collector #5 Unknown Unknown 0,000 Unknown

    kimi K1.5 vs Openai O1:どちらの優れた推論モデルですか?

    kimi K1.5応答:

    コレクターの詳細
    Collector # Nationality Lot Item Amount Shirt Color
    1 Italian 30 Clock 0,000 Blue
    2 Japanese 40 Painting 0,000 Purple
    3 Canadian 10 Vase 0,000 Pink
    4 Portuguese 34 Toy 0,000 Yellow
    5 (Unknown)

    kimi K1.5 vs Openai O1:どちらの優れた推論モデルですか?

    観察:

    Openai O1によって提供される応答は、非常に不正確です。結果のテーブルは、質問で指定された必要な形式に準拠しておらず、回答が信頼できません。一方、Kimi K1.5は質問に従って正しい形式で応答を提供しましたが、答え自体の内容は正しくありません。

    評決:

    openai o1:❌| kimi K1.5:❌

    タスク2:論理的推論

    プロンプト:部屋に足を踏み入れてベッドを見ます。ベッドには、2匹の犬、4匹の猫、キリン、5頭の牛、アヒルがいます。 3つの椅子とテーブルもあります。床にはいくつの脚がありますか? openai O1応答:

    kimi K1.5応答:kimi K1.5 vs Openai O1:どちらの優れた推論モデルですか?

    観察:kimi K1.5 vs Openai O1:どちらの優れた推論モデルですか?

    正解:

    22(2(人間)4(表)4(ベッド)12(3椅子))

    Openai O1は応答を生成するのに時間がかかりすぎました。計算は正しく、詳細な説明が含まれていましたが、床の人間の足を説明することができず、答えが正しくありませんでした。対照的に、Kimi K1.5はより少ない時間で正解を提供しました

    評決:

    openai o1:❌| kimi K1.5:✅ タスク3:HTMLサイトを作成します

    プロンプト:

    紙吹雪でクリックしたときに背景色をピンクに変更するボタンを備えた単純なHTMLページを作成します。

    openai O1応答:

    kimi K1.5応答:

    観察:

    両方のモデルがプロンプトに順守し、正しい応答を提供しました。 Webページの外観と機能性に関しては、Kimi K1.5ははるかに良い仕事をしています! 評決:

    openai o1:❌| kimi K1.5:✅

    タスク4:web検索

    プロンプト:

    記事を読むhttps://www.analyticsvidhya.com/blog/2024/07/building-agentic-rag-systems-with-langgraph/簡潔な方法で重要な手順を要約します

    openai O1応答:

    ウィキペディアデータ用のベクトルデータベースを構築するプロセスを要約するキーポイント:

    1. データを収集:ダンプまたはAPIからウィキペディアの記事を取得します。
    2. preprocessテキスト:テキストを掃除して、より小さく、コヒーレントな「チャンク」に分割します。
    3. 埋め込みモデルを選択:言語モデル(例:Openai Embeddings)を使用して、テキストチャンクを数値ベクトルに変換します。
    4. 生成埋め込み
    5. :チャンクごとに、セマンティックベクトル表現を生成します。 ベクトルデータベースを設定します
    6. :ベクターストア(例:Pinecone、Weaviate、Faiss、Chromaなど)を選択して、埋め込みを保存およびインデックス作成します。
    7. ベクトルを挿入:すべてのチャンクベクターと関連するメタデータ(元の記事の参照)をデータベースにロードします。
    8. テスト検索:関連するウィキペディアのチャンクが返されることを確認するために、ベクトル化された質問でデータベースをクエリします。
    9. 最適化と統合:効率的かつ正確な情報検索のために、検索と統合を検索と統合(RAG)パイプラインと使用します。
    10. kimi K1.5応答:
    11. 「Langgraphを使用したエージェントRAGシステムの構築に関する包括的なガイド」は、エージェントRAGシステムの作成の一環として、ウィキペディアデータのベクトルデータベースを構築するプロセスの概要を説明しています。要約された重要な手順は次のとおりです
      1. 依存関係のインストール:Langchain、Langchain-Openai、Langchain-Community、Langgraph、Langchain-chromaなどの必要なライブラリをインストールします。
      2. APIキーを入力:OpenAIのAPIキーを安全に入力し、getPass関数を使用してタビリー検索して、コードに公開しないようにします。
      3. 環境変数のセットアップ
      4. :OpenaiおよびTavily Search APIキーの環境変数を設定します。 Wikipediaデータをロード
      5. 提供されたGoogleドライブリンクからWikipediaデータをダウンロードするか、ローカルアーカイブファイルを使用してください。 抽出してデータをドキュメントのリストにロードします。
        • Chunk Documents
      6. テキストスプリッターを使用して、ドキュメントを小さくて管理しやすいチャンクに分割します。
          ベクターデータベースの作成
        • Chroma Vector Databaseクライアントを初期化します。
        Openaiの埋め込みモデル(Text-embedding-3-Small)を使用して、ドキュメントチャンクを埋め込みに変換します。
    12. ドキュメントチャンクとその埋め込みをベクトルデータベースインデックスに保存し、距離関数としてコサインの類似性を指定します。
      • セットアップベクトルデータベースレトリバー
      • レトリバーを構成して、COSINEの類似性に基づいてトップ3の最も類似したドキュメントを取得します。
      • 類似性のしきい値(例:0.3)を設定して、クエリと十分に類似していないドキュメントを除外します。
    13. レトリバーをテスト
    14. サンプルクエリを使用してレトリバーをテストして、関連するドキュメントを返すようにします。
        ベクトルデータベースに関連するドキュメントのないクエリの場合、レトリーバーは空のリストを返す必要があります。
      • 観察:
    15. Kimi K1.5の出力は、特定の技術的パラメーターとライブラリの要件を備えた詳細で実用的な実装手順を提供することで優れています。包括的な深さと明確な組織のバランスを取り、各ステップの背後にある理由を説明し、技術プロセスをエージェントRAGシステムを構築するというより広範な目標に効果的に結び付けます。
    16. 評決:
      • openai o1:❌| kimi K1.5:✅
      • タスク5:画像分析
    17. プロンプト:

    画像は、宇宙のデータセンターの非常に単純化された概略図を示しており、正当化が必要ないくつかの単純な仮定があります。

    タスク

    データセンターに必要なラジエーター表面領域の下限を推定します。熱力学の最初の法則がこのシナリオに適用される方法を説明する方法を説明します。

    入力画像:

    kimi K1.5 vs Openai O1:どちらの優れた推論モデルですか?

    openai O1応答:

    以下は、明確に述べられた単純化された仮定、正当化、および熱力学の最初の法則の適用を備えた段階的な推論プロセスです。最終結果は、スペースベースのデータセンターによって生成された1 GWの熱を消散するために必要なラジエーター領域の下限です。

    重要な仮定と単純化

    1。電源入力と熱生成:

    データセンターが1 GWの太陽光発電源を搭載していると仮定します。 GPUによって消費される電力のほぼすべてが熱に変換されます(保存されていないすべての電気エネルギーが最終的に熱として消散する必要があるため、電気から熱から熱から熱のエネルギー変換は基本的に定常状態で100%です)。したがって、除去する廃熱は約1 GW = 1×10^9 W.

    2。放射熱伝達のみ:

    空間では、環境に対流または伝導的な冷却はありません。放射熱伝達のみです。したがって、熱拒絶の主なモードは、ラジエーター表面から深層への熱放射です。

    3。放射率と吸収性:

    ラジエーターが高出産表面で構築されていると仮定します。たとえば、たとえば0.9

    ラジエーターは主に太陽の吸収を最小限に抑えるために太陽から離れています。

    kimi K1.5応答: 空間のデータセンターに必要なラジエーター表面積の下限を推定するには、表面によって放射される電力を説明するStefan-Boltzmannの法則を適用することから始めます。

    • 熱管理の太陽と深い空間を処理するには、データセンターは日光を使用して直射日光から保護するか、惑星や月などの太陽にさらされない場所に配置する必要があります。ラジエーターは、非常に寒い空間の真空に熱を効率的に放射するように設計する必要があります。
    熱力学の最初の法則は、データセンターの機器によって生成された熱がラジエーターによって放射される熱に等しくなることを保証することにより、このシナリオに適用されます。この法律は、システム内の総エネルギーが一定のままであり、発生した熱がラジエーターの設計で完全に説明されることを保証します。

    必要なラジエーター表面積の下限は、約

    766平方メートル

    です。データセンターは直射日光から保護する必要があり、ラジエーターは、熱平衡を維持するために空間の真空での熱放散のために最適化する必要があります。

    観察:

    kimi K1.5の対応は、いくつかの理由で優れています。基本的なStefan-Boltzmannの法則の方程式から始まる、段階的なアプローチを通じて明確な数学的推論を示しています。 Kimiはすべての変数とその値を明確に定義し、ラジエーター領域を解く数学的プロセスを示し、766平方メートルの具体的な数値結果を提供します。この説明には、熱管理戦略の明確な正当性、惑星の暗い側にラジエーターを配置するなどの実用的な考慮事項、および実際のアプリケーションを使用した熱力学の最初の法則への直接的なつながりが含まれます。応答は、特定の数字と実用的な推奨事項で終了します 対照的に、OpenAI O1の応答は、実際の計算を完了するのではなく、一般的な仮定とセットアップに焦点を当てて、より理論的なままです。具体的な数値ソリューションがなく、熱管理の側面に完全に対処しておらず、Kimi K1.5の詳細でソリューション指向のアプローチと比較して、実用的で実行可能ではありません。

    評決:

    openai o1:❌| kimi K1.5:✅

    最終結果:kimi K1.5 vs openai o1

    タスクの結果 また読む:kimi K1.5対deepseek R1:最高の中国のLLMSの戦い
    Task Winner
    Zebra Puzzle Neither
    Logical Reasoning Kimi k1.5
    Create an HTML Site Kimi k1.5
    Web Search Kimi k1.5
    Image Analysis Kimi k1.5
    結論 Kimi K1.5やDeepseek R1などの無料モデルは、Openai O1の優位性に挑戦しており、推論、コーディング、マルチモーダルタスクの優れたパフォーマンスを無料で提供しています。 Kimi K1.5がキーベンチマークでOpenaiを上回っており、Deepseek R1がコーディングの課題に優れているため、Openai O1には月額20ドルを支払っています。以下のコメントセクションでお知らせください!

    このような素晴らしいコンテンツについては、Analytics Vidhyaブログにご注目ください!

以上がkimi K1.5 vs Openai O1:どちらの優れた推論モデルですか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
摩擦から流れへ:AIがどのように法的作業を変えているか摩擦から流れへ:AIがどのように法的作業を変えているかMay 09, 2025 am 11:29 AM

法的技術革命は勢いを増し、法律専門家にAIソリューションを積極的に受け入れるように促しています。 受動的抵抗は、競争力を維持することを目指している人にとってはもはや実行可能な選択肢ではありません。 なぜテクノロジーの採用が重要なのですか? 法律専門家

これはAIがあなたのことを考えており、あなたについて知っていることですこれはAIがあなたのことを考えており、あなたについて知っていることですMay 09, 2025 am 11:24 AM

多くの人は、AIとの相互作用が匿名であると仮定しており、人間のコミュニケーションとはまったく対照的です。 ただし、AIはすべてのチャット中にユーザーを積極的にプロファイルします。 すべてのプロンプト、すべての単語が分析および分類されます。 AI Revoのこの重要な側面を探りましょう

繁栄した、AIの準備ができている企業文化を構築するための7つのステップ繁栄した、AIの準備ができている企業文化を構築するための7つのステップMay 09, 2025 am 11:23 AM

成功した人工知能戦略は、強力な企業文化サポートから分離することはできません。 Peter Druckerが言ったように、事業運営は人々に依存しており、人工知能の成功も依存しています。 人工知能を積極的に受け入れる組織の場合、AIに適応する企業文化を構築することが重要であり、AI戦略の成功または失敗さえ決定します。 ウェストモンローは最近、繁栄するAIに優しい企業文化を構築するための実用的なガイドをリリースしました。ここにいくつかの重要なポイントがあります。 1. AIの成功モデルを明確にする:まず第一に、AIがどのようにビジネスに力を与えることができるかについての明確なビジョンが必要です。理想的なAI操作文化は、人間とAIシステム間の作業プロセスの自然統合を実現できます。 AIは特定のタスクが得意であり、人間は創造性と判断が得意です

Netflix New Scroll、Meta AI'のゲームチェンジャー、Neuralinkは85億ドルで評価されていますNetflix New Scroll、Meta AI'のゲームチェンジャー、Neuralinkは85億ドルで評価されていますMay 09, 2025 am 11:22 AM

メタはAIアシスタントアプリケーションをアップグレードし、ウェアラブルAIの時代が来ています! ChatGPTと競合するように設計されたこのアプリは、テキスト、音声インタラクション、画像生成、Web検索などの標準的なAI機能を提供しますが、初めてジオロケーション機能を追加しました。これは、メタAIがあなたがどこにいるのか、あなたがあなたの質問に答えるときにあなたが何を見ているのかを知っていることを意味します。興味、場所、プロファイル、アクティビティ情報を使用して、これまで不可能な最新の状況情報を提供します。このアプリはリアルタイム翻訳もサポートしており、レイバンメガネのAIエクスペリエンスを完全に変更し、その有用性を大幅に改善しました。 外国映画への関税の賦課は、メディアや文化に対する裸の力の行使です。実装された場合、これはAIと仮想生産に向かって加速します

AIサイバー犯罪から身を守るために、今日これらの手順を踏んでくださいAIサイバー犯罪から身を守るために、今日これらの手順を踏んでくださいMay 09, 2025 am 11:19 AM

人工知能は、サイバー犯罪の分野に革命をもたらし、新しい防御スキルを学ぶことを強いています。サイバー犯罪者は、ディープフォーファリーやインテリジェントなサイバー攻撃などの強力な人工知能技術を、前例のない規模で詐欺と破壊に使用しています。過去1年間、グローバルビジネスの87%がAIサイバー犯罪の標的を絞っていると報告されています。 それでは、どうすればこの賢い犯罪の波の犠牲者になることを避けることができますか?リスクを特定し、個人および組織レベルで保護対策を講じる方法を探りましょう。 サイバー犯罪者が人工知能をどのように使用するか 技術が進むにつれて、犯罪者は、個人、企業、政府を攻撃する新しい方法を常に探しています。人工知能の広範な使用は最新の側面かもしれませんが、その潜在的な害は前例のないものです。 特に、人工知能

共生ダンス:人工的および自然な知覚のナビゲートループ共生ダンス:人工的および自然な知覚のナビゲートループMay 09, 2025 am 11:13 AM

人工知能(AI)と人間の知能(NI)の複雑な関係は、フィードバックループとして最もよく理解されています。 人間はAIを作成し、人間の活動によって生成されたデータでそれをトレーニングして、人間の能力を強化または複製します。 このai

AIの最大の秘密 - クリエイターはそれを理解していません、専門家は分裂しますAIの最大の秘密 - クリエイターはそれを理解していません、専門家は分裂しますMay 09, 2025 am 11:09 AM

人類の最近の声明は、最先端のAIモデルを取り巻く理解の欠如を強調しており、専門家の間で激しい議論を引き起こしました。 この不透明度は本物の技術的危機ですか、それとも単により多くのソフへの道の一時的なハードルですか

Sarvam AIによるBulbul-V2:インドの最高のTTSモデルSarvam AIによるBulbul-V2:インドの最高のTTSモデルMay 09, 2025 am 10:52 AM

インドは、言語の豊かなタペストリーを備えた多様な国であり、地域間のシームレスなコミュニケーションを持続的な課題にしています。ただし、SarvamのBulbul-V2は、高度なテキストからスピーチ(TTS)Tでこのギャップを埋めるのに役立ちます。

See all articles

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

WebStorm Mac版

WebStorm Mac版

便利なJavaScript開発ツール

EditPlus 中国語クラック版

EditPlus 中国語クラック版

サイズが小さく、構文の強調表示、コード プロンプト機能はサポートされていません

mPDF

mPDF

mPDF は、UTF-8 でエンコードされた HTML から PDF ファイルを生成できる PHP ライブラリです。オリジナルの作者である Ian Back は、Web サイトから「オンザフライ」で PDF ファイルを出力し、さまざまな言語を処理するために mPDF を作成しました。 HTML2FPDF などのオリジナルのスクリプトよりも遅く、Unicode フォントを使用すると生成されるファイルが大きくなりますが、CSS スタイルなどをサポートし、多くの機能強化が施されています。 RTL (アラビア語とヘブライ語) や CJK (中国語、日本語、韓国語) を含むほぼすべての言語をサポートします。ネストされたブロックレベル要素 (P、DIV など) をサポートします。

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

Safe Exam Browser

Safe Exam Browser

Safe Exam Browser は、オンライン試験を安全に受験するための安全なブラウザ環境です。このソフトウェアは、あらゆるコンピュータを安全なワークステーションに変えます。あらゆるユーティリティへのアクセスを制御し、学生が無許可のリソースを使用するのを防ぎます。