検索

大規模な言語モデル(LLMS)の台頭は、当初、印象的なスケールと能力で世界を魅了しました。 ただし、より小さく、より効率的な言語モデル(SLM)は、そのサイズがすべてではないことをすぐに証明しています。 これらのコンパクトで驚くほど強力なSLMが2025年にセンターステージを獲得しており、2つの主要な候補者はPHI-4とGPT-4O-MINIです。 この比較は、4つの重要なタスクに基づいて、相対的な長所と短所を調査します。

目次

    PHI-4対GPT-4O-MINI:クイックルック
  • アーキテクチャの違いとトレーニング方法
  • ベンチマークパフォーマンスの比較
  • 詳細な比較
  • コードの例:PHI-4およびGPT-4O-MINI
  • タスク1:推論テスト
  • タスク2:コーディングチャレンジ
  • タスク3:クリエイティブライティングプロンプト
  • タスク4:テキスト要約
  • 結果の要約
  • 結論
  • よくある質問

PHI-4対GPT-4O-MINI:クイックルック Microsoft Researchの作成であるPHI-4は、革新的な方法で生成された合成データを利用して、推論ベースのタスクを優先します。このアプローチは、STEMフィールドでの能力を高め、推論のためのトレーニングを合理化します。 Openaiによって開発された

GPT-4O-MINIは、マルチモーダルLLMSのマイルストーンを表しています。 人間のフィードバック(RLHF)からの補強学習を活用して、さまざまなタスク全体でパフォーマンスを改善し、さまざまな試験や多言語ベンチマークで印象的な結果を達成しています。

アーキテクチャの違いとトレーニング方法

PHI-4:推論最適化

PHIモデルファミリーに基づいて構築されたPHI-4は、140億パラメーターを備えたデコーダーのみの変圧器アーキテクチャを採用しています。 そのユニークなアプローチは、マルチエージェントのプロンプトや自己リビジョンなどの手法を使用して、合成データ生成に集中しています。 トレーニングは、出力の洗練のための直接選好最適化(DPO)を組み込んだ、純粋なスケールよりも品質を強調しています。 主な機能には、合成データの優位性と拡張コンテキストの長さ(最大16Kトークン)が含まれます。

gpt-4o-mini:マルチモーダルスケーラビリティ

OpenAIのGPTシリーズのメンバーである

GPT-4O-MINIは、公開されているデータとライセンスされたデータの組み合わせで事前に訓練された変圧器ベースのモデルです。その重要な差別化要因は、マルチモーダル機能であり、テキストと画像入力の両方を処理します。 OpenAIのスケーリングアプローチにより、さまざまなモデルサイズにわたって一貫した最適化が保証されます。 主な機能には、事実性の向上と予測可能なスケーリング方法のためのRLHFが含まれます。 詳細については、Openaiをご覧ください。

ベンチマークパフォーマンスの比較

PHI-4:STEMおよび推論の専門化

PHI-4は、ベンチマークの推論に関する例外的なパフォーマンスを示し、頻繁に大きなモデルを上回ります。合成STEMデータに焦点を当てると、顕著な結果が得られます

  • GPQA(大学院レベルのSTEM Q&A): gpt-4o-mini。
  • 数学ベンチマーク:高得点を達成し、構造化された推論能力を強調しています。
  • 汚染防止テスト:2024年11月のAMC-10/12の数学テストのようなベンチマークを使用した堅牢な一般化を示します。

Phi-4 vs GPT-4o-mini Face-Off Phi-4 vs GPT-4o-mini Face-Off

gpt-4o-mini:幅広いドメインの専門知識

GPT-4O-MINIは汎用性を紹介し、さまざまな専門的および学術的なテストで人間レベルのパフォーマンスを達成しています:

    試験:
  • 多くの専門的および学術試験で人間レベルのパフォーマンスを実証します。 mmlu(大規模なマルチタスク言語の理解):
  • 英語以外の言語を含む多様な主題で以前のモデルよりも優れています。
  • 詳細な比較

PHI-4は、STEMと推論を専門としており、優れた性能のために合成データを活用しています。 GPT-4O-MINIは、多言語の機能と専門的な試験に優れている、従来のベンチマーク全体でバランスの取れたスキルセットを提供します。 これは、対照的なデザインの哲学、ドメインマスタリーのPHI-4、一般的な習熟度のためのGPT-4O-MINIを強調しています。

コードの例:PHI-4およびGPT-4O-MINI Phi-4 vs GPT-4o-mini Face-Off(注:以下のコードの例は簡素化された表現であり、特定の環境とAPIキーに基づいて調整が必要になる場合があります。)

phi-4

gpt-4o-mini

# Install necessary libraries (if not already installed)
!pip install transformers torch huggingface_hub accelerate

from huggingface_hub import login
from IPython.display import Markdown

# Log in using your Hugging Face token
login(token="your_token")

import transformers

# Load the Phi-4 model
phi_pipeline = transformers.pipeline(
    "text-generation",
    model="microsoft/phi-4",
    model_kwargs={"torch_dtype": "auto"},
    device_map="auto",
)

# Example prompt and generation
messages = [
    {"role": "system", "content": "You are a helpful assistant."},
    {"role": "user", "content": "What is the capital of France?"},
]
outputs = phi_pipeline(messages, max_new_tokens=256)
print(outputs[0]['generated_text'][0]['content'])

Phi-4 vs GPT-4o-mini Face-Off

(タスク1-4とそれらの分析を詳細に説明する次のセクションは、元の入力の構造と内容を反映していますが、長さの制約を改善するためのマイナーなフレージング調整を行います。これらのセクションを省略しました。

!pip install openai

from getpass import getpass
OPENAI_KEY = getpass('Enter Open AI API Key: ')
import openai
from IPython.display import Markdown

openai.api_key = OPENAI_KEY

def get_completion(prompt, model="gpt-4o-mini"):
    messages = [{"role": "user", "content": prompt}]
    response = openai.ChatCompletion.create(
        model=model,
        messages=messages,
        temperature=0.0,
    )
    return response.choices[0].message.content

prompt = "What is the meaning of life?"
response = get_completion(prompt)
print(response)
結果の概要

(このセクションには、4つのタスクにわたる各モデルのパフォーマンスを要約するテーブルが含まれています。)Phi-4 vs GPT-4o-mini Face-Off

結論

PHI-4とGPT-4O-MINIの両方が、SLMテクノロジーの重要な進歩を表しています。 PHI-4の推論およびSTEMタスクの専門化により、特定の技術的アプリケーションに最適ですが、GPT-4o-Miniの汎用性とマルチモーダル機能は、より広範な用途に対応しています。 最適な選択は、ユーザーの特定のニーズと目前のタスクの性質に完全に依存します。

よくある質問(このセクションには、2つのモデルに関する一般的な質問への回答が含まれます。)

以上がPHI-4対GPT-4O-MINI対決の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
外挿の包括的なガイド外挿の包括的なガイドApr 15, 2025 am 11:38 AM

導入 数週間で作物の進行を毎日観察する農民がいるとします。彼は成長率を見て、さらに数週間で彼の植物がどれほど背が高くなるかについて熟考し始めます。 thから

ソフトAIの台頭とそれが今日のビジネスにとって何を意味するかソフトAIの台頭とそれが今日のビジネスにとって何を意味するかApr 15, 2025 am 11:36 AM

ソフトAIは、おおよその推論、パターン認識、柔軟な意思決定を使用して特定の狭いタスクを実行するように設計されたAIシステムとして定義されていますが、曖昧さを受け入れることにより、人間のような思考を模倣しようとします。 しかし、これはBusineにとって何を意味しますか

AIフロンティア向けの進化するセキュリティフレームワークAIフロンティア向けの進化するセキュリティフレームワークApr 15, 2025 am 11:34 AM

答えは明確です。クラウドコンピューティングには、クラウドネイティブセキュリティツールへの移行が必要であるため、AIはAIの独自のニーズに特化した新しい種類のセキュリティソリューションを要求します。 クラウドコンピューティングとセキュリティレッスンの台頭 で

3つの方法生成AIは起業家を増幅します:平均に注意してください!3つの方法生成AIは起業家を増幅します:平均に注意してください!Apr 15, 2025 am 11:33 AM

起業家とAIと生成AIを使用して、ビジネスを改善します。同時に、すべてのテクノロジーと同様に、生成的AIが増幅器であることを覚えておくことが重要です。厳密な2024年の研究o

Andrew Ngによる埋め込みモデルに関する新しいショートコースAndrew Ngによる埋め込みモデルに関する新しいショートコースApr 15, 2025 am 11:32 AM

埋め込みモデルのパワーのロックを解除する:Andrew Ngの新しいコースに深く飛び込む マシンがあなたの質問を完全に正確に理解し、応答する未来を想像してください。 これはサイエンスフィクションではありません。 AIの進歩のおかげで、それはRになりつつあります

大規模な言語モデル(LLMS)の幻覚は避けられませんか?大規模な言語モデル(LLMS)の幻覚は避けられませんか?Apr 15, 2025 am 11:31 AM

大規模な言語モデル(LLM)と幻覚の避けられない問題 ChatGpt、Claude、GeminiなどのAIモデルを使用した可能性があります。 これらはすべて、大規模なテキストデータセットでトレーニングされた大規模な言語モデル(LLMS)、強力なAIシステムの例です。

60%の問題 -  AI検索がトラフィックを排出す​​る方法60%の問題 - AI検索がトラフィックを排出す​​る方法Apr 15, 2025 am 11:28 AM

最近の研究では、AIの概要により、産業と検索の種類に基づいて、オーガニックトラフィックがなんと15〜64%減少する可能性があることが示されています。この根本的な変化により、マーケティング担当者はデジタルの可視性に関する戦略全体を再考することになっています。 新しい

AI R&Dの中心に人間が繁栄するようにするMITメディアラボAI R&Dの中心に人間が繁栄するようにするMITメディアラボApr 15, 2025 am 11:26 AM

Elon UniversityがDigital Future Centerを想像している最近のレポートは、300人近くのグローバルテクノロジーの専門家を調査しました。結果のレポート「2035年に人間である」は、ほとんどがTを超えるAIシステムの採用を深めることを懸念していると結論付けました。

See all articles

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

SecLists

SecLists

SecLists は、セキュリティ テスターの究極の相棒です。これは、セキュリティ評価中に頻繁に使用されるさまざまな種類のリストを 1 か所にまとめたものです。 SecLists は、セキュリティ テスターが必要とする可能性のあるすべてのリストを便利に提供することで、セキュリティ テストをより効率的かつ生産的にするのに役立ちます。リストの種類には、ユーザー名、パスワード、URL、ファジング ペイロード、機密データ パターン、Web シェルなどが含まれます。テスターはこのリポジトリを新しいテスト マシンにプルするだけで、必要なあらゆる種類のリストにアクセスできるようになります。

DVWA

DVWA

Damn Vulnerable Web App (DVWA) は、非常に脆弱な PHP/MySQL Web アプリケーションです。その主な目的は、セキュリティ専門家が法的環境でスキルとツールをテストするのに役立ち、Web 開発者が Web アプリケーションを保護するプロセスをより深く理解できるようにし、教師/生徒が教室環境で Web アプリケーションを教え/学習できるようにすることです。安全。 DVWA の目標は、シンプルでわかりやすいインターフェイスを通じて、さまざまな難易度で最も一般的な Web 脆弱性のいくつかを実践することです。このソフトウェアは、

SAP NetWeaver Server Adapter for Eclipse

SAP NetWeaver Server Adapter for Eclipse

Eclipse を SAP NetWeaver アプリケーション サーバーと統合します。