大規模な言語モデル(LLMS)の台頭は、当初、印象的なスケールと能力で世界を魅了しました。 ただし、より小さく、より効率的な言語モデル(SLM)は、そのサイズがすべてではないことをすぐに証明しています。 これらのコンパクトで驚くほど強力なSLMが2025年にセンターステージを獲得しており、2つの主要な候補者はPHI-4とGPT-4O-MINIです。 この比較は、4つの重要なタスクに基づいて、相対的な長所と短所を調査します。
目次
- PHI-4対GPT-4O-MINI:クイックルック
- アーキテクチャの違いとトレーニング方法
- ベンチマークパフォーマンスの比較
- 詳細な比較
- コードの例:PHI-4およびGPT-4O-MINI
- タスク1:推論テスト
- タスク2:コーディングチャレンジ
- タスク3:クリエイティブライティングプロンプト
- タスク4:テキスト要約
- 結果の要約
- 結論
- よくある質問
PHI-4対GPT-4O-MINI:クイックルック Microsoft Researchの作成であるPHI-4は、革新的な方法で生成された合成データを利用して、推論ベースのタスクを優先します。このアプローチは、STEMフィールドでの能力を高め、推論のためのトレーニングを合理化します。 Openaiによって開発された
GPT-4O-MINIは、マルチモーダルLLMSのマイルストーンを表しています。 人間のフィードバック(RLHF)からの補強学習を活用して、さまざまなタスク全体でパフォーマンスを改善し、さまざまな試験や多言語ベンチマークで印象的な結果を達成しています。 アーキテクチャの違いとトレーニング方法PHI-4:推論最適化
PHIモデルファミリーに基づいて構築されたPHI-4は、140億パラメーターを備えたデコーダーのみの変圧器アーキテクチャを採用しています。 そのユニークなアプローチは、マルチエージェントのプロンプトや自己リビジョンなどの手法を使用して、合成データ生成に集中しています。 トレーニングは、出力の洗練のための直接選好最適化(DPO)を組み込んだ、純粋なスケールよりも品質を強調しています。 主な機能には、合成データの優位性と拡張コンテキストの長さ(最大16Kトークン)が含まれます。gpt-4o-mini:マルチモーダルスケーラビリティ
OpenAIのGPTシリーズのメンバーであるGPT-4O-MINIは、公開されているデータとライセンスされたデータの組み合わせで事前に訓練された変圧器ベースのモデルです。その重要な差別化要因は、マルチモーダル機能であり、テキストと画像入力の両方を処理します。 OpenAIのスケーリングアプローチにより、さまざまなモデルサイズにわたって一貫した最適化が保証されます。 主な機能には、事実性の向上と予測可能なスケーリング方法のためのRLHFが含まれます。 詳細については、Openaiをご覧ください。
ベンチマークパフォーマンスの比較
PHI-4:STEMおよび推論の専門化PHI-4は、ベンチマークの推論に関する例外的なパフォーマンスを示し、頻繁に大きなモデルを上回ります。合成STEMデータに焦点を当てると、顕著な結果が得られます
- GPQA(大学院レベルのSTEM Q&A): gpt-4o-mini。
- 数学ベンチマーク:高得点を達成し、構造化された推論能力を強調しています。
- 汚染防止テスト:2024年11月のAMC-10/12の数学テストのようなベンチマークを使用した堅牢な一般化を示します。
GPT-4O-MINIは汎用性を紹介し、さまざまな専門的および学術的なテストで人間レベルのパフォーマンスを達成しています:
- 試験:
- 多くの専門的および学術試験で人間レベルのパフォーマンスを実証します。 mmlu(大規模なマルチタスク言語の理解): 英語以外の言語を含む多様な主題で以前のモデルよりも優れています。
- 詳細な比較
PHI-4は、STEMと推論を専門としており、優れた性能のために合成データを活用しています。 GPT-4O-MINIは、多言語の機能と専門的な試験に優れている、従来のベンチマーク全体でバランスの取れたスキルセットを提供します。 これは、対照的なデザインの哲学、ドメインマスタリーのPHI-4、一般的な習熟度のためのGPT-4O-MINIを強調しています。
コードの例:PHI-4およびGPT-4O-MINI
phi-4
gpt-4o-mini
# Install necessary libraries (if not already installed) !pip install transformers torch huggingface_hub accelerate from huggingface_hub import login from IPython.display import Markdown # Log in using your Hugging Face token login(token="your_token") import transformers # Load the Phi-4 model phi_pipeline = transformers.pipeline( "text-generation", model="microsoft/phi-4", model_kwargs={"torch_dtype": "auto"}, device_map="auto", ) # Example prompt and generation messages = [ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "What is the capital of France?"}, ] outputs = phi_pipeline(messages, max_new_tokens=256) print(outputs[0]['generated_text'][0]['content'])
(タスク1-4とそれらの分析を詳細に説明する次のセクションは、元の入力の構造と内容を反映していますが、長さの制約を改善するためのマイナーなフレージング調整を行います。これらのセクションを省略しました。
!pip install openai from getpass import getpass OPENAI_KEY = getpass('Enter Open AI API Key: ') import openai from IPython.display import Markdown openai.api_key = OPENAI_KEY def get_completion(prompt, model="gpt-4o-mini"): messages = [{"role": "user", "content": prompt}] response = openai.ChatCompletion.create( model=model, messages=messages, temperature=0.0, ) return response.choices[0].message.content prompt = "What is the meaning of life?" response = get_completion(prompt) print(response)結果の概要
(このセクションには、4つのタスクにわたる各モデルのパフォーマンスを要約するテーブルが含まれています。)
結論
PHI-4とGPT-4O-MINIの両方が、SLMテクノロジーの重要な進歩を表しています。 PHI-4の推論およびSTEMタスクの専門化により、特定の技術的アプリケーションに最適ですが、GPT-4o-Miniの汎用性とマルチモーダル機能は、より広範な用途に対応しています。 最適な選択は、ユーザーの特定のニーズと目前のタスクの性質に完全に依存します。
よくある質問(このセクションには、2つのモデルに関する一般的な質問への回答が含まれます。)
以上がPHI-4対GPT-4O-MINI対決の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

導入 数週間で作物の進行を毎日観察する農民がいるとします。彼は成長率を見て、さらに数週間で彼の植物がどれほど背が高くなるかについて熟考し始めます。 thから

ソフトAIは、おおよその推論、パターン認識、柔軟な意思決定を使用して特定の狭いタスクを実行するように設計されたAIシステムとして定義されていますが、曖昧さを受け入れることにより、人間のような思考を模倣しようとします。 しかし、これはBusineにとって何を意味しますか

答えは明確です。クラウドコンピューティングには、クラウドネイティブセキュリティツールへの移行が必要であるため、AIはAIの独自のニーズに特化した新しい種類のセキュリティソリューションを要求します。 クラウドコンピューティングとセキュリティレッスンの台頭 で

起業家とAIと生成AIを使用して、ビジネスを改善します。同時に、すべてのテクノロジーと同様に、生成的AIが増幅器であることを覚えておくことが重要です。厳密な2024年の研究o

埋め込みモデルのパワーのロックを解除する:Andrew Ngの新しいコースに深く飛び込む マシンがあなたの質問を完全に正確に理解し、応答する未来を想像してください。 これはサイエンスフィクションではありません。 AIの進歩のおかげで、それはRになりつつあります

大規模な言語モデル(LLM)と幻覚の避けられない問題 ChatGpt、Claude、GeminiなどのAIモデルを使用した可能性があります。 これらはすべて、大規模なテキストデータセットでトレーニングされた大規模な言語モデル(LLMS)、強力なAIシステムの例です。

最近の研究では、AIの概要により、産業と検索の種類に基づいて、オーガニックトラフィックがなんと15〜64%減少する可能性があることが示されています。この根本的な変化により、マーケティング担当者はデジタルの可視性に関する戦略全体を再考することになっています。 新しい

Elon UniversityがDigital Future Centerを想像している最近のレポートは、300人近くのグローバルテクノロジーの専門家を調査しました。結果のレポート「2035年に人間である」は、ほとんどがTを超えるAIシステムの採用を深めることを懸念していると結論付けました。


ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

SecLists
SecLists は、セキュリティ テスターの究極の相棒です。これは、セキュリティ評価中に頻繁に使用されるさまざまな種類のリストを 1 か所にまとめたものです。 SecLists は、セキュリティ テスターが必要とする可能性のあるすべてのリストを便利に提供することで、セキュリティ テストをより効率的かつ生産的にするのに役立ちます。リストの種類には、ユーザー名、パスワード、URL、ファジング ペイロード、機密データ パターン、Web シェルなどが含まれます。テスターはこのリポジトリを新しいテスト マシンにプルするだけで、必要なあらゆる種類のリストにアクセスできるようになります。

DVWA
Damn Vulnerable Web App (DVWA) は、非常に脆弱な PHP/MySQL Web アプリケーションです。その主な目的は、セキュリティ専門家が法的環境でスキルとツールをテストするのに役立ち、Web 開発者が Web アプリケーションを保護するプロセスをより深く理解できるようにし、教師/生徒が教室環境で Web アプリケーションを教え/学習できるようにすることです。安全。 DVWA の目標は、シンプルでわかりやすいインターフェイスを通じて、さまざまな難易度で最も一般的な Web 脆弱性のいくつかを実践することです。このソフトウェアは、

SAP NetWeaver Server Adapter for Eclipse
Eclipse を SAP NetWeaver アプリケーション サーバーと統合します。
