オープンソース モデルはその旺盛な活力を示しており、その数が増加しているだけでなく、パフォーマンスもますます向上しています。チューリング賞受賞者のヤン・ルカン氏も「オープンソースの人工知能モデルは独自モデルを超えようとしている。」
独自モデルは技術的性能と革新性において、大きな可能性を示していると嘆いた。多くの機能を備えていますが、非オープンソースの特性により、LLM の開発が妨げられます。一部のオープンソース モデルは実践者や研究者に多様な選択肢を提供していますが、ほとんどは最終的なモデルの重みまたは推論コードのみを公開しており、技術レポートの範囲がトップレベルの設計と表面統計に限定されているものが増えています。このクローズドソース戦略は、オープンソース モデルの開発を制限するだけでなく、LLM 研究分野全体の進歩を大幅に妨げます。これは、これらのモデルがより包括的であり、トレーニング データも含めて徹底的に共有される必要があることを意味します。 、アルゴリズムの詳細、実装上の課題、パフォーマンス評価の詳細。
Cerebras、Petuum、MBZUAI の研究者は共同で LLM360 を提案しました。これは、トレーニング コードとデータ、モデル チェックポイント、中間結果など、LLM トレーニングに関連するすべてのものをコミュニティに提供することを提唱する、包括的なオープンソース LLM イニシアチブです。 LLM360 の目標は、LLM トレーニング プロセスを透明性があり、誰にとっても再現可能にし、それによってオープンで協力的な人工知能研究の開発を促進することです。
#論文アドレス: https://arxiv.org/pdf/2312.06550 .pdf
- プロジェクト Web ページ: https://www.llm360.ai/
- ブログ: https://www.llm360.ai/blog/introducing-llm360- fully-transparent-open-source-llms.html
- 研究者私たちは、LLM360 の設計原則と完全にオープンソースであるための理論的根拠に焦点を当てて、LLM360 のアーキテクチャを開発しました。これらは、データセット、コードと構成、モデルのチェックポイント、メトリクスなどの特定の詳細を含む、LLM360 フレームワークのコンポーネントを指定します。 LLM360 は、現在および将来のオープン ソース モデルの透明性の例を示します。
研究者らは、LLM360 のオープンソース フレームワークの下で最初から事前トレーニングされた 2 つの大規模な言語モデル、AMBER と CRYSTALCODER をリリースしました。 AMBER は、1.3T トークンに基づいて事前トレーニングされた 7B 英語モデルです。 CRYSTALCODER は、1.4T トークンに基づいて事前トレーニングされた 7B 英語およびコード言語モデルです。この記事では、研究者らがこれら 2 つのモデルの開発詳細、予備評価結果、観察、経験と教訓をまとめています。特に、リリース時点では、AMBER と CRYSTALCODER はトレーニング中にそれぞれ 360 個と 143 個のモデル チェックポイントを保存しました。
#それでは、記事の詳細を見ていきましょう
LLM360 のフレームワークは、LLM の事前トレーニング プロセス中に収集する必要があるデータとコードの標準を提供し、既存の作業をより適切に循環および共有できるようにします。地域社会・共同体 。これには主に次の部分が含まれます:
1. トレーニング データ セットとデータ処理コード
事前トレーニング データセットは、大規模な言語モデルのパフォーマンスにとって重要です。したがって、潜在的な行動上の問題とバイアスを評価するには、トレーニング前のデータセットを理解することが重要です。さらに、公開されている事前トレーニング データセットは、後で微調整してさまざまなドメインに適応させる際に、LLM のスケーラビリティを向上させるのに役立ちます。最近の研究では、繰り返しデータをトレーニングすると、モデルの最終的なパフォーマンスが過度に低下することが示されています。したがって、元の事前トレーニング データを公開すると、ダウンストリームを微調整したり、特定のドメインで事前トレーニングを継続したりするときに重複データの使用を回避できます。上記の理由に基づいて、LLM360 は大規模な言語モデルの生データ セットの開示を主張します。必要に応じて、データのフィルタリング、処理、トレーニング シーケンスの詳細も開示する必要があります。
書き直す必要がある内容は次のとおりです: 2. トレーニング コード、ハイパーパラメーター、構成
トレーニング コード、ハイパーパラメーター、および構成は、LLM トレーニングのパフォーマンスと品質に大きな影響を与えますが、常に公開されているわけではありません。 LLM360 では、研究者はすべてのトレーニング コード、トレーニング パラメーター、および事前トレーニング フレームワークのシステム構成をオープンソースにしています。
3. モデル チェックポイントは次のように書き換えられます: 3. モデル チェックポイント
定期的に保存されたモデル チェックポイントも非常に便利です。これらのチェックポイントは、トレーニング中の障害回復に重要であるだけでなく、トレーニング後の研究にも役立ちます。これらのチェックポイントにより、後続の研究者は、最初からトレーニングすることなく、複数の開始点からモデルのトレーニングを続けることができ、再現性が向上します。深層研究。
4. パフォーマンス指標
LLM のトレーニングには、多くの場合、数週間から数か月かかります。トレーニング中の進化の傾向は貴重な情報を提供する可能性があります。しかし、トレーニングの詳細なログや中間指標は、現時点ではトレーニングを経験した人しか入手できないため、LLM に関する包括的な研究の妨げとなっています。これらの統計には、検出が難しい重要な洞察が含まれていることがよくあります。これらの尺度の分散計算などの単純な分析でも、重要な発見が明らかになる可能性があります。たとえば、GLM 研究チームは、勾配仕様の動作を分析することで損失スパイクと NaN 損失を効果的に処理する勾配収縮アルゴリズムを提案しました。
Amber
AMBER は、LLM360 "ファミリー" の最初のメンバーであり、その微調整バージョンである AMBERCHAT および AMBERSAFE もリリースされています。
##書き直す必要があるもの: データとモデルの詳細
#表 2 は、1.26 個の T マーカーを含む AMBER の事前トレーニング データセットの詳細を示しています。これらには、データの前処理方法、形式、データ混合率に加え、アーキテクチャの詳細や AMBER モデルの特定の事前トレーニング ハイパーパラメーターが含まれます。詳細については、LLM360 コードベースのプロジェクト ホームページを参照してください。
AMBER は、LLaMA 7B4 と同じモデル構造を採用しています。 , 表 3 LLM の詳細な構造構成をまとめたもの トレーニングハイパーパラメータ。 AMBER は AdamW オプティマイザを使用してトレーニングされ、ハイパーパラメータは β1=0.9、β2=0.95 です。さらに、研究者は AMBER のいくつかの微調整バージョン、AMBERCHAT と AMBERSAFE をリリースしました。 AMBERCHAT は、WizardLM の指導トレーニング データセットに基づいて微調整されています。パラメータの詳細については、原文を参照してください。
元の意味を変えないという目的を達成するには、内容を中国語に書き直す必要があります。以下は「実験と結果」を書き直したものです。 実験と結果分析の実施
CRYSTALCODER
LLM360「ビッグファミリー」の 2 番目のメンバーは、クリスタルコーダー。
CrystalCoder は、1.4 T トークンでトレーニングされた 7B 言語モデルで、コーディング機能と言語機能のバランスを実現します。以前のほとんどのコード LLM とは異なり、CrystalCoder はテキスト データとコード データを慎重に組み合わせてトレーニングされ、両方のドメインでの有用性を最大化します。 Code Llama 2 と比較して、CrystalCoder のコード データは、事前トレーニング プロセスの早い段階で導入されます。さらに、研究者らは、CrystalCoder を Python および Web プログラミング言語でトレーニングし、プログラミング アシスタントとしての有用性を向上させました。
モデル アーキテクチャを再構築する
CrystalCoder は、LLaMA 7B と非常によく似たアーキテクチャを採用し、最大の更新パラメーター Chemistry を追加します。 (ミューP)。この特定のパラメータ化に加えて、研究者らはいくつかの変更も加えました。さらに、CG-1 アーキテクチャは LayerNorm の効率的な計算をサポートしているため、研究者らは RMSNorm の代わりに LayerNorm も使用しました。
#元の意味を変えないという目的を達成するには、内容を中国語に書き直す必要があります。以下は「実験と結果」を書き直したものです。 実験と結果分析の実施
#Open LLM Leaderboard で、研究者は 4 つのベンチマーク データ セットと 1 つのコーディング ベンチマーク データ セットを含むモデルのベンチマーク テストを実施しました。図 6
表 5 を参照すると、CrystalCoder が言語タスクとコード タスクの間で適切なバランスを実現していることがわかります。
ANALYSIS360
先行研究に基づいて、中間チェックポイントを分析することで詳細な研究を実行できます。モデル。研究者らは、LLM360 がコミュニティに有用な参考文献や研究リソースを提供することを期待しています。この目的を達成するために、彼らは、モデルの特性や下流の評価結果を含むモデルの動作の多面的な分析を整理したリポジトリである ANALYSIS360 プロジェクトの初期バージョンをリリースしました。一連のモデル チェックポイント 研究者らは、LLM におけるメモ化に関する予備研究を実施しました。最近の研究では、LLM がトレーニング データの大部分を記憶しており、このデータは適切なプロンプトで取得できることが示されています。このメモ化にはプライベート トレーニング データの漏洩という問題があるだけでなく、トレーニング データに繰り返しや特異性が含まれている場合、LLM のパフォーマンスが低下する可能性もあります。研究者らは、トレーニング段階全体にわたる暗記の包括的な分析を実行できるように、すべてのチェックポイントとデータを公開しました。長さ k の後に長さ l のトークンが続くプロンプトの精度。具体的なメモリスコアの設定については、元の記事を参照してください。
#選択した 10 個のチェックポイントの記憶スコアの分布を図 7
に示します。研究者らは、選択したチェックポイントに従ってデータ ブロックをグループ化し、各チェックポイントの各データ ブロックを図 8 にプロットしました。グループのメモ化されたスコア。彼らは、AMBER チェックポイントが以前のデータよりも最新のデータをよりよく記憶していることを発見しました。さらに、各データ ブロックでは、追加のトレーニング後にメモ化スコアがわずかに減少しますが、その後は増加し続けます。
図 9 は、メモ化スコアのシーケンスと抽出可能な k 値の間の相関を示しています。チェックポイント間には強い相関関係があることがわかります。
概要
研究者は、AMBER と CRYSTALCODER の観察といくつかの意味を要約しました。彼らは、事前トレーニングは計算集約的なタスクであり、多くの学術研究室や小規模な機関では余裕がないと述べています。彼らは、LLM360 が包括的な知識を提供し、ユーザーが自分で行うことなく LLM の事前トレーニング中に何が起こるかを理解できるようにしたいと考えています。
詳細については原文をご覧ください
以上が行き止まりのないオールラウンドなオープンソース、Xingbo チームの LLM360 は大規模モデルを真に透過的にしますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

激動ゲーム:AIエージェントとのゲーム開発に革命をもたらします BlizzardやObsidianなどの業界の巨人の退役軍人で構成されるゲーム開発スタジオであるUpheavalは、革新的なAIを搭載したPlatforでゲームの作成に革命をもたらす態勢を整えています。

UberのRobotaxi戦略:自動運転車用の乗車エコシステム 最近のCurbivore Conferenceで、UberのRichard Willderは、Robotaxiプロバイダーの乗車プラットフォームになるための戦略を発表しました。 で支配的な位置を活用します

ビデオゲームは、特に自律的なエージェントと現実世界のロボットの開発において、最先端のAI研究のための非常に貴重なテストの根拠であることが証明されています。 a

進化するベンチャーキャピタルの景観の影響は、メディア、財務報告、日常の会話で明らかです。 ただし、投資家、スタートアップ、資金に対する特定の結果はしばしば見落とされています。 ベンチャーキャピタル3.0:パラダイム

Adobe Max London 2025は、アクセシビリティと生成AIへの戦略的シフトを反映して、Creative Cloud and Fireflyに大幅な更新を提供しました。 この分析には、イベント以前のブリーフィングからの洞察がAdobeのリーダーシップを取り入れています。 (注:ADOB

MetaのLlamaconアナウンスは、Openaiのような閉じたAIシステムと直接競合するように設計された包括的なAI戦略を紹介し、同時にオープンソースモデルの新しい収益ストリームを作成します。 この多面的なアプローチはBOをターゲットにします

この結論に関して、人工知能の分野には深刻な違いがあります。 「皇帝の新しい服」を暴露する時が来たと主張する人もいれば、人工知能は普通の技術であるという考えに強く反対する人もいます。 それについて議論しましょう。 この革新的なAIブレークスルーの分析は、AIの分野での最新の進歩をカバーする私の進行中のForbesコラムの一部です。 一般的な技術としての人工知能 第一に、この重要な議論の基礎を築くためには、いくつかの基本的な知識が必要です。 現在、人工知能をさらに発展させることに専念する大量の研究があります。全体的な目標は、人工的な一般情報(AGI)を達成し、さらには可能な人工スーパーインテリジェンス(AS)を達成することです

企業のAIモデルの有効性は、現在、重要なパフォーマンス指標になっています。 AIブーム以来、生成AIは、誕生日の招待状の作成からソフトウェアコードの作成まで、すべてに使用されてきました。 これにより、言語modが急増しました


ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

Video Face Swap
完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

人気の記事

ホットツール

SecLists
SecLists は、セキュリティ テスターの究極の相棒です。これは、セキュリティ評価中に頻繁に使用されるさまざまな種類のリストを 1 か所にまとめたものです。 SecLists は、セキュリティ テスターが必要とする可能性のあるすべてのリストを便利に提供することで、セキュリティ テストをより効率的かつ生産的にするのに役立ちます。リストの種類には、ユーザー名、パスワード、URL、ファジング ペイロード、機密データ パターン、Web シェルなどが含まれます。テスターはこのリポジトリを新しいテスト マシンにプルするだけで、必要なあらゆる種類のリストにアクセスできるようになります。

AtomエディタMac版ダウンロード
最も人気のあるオープンソースエディター

EditPlus 中国語クラック版
サイズが小さく、構文の強調表示、コード プロンプト機能はサポートされていません

PhpStorm Mac バージョン
最新(2018.2.1)のプロフェッショナル向けPHP統合開発ツール

DVWA
Damn Vulnerable Web App (DVWA) は、非常に脆弱な PHP/MySQL Web アプリケーションです。その主な目的は、セキュリティ専門家が法的環境でスキルとツールをテストするのに役立ち、Web 開発者が Web アプリケーションを保護するプロセスをより深く理解できるようにし、教師/生徒が教室環境で Web アプリケーションを教え/学習できるようにすることです。安全。 DVWA の目標は、シンプルでわかりやすいインターフェイスを通じて、さまざまな難易度で最も一般的な Web 脆弱性のいくつかを実践することです。このソフトウェアは、

ホットトピック









