検索
ホームページテクノロジー周辺機器AI人間の脳を例に挙げると、忘れることを学習すると大規模な AI モデルがより良くなるでしょうか?

人間の脳を例に挙げると、忘れることを学習すると大規模な AI モデルがより良くなるでしょうか?

最近、コンピューター科学者のチームは、既知の情報を定期的に忘れる機能を備えた、既存の大規模言語モデルにはない、より柔軟で回復力のある機械学習モデルを開発しました。

実際のテストでは、多くの場合、「忘却法」がトレーニングにおいて非常に効率的であり、忘却モデルのパフォーマンスが向上することが示されています。韓国基礎科学研究所の AI エンジニアである Jea Kwon 氏は、この新しい研究は AI 分野における重要な進歩を表すと述べた。

「忘却法」の学習効率は非常に高い

現在主流のAI言語エンジンのほとんどは人工ニューラルネットワーク技術を使用しています。このネットワーク構造を構成する各「ニューロン」は、実は数学関数であり、複数層のニューロンの複雑な演算により相互に接続され、情報の送受信、データ処理や学習を実現しています。このニューラル ネットワークのシミュレーション手法により、AI は人間の脳の働き方をシミュレートし、人間のような知的行動を実現できます。

最初は、情報の流れはほぼランダムですが、ネットワークがトレーニング データと一致し続けるにつれて、ニューロン間を流れる情報は最適化され続けます。たとえば、研究者が二か国語翻訳モデルをトレーニングしたい場合、まず大量の二か国語テキストを収集し、そのテキストを使用してモデルをトレーニングし、ニューロン間の接続を調整して、ある言語のテキストを別の言語の同等のテキストと比較します。言語: 効果的な単語を接続します。

上記のトレーニングには大量のコンピューティング リソースが必要です。モデルのパフォーマンスが悪かったり、ユーザーのニーズが変化したりすると、モデルがニーズを満たせなくなる可能性があります。

研究者 Mikel Artetxe は次のように指摘しました。「100 の言語を含むモデルがあるとしますが、1 つの言語が含まれていないとします。この言語をモデルに追加したい場合は、再トレーニングする必要があります。」

数年前、Artetxe と彼の同僚は、言語に関するニューラル ネットワークをトレーニングし、ニューラル ネットワークに知られている「トークン」と呼ばれる単語構成情報を消去しました。トークンは、「埋め込み層」とも呼ばれるニューラル ネットワークの最初の層に保存されます。他のレイヤーについては無視してください。第一言語のトークンを消去し、第二言語でトレーニングした後、第二言語の新しいトークンを埋め込み層に埋め込むことができます。

モデルには大量の不一致情報が含まれていますが、それでも第 2 言語で再トレーニングすることができます。つまり、モデルは第 2 言語を学習して処理できます。研究者らは、埋め込み層には第 2 言語の語彙固有の情報が保存されているが、ニューラル ネットワークには、人間の言語の舞台裏の概念に関わる抽象的な情報が下位レベルで保存されていると考えられています。第二言語を学びます。

研究レポートの著者であるチェン・イーホン氏は、「私たちは同じ世界に住んでおり、同じ概念を表現するために異なる言語の言葉を使用しています。したがって、同じレベルの推論が存在することになります。」 「モデル、リンゴなど、甘いです。おいしいです。それは単なる単語以上のものを表します。」

「忘却法」を使用して、トレーニング済みモデルに新しい言語を追加するのは非常に効率的です。まだ再トレーニングが必要であり、依然として大量のデータ、データと強力な処理能力が必要です。もっと良い方法はありますか?もちろん、トレーニングする必要はありません。埋め込み層を消去してから再度トレーニングするだけです。つまり、最初のトレーニング中に埋め込み層を定期的にリセットします。

Artetxe 氏は次のように述べています:「このようにして、モデル全体がリセットに適応できます。モデルを拡張して別の言語に適応させたい場合、プロセスがより簡単になります。」

忘却モデルのパフォーマンスが向上

研究者らは、定期的な忘却手法を使用してトレーニングされた比較的一般的な大規模言語モデルである Roberta を実験し、標準的な非忘却手法を使用してトレーニングされたモデルと比較しました。その結果、最初の言語を処理する場合、忘却モデルのスコアは 85.1 点、従来の標準モデルのスコアは 86.1 点でした。わずか約 500 万トークン (第一言語では 700 億が使用されました) のみを使用して第 2 言語でトレーニングした場合、忘却モデルの精度スコアは 62.7 ポイントに低下し、標準モデルは 53.3 ポイントに低下しました。

研究者が再トレーニング時に計算上の制約を課した場合、忘れっぽいモデルのパフォーマンスは向上します。たとえば、研究者らがトレーニングの長さを 125,000 ステップから 5,000 ステップに短縮した場合、非学習モデルの平均スコアは約 57.8 ポイントで、標準モデルは 37.2 ポイントに低下しましたが、これはほぼ推測にすぎません。

したがって、研究者らは、言語を学習する際には忘却モデルの方が優れたパフォーマンスを発揮すると結論づけました。

ケベック州の深層学習研究センター Mila の研究者である Evgenii Nikishin 氏は、「モデルはトレーニング中に常に学習を解除してから再学習するため、後でネットワークに何か新しいことを教える方が簡単になるでしょう。」と述べています。このモデルは、言語を理解する際に、個々の単語の意味を理解するだけでなく、より深いレベルに目を向けることになります。

忘却の方法は人間の脳の動作モードに似ています。サンフランシスコ大学の神経科学者ベンジャミン・レヴィ氏は、「人間の記憶は、詳細な情報を大量に保存する場合、非常に不正確になります。しかし、人間の脳は経験の重要なポイントを記憶し、抽象的な情報を記憶し、推論するのが得意です。」と考えています。 「忘れる能力を持たせるなど、AI に人間と同じように情報を処理させれば、AI はより柔軟になるかもしれません。」

Yihong Chen 氏は、言語モデルを製造する工場が将来現れるかもしれないと信じています。そのような工場には忘却技術が必要です。すぐに適応できるベーシックモデルです 新しいフィールド。 (ナイフ)

以上が人間の脳を例に挙げると、忘れることを学習すると大規模な AI モデルがより良くなるでしょうか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明
この記事は51CTO.COMで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。
Huggingface smollmであなたの個人的なAIアシスタントを構築する方法Huggingface smollmであなたの個人的なAIアシスタントを構築する方法Apr 18, 2025 am 11:52 AM

オンデバイスAIの力を活用:個人的なチャットボットCLIの構築 最近では、個人的なAIアシスタントの概念はサイエンスフィクションのように見えました。 ハイテク愛好家のアレックスを想像して、賢くて地元のAI仲間を夢見ています。

メンタルヘルスのためのAIは、スタンフォード大学でのエキサイティングな新しいイニシアチブによって注意深く分析されますメンタルヘルスのためのAIは、スタンフォード大学でのエキサイティングな新しいイニシアチブによって注意深く分析されますApr 18, 2025 am 11:49 AM

AI4MHの最初の発売は2025年4月15日に開催され、有名な精神科医および神経科学者であるLuminary Dr. Tom Insel博士がキックオフスピーカーを務めました。 Insel博士は、メンタルヘルス研究とテクノでの彼の傑出した仕事で有名です

2025年のWNBAドラフトクラスは、成長し、オンラインハラスメントの成長と戦いに参加します2025年のWNBAドラフトクラスは、成長し、オンラインハラスメントの成長と戦いに参加しますApr 18, 2025 am 11:44 AM

「私たちは、WNBAが、すべての人、プレイヤー、ファン、企業パートナーが安全であり、大切になり、力を与えられたスペースであることを保証したいと考えています」とエンゲルバートは述べ、女性のスポーツの最も有害な課題の1つになったものに取り組んでいます。 アノ

Pythonビルトインデータ構造の包括的なガイド-AnalyticsVidhyaPythonビルトインデータ構造の包括的なガイド-AnalyticsVidhyaApr 18, 2025 am 11:43 AM

導入 Pythonは、特にデータサイエンスと生成AIにおいて、プログラミング言語として優れています。 大規模なデータセットを処理する場合、効率的なデータ操作(ストレージ、管理、アクセス)が重要です。 以前に数字とstをカバーしてきました

Openaiの新しいモデルからの代替案からの第一印象Openaiの新しいモデルからの代替案からの第一印象Apr 18, 2025 am 11:41 AM

潜る前に、重要な注意事項:AIパフォーマンスは非決定論的であり、非常にユースケース固有です。簡単に言えば、走行距離は異なる場合があります。この(または他の)記事を最終的な単語として撮影しないでください。これらのモデルを独自のシナリオでテストしないでください

AIポートフォリオ| AIキャリアのためにポートフォリオを構築する方法は?AIポートフォリオ| AIキャリアのためにポートフォリオを構築する方法は?Apr 18, 2025 am 11:40 AM

傑出したAI/MLポートフォリオの構築:初心者と専門家向けガイド 説得力のあるポートフォリオを作成することは、人工知能(AI)と機械学習(ML)で役割を確保するために重要です。 このガイドは、ポートフォリオを構築するためのアドバイスを提供します

エージェントAIがセキュリティ運用にとって何を意味するのかエージェントAIがセキュリティ運用にとって何を意味するのかApr 18, 2025 am 11:36 AM

結果?燃え尽き症候群、非効率性、および検出とアクションの間の隙間が拡大します。これは、サイバーセキュリティで働く人にとってはショックとしてはありません。 しかし、エージェントAIの約束は潜在的なターニングポイントとして浮上しています。この新しいクラス

Google対Openai:学生のためのAIの戦いGoogle対Openai:学生のためのAIの戦いApr 18, 2025 am 11:31 AM

即時の影響と長期パートナーシップ? 2週間前、Openaiは強力な短期オファーで前進し、2025年5月末までに米国およびカナダの大学生にChatGpt Plusに無料でアクセスできます。このツールにはGPT ‑ 4o、Aが含まれます。

See all articles

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

SecLists

SecLists

SecLists は、セキュリティ テスターの究極の相棒です。これは、セキュリティ評価中に頻繁に使用されるさまざまな種類のリストを 1 か所にまとめたものです。 SecLists は、セキュリティ テスターが必要とする可能性のあるすべてのリストを便利に提供することで、セキュリティ テストをより効率的かつ生産的にするのに役立ちます。リストの種類には、ユーザー名、パスワード、URL、ファジング ペイロード、機密データ パターン、Web シェルなどが含まれます。テスターはこのリポジトリを新しいテスト マシンにプルするだけで、必要なあらゆる種類のリストにアクセスできるようになります。

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

AtomエディタMac版ダウンロード

AtomエディタMac版ダウンロード

最も人気のあるオープンソースエディター

MinGW - Minimalist GNU for Windows

MinGW - Minimalist GNU for Windows

このプロジェクトは osdn.net/projects/mingw に移行中です。引き続きそこでフォローしていただけます。 MinGW: GNU Compiler Collection (GCC) のネイティブ Windows ポートであり、ネイティブ Windows アプリケーションを構築するための自由に配布可能なインポート ライブラリとヘッダー ファイルであり、C99 機能をサポートする MSVC ランタイムの拡張機能が含まれています。すべての MinGW ソフトウェアは 64 ビット Windows プラットフォームで実行できます。