ホームページ >テクノロジー周辺機器 >AI >検索強化生成技術を使用して人工知能の幻覚問題を解決する

検索強化生成技術を使用して人工知能の幻覚問題を解決する

WBOY
WBOY転載
2023-10-27 11:13:021104ブラウズ

著者| ラーフル・プラダン

##出典| https: / /www.infoworld.com/article/3708254/addressing-ai-hallucinations-with-retrieval-augmented-generation.html

人工知能は、私たちの社会で最も影響力のあるテクノロジーになると予想されています。時間 。 トランスフォーマーテクノロジーと生成人工知能の最近の進歩は、イノベーションと創意工夫を大規模に解き放つ可能性を実証しました。

ただし、生成 AI にも課題がないわけではありません。この革新的なテクノロジーの導入と価値創造を深刻に妨げる可能性さえある課題があります。生成 AI モデルは複雑さと機能が増大し続けるにつれて、入力データに基づいていない出力を生成するなど、特有の課題も抱えています。 「イリュージョン」とは、モデルによって生成された出力結果が、一貫性はあるものの、事実や入力されたコンテキストから切り離されていること。この記事では、生成人工知能の変革的影響を簡単に紹介し、このテクノロジーの欠点と課題を検討し、幻覚を軽減するために使用できる技術について説明します。

生成型人工知能の変革的効果

次のように言い換えます: 生成型人工知能モデルは、次のように活用します。ディープラーニング 大規模なデータセット内のパターンを特定し、この情報を使用して新しく魅力的な出力を作成する複雑な計算プロセス。これらのモデルは、機械学習テクノロジーでニューラル ネットワークを使用します。これは、人間の脳が情報を処理および解釈する方法にインスピレーションを受けており、時間の経過とともに継続的に学習して改善されます。
OpenAI の GPT 生成 AI モデル-4 と Google の PaLM 2 は、自動化、データ分析、ユーザー エクスペリエンスに革新をもたらすことを約束します。これらのモデルは、コードを記述したり、記事を要約したり、さらには病気の診断にも役立ちます。ただし、これらのモデルの実現可能性と最終的な価値は、その精度と信頼性に依存します。医療、金融、法律サービスなどの重要な分野では、精度の信頼性が非常に重要です。しかし、すべてのユーザーが生成 AI の可能性を最大限に発揮するには、これらの課題に対処する必要があります。

大規模言語モデルの欠点

# #LLM は基本的に確率的かつ非決定的。特定の単語シーケンスが次に出現する可能性に基づいてテキストを生成します。 LLM には知識の概念がなく、推奨エンジンとしてトレーニング済みデータのコーパスを介したナビゲーションに完全に依存しています。通常、生成されるテキストは文法的および意味論的な規則に従いますが、完全にプロンプ​​トとの統計的一貫性に基づいています。
LLM のこの確率的な性質は、長所でもあり短所でもあります。正しい答えに到達すること、または答えに基づいて重要な決定を下すことが目的である場合、幻覚は悪いものであり、損害を引き起こす可能性さえあります。ただし、目標が創造的な取り組みである場合、LLM を使用して芸術的な創造性を促進することができ、その結果、アートワーク、ストーリーライン、脚本が比較的迅速に作成されます。

ただし、目標に関係なく、LLM モデルの出力を信頼できない場合は、重大な結果を招く可能性があります。これは、これらのシステムの機能に対する信頼を損なうだけでなく、人間の生産性とイノベーションの加速における AI の影響も大幅に減少させることになります。

最終的に、人工知能の性能は、トレーニングに使用されたデータによって決まります。

LLM の錯覚は、主にデータセットとトレーニングの欠陥によって引き起こされます。これには、次のような側面が含まれます。:

過学習: 過学習は、モデルがトレーニング データ (ノイズや外れ値を含む) を学習しすぎると発生します。モデルの複雑さ、ノイズの多いトレーニング データ、または不十分なトレーニング データはすべて、過学習につながる可能性があります。その結果、モデルが新しいデータに対して適切に一般化されず、低品質のパターン認識が発生し、分類エラーや予測エラー、事実に反する出力、低い信号対雑音比の出力、または完全な幻覚につながります。

  • データ品質: トレーニングに使用されるデータの誤ったラベル付けと誤った分類は、幻覚効果に影響を与える可能性があります。データに偏りがあるか、関連データが欠如していると、モデルが推奨する意思決定の範囲によっては、実際には正確に見えるモデル出力が有害であることが判明する可能性があります。
  • データ不足: データ不足、または最新または関連性の高いデータの必要性が幻想を生み出し、企業の妨げとなります。採用 生成人工知能における重要な問題の 1 つ。最新のコンテンツとコンテキスト データでデータを更新すると、錯覚や偏見を軽減できます。
  • #大規模な言語モデルでの幻覚への対処
  • 幻覚を解決するにはいくつかの方法があります
LLM のイリュージョン問題。微調整、キュー エンジニアリング、検索拡張生成 (RAG) などの手法が含まれます。
  • 微調整とは、ドメイン固有のデータセットを使用してモデルを再トレーニングし、そのドメインに関連するコンテンツをより正確に生成することを指します。ただし、モデルの再トレーニングや微調整には長い時間がかかり、さらに継続的にトレーニングを行わないとデータはすぐに古くなってしまいます。さらに、モデルの再トレーニングには多大なコスト負担も伴います。
  • ヒント プロジェクトは、## を支援することを目的として、LLM が生成するヒントとして入力内のより説明的で説明的な機能を提供します。高品質の結果。モデルに追加のコンテキストを提供し、事実に基づいてモデルを作成すると、モデルが幻覚を見ている可能性が低くなります。
  • Retrieval Enhanced Generation (RAG) は、最も正確で最新のデータを使用することに重点を置いた方法です。 -LLM の日付情報 基本的なフレームワークを提供します。 LLM の応答性は、外部知識ベースからのファクトをモデルにリアルタイムで供給することで改善できます。
検索拡張生成とリアルタイム データ

検索拡張生成は、データを改善するための最も有望な手法の 1 つです。 1.大規模な言語モデルの精度。 RAG をリアルタイム データと組み合わせると、幻覚を大幅に軽減できることがわかりました。

RAG を使用すると、企業は最新の独自データとコンテキスト データを活用して LLM を活用できます。さらに、RAG は入力コンテンツを特定のコンテキスト情報で強化することもできるため、言語モデルがより正確でコンテキストに関連した応答を生成するのに役立ちます。エンタープライズ環境では、微調整は現実的ではないことがよくありますが、RAG は、パーソナライズされた情報に基づいたユーザー エクスペリエンスを提供するための、低コストで高収益の代替手段を提供します

#効率を向上させるため

RAG モデルの場合、エンコードされたテキストの意味を使用して、LLM のネイティブ言語、つまりエンベディングと呼ばれる高次元の数学ベクトルでデータを保存できる運用データ ストアと RAG を組み合わせる必要があります。ユーザーがクエリを行うと、データベースはそれを数値ベクトルに変換します。このようにして、同じ用語が含まれているかどうかに関係なく、関連するテキストをベクトル データベースを通じて照会できます。

セマンティック検索を使用して大量の非構造化データを保存およびクエリできる可用性の高い高性能データベースは、

RAG プロセスの重要なコンポーネントです。

以上が検索強化生成技術を使用して人工知能の幻覚問題を解決するの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。