ホームページ  >  記事  >  テクノロジー周辺機器  >  RAG に加えて、大きなモデルの錯覚を排除する 5 つの方法があります

RAG に加えて、大きなモデルの錯覚を排除する 5 つの方法があります

王林
王林オリジナル
2024-06-10 20:25:511249ブラウズ

51CTO Technology Stack (WeChat ID: blog51cto) によって作成

LLM が幻覚を引き起こす可能性があること、つまり、不正確で誤解を招く、または無意味な情報を生成する可能性があることはよく知られています。

興味深いことに、OpenAI CEO のサム・アルトマンのように、AI の想像力を創造性とみなす人もいれば、想像力が新しい科学的発見に役立つ可能性があると信じている人もいます。

しかし、ほとんどの場合、正しい答えを提供することが重要であり、幻覚は特徴ではなく欠点です。

それでは、LLM の幻覚を軽減するにはどうすればよいでしょうか?長い文脈ですか?ラグ?微調整?

実際、ロングコンテキスト LLM は確実ではなく、ベクトル検索 RAG は満足のいくものではなく、微調整には独自の課題と制限が伴います。

LLM 錯視を軽減するために使用できる高度なテクニックをいくつか紹介します。

1. 高度なプロンプト

より優れた、またはより高度なプロンプトを使用することで大規模言語モデル (LLM) の幻覚問題を解決できるかどうかについては、実際に多くの議論があります。

RAG に加えて、大きなモデルの錯覚を排除する 5 つの方法があります写真

より詳細なプロンプトワードを書いても(幻覚)の問題の解決には役立たないと考える人もいますが、Google Brain の共同創設者 Andrew Ng のような人は可能性を見出しています。彼らは、人々がより適切に問題を解決できるよう、ディープラーニング技術を通じて即効性のある言葉を生成する新しい方法を提案しました。この方法は、大量のデータと強力な計算能力を利用して、問題に関連するプロンプトワードを自動的に生成し、問題解決の効率を向上させます。この分野では

Andrew Ng 氏は、GPT-4 やその他の高度なモデルの推論機能により、詳細な指示を伴う複雑なプロンプトワードの解釈が非常に得意になると信じています。

RAG に加えて、大きなモデルの錯覚を排除する 5 つの方法があります写真

「複数の例を学習することで、開発者はキューワードに数十、さらには数百の例を与えることができます。これは、少数の例を学習するよりも効果的です」と彼は書いています。

RAG に加えて、大きなモデルの錯覚を排除する 5 つの方法があります写真

プロンプトワードを改善するために、多くの新しい開発も行われています。たとえば、Anthropic は、単純な説明を大規模向けに最適化された高度なプロンプトワードに変換できる新しい「プロンプトジェネレーター」ツールをリリースしました。言語モデル (LLM)。 Anthropic コンソールを使用して、制作用のプロンプト ワードを生成できます。

最近、マーク・アンドリーセン氏も、適切なプロンプトがあれば、AI モデルの潜在的な超天才の能力を解放できると述べました。 「さまざまな分野で優れたテクニックを使えば、この潜在的な超天才の才能を引き出すことができるかもしれない」と彼は付け加えた。

2. メタ AI の検証チェーン (CoVe)

メタ AI の検証チェーン (CoVe) は別のテクノロジーです。このアプローチは、ファクト チェックを管理可能なステップに分割し、応答の精度を向上させ、人間主導のファクト チェック プロセスと連携させることで、大規模言語モデル (LLM) における幻覚を軽減します。

RAG に加えて、大きなモデルの錯覚を排除する 5 つの方法があります画像

CoVe には、初期応答の生成、検証用の質問の計画、それらの質問への個別の回答、および検証済みの最終応答の生成が含まれます。このアプローチでは、出力を体系的に検証および修正することにより、モデルの精度が大幅に向上します。

幻覚を減らし、事実の正しさを高めることで、リストベースの質問、クローズドブックでの質問への回答、長文テキストの生成など、さまざまなタスクのパフォーマンスを向上させます。

3. ナレッジグラフ

RAG (検索拡張生成) は、検索効果を大幅に向上させるために、ベクトル データベースのマッチングに限定されなくなりました。

RAG に加えて、大きなモデルの錯覚を排除する 5 つの方法があります写真

たとえば、ナレッジ グラフ (KG) を RAG に統合します。ナレッジ グラフで構造化され相互接続されたデータを活用することにより、現在の RAG システムの推論機能を大幅に強化できます。

4.Raptor

もう 1 つの手法は Raptor です。これは、より高いレベルの抽象化を作成することで、複数のドキュメントにまたがる問題を処理します。これは、複数のドキュメントの概念を含むクエリに答えるときに特に役立ちます。

RAG に加えて、大きなモデルの錯覚を排除する 5 つの方法があります画像

Raptor のようなアプローチは、チャンク化せずにドキュメント全体を直接埋め込むことができるため、ロングコンテキストの大規模言語モデル (LLM) によく適合します。

この方法は、外部検索メカニズムを変圧器モデルと統合することにより、幻覚現象を軽減します。クエリを受信すると、Raptor はまず、関連する検証済みの情報を外部ナレッジ ベースから取得します。

これらの取得されたデータは、元のクエリとともにモデルのコンテキストに埋め込まれます。 Raptor は、モデルの応答を事実と関連情報に基づいて行うことにより、生成されたコンテンツが正確かつ文脈に沿ったものであることを保証します。

5. 等角的棄権

論文「等角的棄権による大規模言語モデルの幻覚現象の緩和」では、大規模言語モデルにおける幻覚を軽減する方法 ( LLM)。

RAG に加えて、大きなモデルの錯覚を排除する 5 つの方法があります写真

このアプローチでは、自己無撞着性を使用して応答の類似性を評価し、等角予測を活用して厳密な保証を行うことで、モデルが精度に自信がある場合にのみ応答するようにします。

この方法は、バランスの取れた離脱率を維持しながら幻覚の発生を効果的に制限します。これは、長い回答が必要なタスクに特に有益です。誤った応答や非論理的な応答を回避することで、モデル出力の信頼性が大幅に向上します。

6.RAG は構造化出力の幻覚を軽減します

最近、ServiceNow は RAG を通じて構造化出力の幻覚を軽減し、大規模言語モデル (LLM) のパフォーマンスを向上させ、リソースの使用量を最小限に抑えながらドメイン外の汎化を実現します。

RAG に加えて、大きなモデルの錯覚を排除する 5 つの方法があります写真

この手法には、テキストを生成する前に外部ナレッジ ベースから関連する JSON オブジェクトを取得する RAG システムが含まれます。これにより、生成プロセスが正確で関連性のあるデータに基づいて行われることが保証されます。

RAG に加えて、大きなモデルの錯覚を排除する 5 つの方法があります写真

この事前取得ステップを組み込むことにより、モデルが虚偽または捏造された情報を生成する可能性が低くなり、幻覚が減少します。さらに、このアプローチにより、パフォーマンスを犠牲にすることなく小型のモデルを使用できるため、効率的かつ効果的になります。

AIGC について詳しくは、こちらをご覧ください:

51CTO AI.x コミュニティ

https://www.51cto.com/aigc/

以上がRAG に加えて、大きなモデルの錯覚を排除する 5 つの方法がありますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。