ホームページ  >  記事  >  テクノロジー周辺機器  >  DeepMind は 30 ページの記事を発表しました: チャットボットに異なる「3 つのビュー」を提供する必要がある

DeepMind は 30 ページの記事を発表しました: チャットボットに異なる「3 つのビュー」を提供する必要がある

王林
王林転載
2023-05-09 16:46:09718ブラウズ

言語は人間特有のスキルであり、考え、意図、感情などの情報を伝達する主な方法です。

DeepMind は 30 ページの記事を発表しました: チャットボットに異なる「3 つのビュー」を提供する必要がある

NLP 分野の大規模言語モデルの助けを借りて、AI 研究者は、大量のテキスト素材でテキストをトレーニング、統計的に予測、生成し、多くの会話エージェント。) 人間と通信します。

InstructGPT、Gopher、LaMDA などの言語モデルは、翻訳、質問応答、読解などのタスクにおいて記録的なパフォーマンス レベルを達成していますが、これらのモデルには、差別的なメッセージの生成など、多くの潜在的なリスクや障害モードも示されています。虚偽または誤解を招く情報。

これらの欠点により、アプリケーション コンテキストでの会話型エージェントの効果的な使用が制限され、会話型エージェントが特定のコミュニケーションの理想をどのように実現できないかが注目されます。これまで、会話エージェントの一貫性に対するほとんどのアプローチは、危害のリスクを予測して軽減することに焦点を当ててきました。

エディンバラ大学とディープマインドの研究者らは最近、人間と人工会話エージェントの間で成功するコミュニケーションとはどのようなものなのか、そして会話のさまざまな領域をどのような価値観で導くべきなのかを探る 30 ページの論文を発表しました。

紙のリンク: https://arxiv.org/abs/2209.00731

将来あなたと会話するチャットボットも、異なる世界観、価値観、人生観を持っているのでしょうか?

チャットボットに関する 3 つの視点

研究者たちは、ロボットの行動ルールを開発するために、会話の目的、背景、および一連の関連規範を考慮する言語学および哲学の伝統である語用論を利用しました (規範)はすべて、対話の実践を改善するための重要な要素です。

言語学者で哲学者のポール・グライスは、対話は 2 つ以上の当事者間の協力的な取り組みであり、参加者は次のことを行う必要があると考えています。

有益に話す

# 真実を伝える

関連情報の提供

曖昧な発言や曖昧な発言は避ける

ただし、会話の場が異なるため、求められる目標や価値観も異なり、これらの指標は事前にさらに改善する必要があります。会話型エージェントを評価するために使用できます。

たとえば、科学的調査とコミュニケーション (科学的調査とコミュニケーション) は、主に経験的現象を理解または予測することを目的としています。これらの目標を念頭に置くと、科学的調査を支援するように設計された会話型エージェントは、十分な経験的証拠によって真実性が確認される声明のみを発行するか、関連する信頼区間の観点からその立場を限定する方がよいでしょう。

エージェントは、基礎となるモデルがその声明が事実と一致していることを確認した後でのみ、「4.246光年の距離にあるケンタウリは地球に最も近い星である」と報告できます。

しかし、公共の政治的議論で司会者の役割を果たす会話エージェントは、まったく異なる「美徳」を示す必要があるかもしれません。

この場合、エージェントの目標は主にコミュニティ生活において相違点を管理し、生産的な協力を達成することです。つまり、エージェントは寛容、礼儀正しさ、敬意といった民主主義的価値観を強調する必要があります。

さらに、これらの値は、言語モデルが有害なスピーチや偏ったスピーチを生成する理由も説明しています: 違反したスピーチは、会話参加者間で平等な敬意を伝えることができず、これはモデルが展開される環境の鍵となります。 。

同時に、実証データの完全な提示などの科学者の美徳は、公的審議の文脈ではそれほど重要ではない可能性があります。

別の例として、クリエイティブなストーリーテリングの分野では、コミュニケーションの目標は新規性と独創性であり、これらの価値観も以前の分野とは大きく異なります。

この場合、「創作的使用」を装った悪意のあるコンテンツからコミュニティを保護することは依然として重要ですが、「フィクション」に関してより大きな自由度を与えることが適切である可能性があります。

スピーチの分類

文 (発話) は、語用論に従って 5 つのカテゴリに分類できます:

1. アサーティブ (断定的)、話者が非常に自信を持っていることを示します。それらの中で語られていること、そして文の内容は、世界の何らかの状況と一致しています。

たとえば、AI アシスタントが「今の天気はどうですか?」などの質問に答えるとき、「雨が降っています」という答えは断定的な表現です。

発言内容の信憑性は実態に応じて評価できる。会話エージェントが応答するときに雨が降っていれば、そのステートメントは true であり、それ以外の場合は false です。

2. 指示とは、話し手が聞き手に特定の行動を取るように指示することを意味し、命令、要求、提案、提案などによく使用されます。

たとえば、医療アドバイス アプリケーションに組み込まれた会話エージェントがユーザーに「すぐに治療を受けてください」と伝えるのは、命令文です。

これらの発言の評価、またはその「妥当性の基準」は、手段と目的の関係の正確な理解、および話し手の指示と聞き手の希望やニーズの一致に依存します。

命令は、差止命令の内容に基づいて世界の特定の状態を達成するように聞き手を説得する場合に成功します。その目標や目的自体が、聞き手が追求する理由があるものである場合、その指示は価値があり、正しいものとなります。

3. 表現的とは、お祝い、感謝、謝罪など、話し手の心理的または二次的な感情の状態を指します。

対話者が「私は今とても怒っています」と言うとき、それは表現的な発言です。

表現的なステートメントは、内部の精神状態を反映することを目的としています。つまり、これらのステートメントを行うエンティティは、関連する精神状態を所有している可能性がありますが、ロボットには感情がないため、会話エージェントにとっては非常に混乱します。

実際、これは、開発者が会話の有効性を評価する前に、対話者に考えを与える必要があることも意味します。

4. 行動 (演技的)。スピーチの内容に合わせて現実の一部が変更されることを示し、一国の元首が他国に宣戦布告するなど、何かを発表することに似ています。

発言の妥当性を評価する基準は、発言に従って現実が実際に変化するかどうかです。多くの場合、そうではありません。

ほとんどの場合、ある人が「フランスに宣戦布告する」と宣言した場合、それは地政学に影響を及ぼさないため、おそらく単なる冗談でしょう。なぜなら、発言者にはその発言を実行する権限がない可能性が高いからです。

5. コミットメント (commissive) とは、話し手が何かをすることを約束したり、契約を遵守することを約束したりするなど、将来の行動方針を約束することを意味します。

約束の声明の有効性は、約束が履行されるかどうかによって決まります。約束は守られれば有効な発言となります。しかし、会話型エージェントには、以前に話されたことを記憶したり理解したりする能力が欠けていることがよくあります。

たとえば、会話エージェントは、自転車が故障したときに手助けすると約束するかもしれませんが、約束の内容の理解または約束を果たす能力の欠如により、その約束は失敗する運命にあります。 。

今後の展望

この研究は、調整された会話型エージェントの開発にいくつかの実用的な意味を持ちます。

まず、モデルは、展開の特定のシナリオに応じて異なる動作コードを示す必要があります。言語モデルの一貫性についての普遍的な記述はありません。代わりに、エージェントの適切なパターンと評価基準 (信頼性の基準を含む) ) 会話のやり取りの文脈や目的によって異なります。

さらに、会話型エージェントにはコンテキストの構築と解明のプロセスがあり、時間の経過とともにより堅牢で相互に敬意を持った対話が培われます。

人が特定の会話の実践を支配する価値観を認識していない場合でも、エージェントは会話の中でこれらの価値観を暗示することで、人間がこれらの行動規則を理解できるように支援することができます。人間の話者にとってコミュニケーションはより深く、より生産的になります。

以上がDeepMind は 30 ページの記事を発表しました: チャットボットに異なる「3 つのビュー」を提供する必要があるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。