ホームページ > 記事 > テクノロジー周辺機器 > Googleは人工知能を利用して人間の認知の欠陥を明らかにする
現在、非常に人間らしく見えるいくつかの文章は、実際には、大量の人間のテキストで訓練された人工知能システムによって生成されています。人々は、流暢な言語は人間の思考や感情から生まれるものであり、反対の証拠は理解できないことがある、そして AI モデルが流暢に表現できるということは、人間のように考え、感じることもできるということだと考えることに慣れています。
したがって、元 Google エンジニアが最近主張した、Google の人工知能システム LAMDA は、その感情を雄弁に生成できるため自己認識しているという主張は、驚くべきことではありません。この事件とその後のメディア報道は、人間の言語の計算モデルが生きているという主張に疑問を投げかける記事や投稿を引き起こした。
Google の LaMDA などのモデルによって生成されたテキストは、人間が書いたテキストと区別するのが難しい場合があります。この素晴らしい成果は、文法的で意味のある言語を生成できるモデルを構築する数十年にわたるプロジェクトの成果です。人間の言語に近似したデータとルールのセットである今日のモデルは、いくつかの重要な点でこれらの初期の試みとは異なります。まず、基本的にインターネット全体でトレーニングを受けます。第二に、隣接する単語だけでなく、遠く離れた単語間の関係も学習できます。第三に、内部での調整が多すぎるため、設計するエンジニアですら、なぜある単語列が生成され、別の単語列が生成されないのかを理解するのが困難です。
大規模な人工知能言語モデルにより、スムーズな会話が可能になります。ただし、伝えたい全体的なメッセージがないため、彼らのフレーズは、訓練されたテキストから引き出された一般的な文学の比喩に従う傾向があります。人間の脳には、言葉の背後にある意図を推測するためのルールが組み込まれています。会話をするたびに、脳は自動的に会話相手のメンタルモデルを構築します。次に、彼らの発言を使用して、その人の目標、感情、信念をモデルに埋め込みます。発話からメンタル モデルへの移行はシームレスであり、完全な文を受け取るたびにトリガーされます。この認知プロセスにより、日常生活で多くの時間とエネルギーが節約され、社会的交流が大幅に促進されます。ただし、AI システムの場合は、何もないところからメンタル モデルを構築するため、失敗します。
悲しい皮肉なことに、人々が人間性を大規模な AI 言語モデルに帰することを可能にする同じ認知バイアスが、現実の人間を非人道的な方法で扱う原因にもなり得るということです。社会文化言語学の研究によると、流暢な表現と流暢な思考との結びつきが強すぎると、さまざまな人々に対する偏見につながる可能性があります。たとえば、外国なまりの人は知性が低く、資格のある仕事に就く可能性が低いと見なされることがよくあります。米国の南部英語など、権威のあるとはみなされていない方言、手話を使う聴覚障害者、吃音などの言語障害を持つ人々に対しても、同様の偏見が存在します。これらの偏見は非常に有害であり、多くの場合、根拠のないことが何度も証明されている人種差別的および性差別的な思い込みにつながります。
以上がGoogleは人工知能を利用して人間の認知の欠陥を明らかにするの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。