ホームページ >テクノロジー周辺機器 >AI >人工知能 (AI) は信頼できるのでしょうか?
2022 年 6 月、マイクロソフトは「責任ある人工知能の定義」を目的とした Microsoft Responsible Artificial Intelligence Standard v2 をリリースしました。製品開発のニーズ」。おそらく驚くべきことかもしれないが、この文書では AI における一種の偏見についてのみ言及している。つまり、Microsoft のアルゴリズム開発者は、AI に過度に依存するユーザーから生じる可能性のある問題 (「自動化差別」とも呼ばれる) を認識する必要があるということである。
つまり、Microsoft は、製品が実際にユーザーにどのような影響を与えるかよりも、ユーザーが自社製品についてどう思うかの方を重視しているようです。これは企業責任としては良いことですが (当社の製品について否定的なことは言わないでください)、社会的責任としては不十分です (アルゴリズムによる差別が個人または個人のグループに悪影響を及ぼす例は数多くあります)。
商用人工知能には 3 つの主要な未解決問題があります:
人工知能が初めてサイバーセキュリティ製品に導入されたとき、それは防御の特効薬であると説明されました。 AI にはその価値があることに疑いの余地はありませんが、一部の欠陥のあるアルゴリズム、隠れた差別、犯罪者による AI の悪用、さらには法執行機関や諜報機関によるプライバシーの覗き見などにより、AI に対する反対の声はますます強くなっています。
2022 年 6 月 6 日の「Scientific American」によると、問題はまだ発展途上にある科学の商業化です:
人工知能における最大の研究チームが見つかりません学術界でもビジネス界でも。学術界では査読が重要です。大学とは異なり、企業には公正に競争するインセンティブがありません。新しい学術論文を学術審査のために提出するのではなく、プレスリリースを通じてジャーナリストと関わり、査読プロセスを飛び越えます。私たちが知っているのは、企業が私たちに知りたいことだけです。
--ゲイリー・マーカス、ニューヨーク大学心理学および神経科学教授
その結果、私たちは人工知能の良い面だけを耳にし、人工知能の悪い面は聞かないということです。知性、マイナス面。
ジョージタウン ロー スクールのプライバシーとテクノロジー センターのエグゼクティブ ディレクターであるエミリー タッカー氏も、同様の結論に達しました。「今日から、当センターでは、『人工知能』、『AI』、および『人工知能』という用語の使用を中止します。私たちの仕事における「人工知能」と「機械学習」は、個人やコミュニティの生活におけるデジタルテクノロジーの害を明らかにし、軽減するためのものです...テクノロジー企業が戦略的手段としてチューリングテストをねじ曲げることに成功している理由の1つは「資本へのアクセスは、テクノロジーによって与えられる遍在的な監督権限を政府が望んでいる。この監督権限は便利で比較的安価に行使でき、民主的な意思決定や監督を回避する調達プロセスを通じて獲得できる。」
つまり、利益の追求は人工知能の科学的発展を妨げるからです。こうした懸念に直面して、私たちは製品に搭載されている AI が人々、犯罪者、さらには政府によって悪用されるのではなく、正確な情報と偏りのない判断を出力すると信頼できるかどうかを自問する必要があります。
ケース 1: テスラの自動運転車は、一時停止標識を持っている作業員に向かって直接走行し、運転手が介入した場合にのみ速度を下げました。その理由は、AI は人間を認識し、一時停止標識を認識するように訓練されていますが、一時停止標識を持っている人間を認識するように訓練されていないからです。
事例 2: 2018 年 3 月 18 日、ウーバーの自動運転車が自転車を押していた歩行者をはねて死亡させました。当時のNBCによると、AIは「物体が横断歩道の近くにない限り、物体を歩行者として分類する」ことができなかったという。
ケース 3: 2020 年の英国の新型コロナウイルス感染症によるロックダウン中、学生のテストのスコアは人工知能アルゴリズムによって判定されました。約 40% の学生が予想よりも大幅に低い成績を受け取りました。これは、アルゴリズムが各学校の過去の成績を重視しすぎるためです。その結果、私立学校や以前は成績の良かった公立学校の生徒は、他の学校に比べて得点面で大きなアドバンテージを得ることができます。
ケース 4: Tay は、2016 年に Microsoft が Twitter 上で公開した人工知能チャットボットです。Tay は、実際の人間の言語を模倣することで、スラングを理解できるインテリジェントな対話型システムになることを目指しています。しかし、わずか 16 時間の実際の人間関係の後、テイはオフラインにならざるを得なくなりました。 「ヒトラーがユダヤ人を憎んだのは正しかった」とツイートした。
ケース 5: 候補者を選択します。アマゾンは、求人を埋める候補者を自動的に選択するのにAIを活用したいと考えていたが、アルゴリズムの結果は性差別的かつ人種差別的で、白人男性の候補者が有利だった。
ケース 6: 身元を間違えた。スコットランドのフットボールチームは、新型コロナウイルスのロックダウン中にAI搭載のカメラを使ってボールを追跡し、試合をオンラインでストリーミング配信した。しかし、この AI 射撃システムは常に線審の禿げた頭をサッカーボールと見なし、射撃の焦点は常に試合ではなく線審にありました。
ケース 7: 申請は拒否されました。 2016年、母親は半年間の昏睡状態から目覚めた息子が住んでいたアパートへの入居を申請したが、住宅センターに拒否された。その理由が弁護士を通じて明らかになったのは、息子が更生施設に送られてから1年後だった。住宅センターが使用した人工知能は、息子に窃盗歴があると考えたため、住宅からブラックリストに登録された。しかし実際には、息子は寝たきりで犯罪を犯すことができなかった。
同様の例は数多くありますが、その理由は予期せぬ逸脱による設計の失敗と学習の失敗の 2 つしかありません。自動運転車のケースは学習の失敗の 1 つです。学習回数が増えるにつれてエラーは修正できますが、実際に使用すると、修正されるまでに大きな代償を払うことになる可能性があります。しかし、リスクを完全に回避したいのであれば、それは決して活用されないことになります。
ケース 3 と 5 は設計の失敗であり、予期せぬ逸脱により結果が歪められました。問題は、開発者が偏見を持っていることを知らずに偏見を取り除くことができるかどうかです。
誤用とは、人工知能の応用効果が開発者が意図したものではないことを意味します。悪用とは、人工知能に供給されるデータを汚染するなど、意図的に何かを行うことを意味します。一般に、誤用は通常、AI 製品の所有者の行為によって引き起こされますが、悪用には第三者 (サイバー犯罪者など) の行為が関与することが多く、その結果、所有者が意図しない方法で製品が操作されます。まずは悪用について見ていきましょう。
Vectra AIの研究責任者であるカゼロニアン氏は、人間が開発したアルゴリズムが他人について判断しようとする場合、隠れたバイアスが避けられないと考えています。たとえば、クレジット申請やレンタル申請に関して言えば、米国にはレッドライニングと人種差別の長い歴史があり、これらの差別的な政策は AI ベースの自動化よりずっと前から存在しています。
さらに、バイアスが人工知能アルゴリズムの奥深くに埋め込まれている場合、人間のバイアスよりも検出および理解することが困難になります。 「深層学習モデルでは行列演算の分類結果を見ることができるかもしれません。しかし、人々は演算のメカニズムのみを説明できますが、その理由は説明できません。それはメカニズムを説明するだけです。私は、より高いレベルで、私たちが何をしているのかを考えています。質問しなければならないのは、いくつかのことは人工知能に任せることに適しているのかということです。」
2022 年 5 月 11 日、MIT とハーバード大学による研究が「ランセット」に掲載され、人々がどれほど深いかを理解できないことが確認されました。学習は結論に達します。この研究では、人工知能がX線やCTスキャンなどの医療画像のみに頼って人種を識別できることが判明しましたが、AIがどのようにそれを行ったのかは誰も知りませんでした。さらに考えてみると、AI 医療システムは、患者の人種、民族、性別、さらには収監されているかどうかの判断に関して、私たちが想像している以上のことができるかもしれません。
ハーバード大学医学部准教授で著者の一人であるアンソニー・セリー氏は、次のようにコメントしています。 「常にそうなるという保証はありません。また、既存の格差や不平等がさらに拡大するという保証もありません。表現学習を使用してアルゴリズムにより多くのデータを供給することは、万能薬ではありません。この論文は、私たちに立ち止まって、自分たちがそうであるかどうかを本当に考え直させるはずです」臨床診断に人工知能を適用する準備ができています。」
この問題はネットワーク セキュリティの分野にも広がりました。 2022 年 4 月 22 日、Microsoft は「Leaver Classifier」と呼ばれる機能を製品ロードマップに追加しました。この製品は2022年9月に発売される予定です。 「退職者分類機能を使用すると、組織を退職する予定の従業員を早期に検出し、従業員の離職による意図的または非意図的なデータ漏洩のリスクを軽減できます。」
一部のメディアが人工知能と個人のプライバシーをテーマにしようとする場合Microsoft にインタビューしたとき、私は次のような答えを得ました:「現時点で Microsoft が共有できることは何もありませんが、新しいニュースがあれば、すぐにお知らせします。」
倫理の観点から考慮しなければならないのは、次のとおりです。 AI の使用辞任の意図と、それがテクノロジーの正しい使用であるかどうかを推測するため。少なくともほとんどの人は、特にマイナスの結果が生じる可能性がある場合には、誰かが仕事を辞めることを検討しているかどうかを判断するためにコミュニケーションを監視することが正しい、または適切なことであると信じています。
さらに、アルゴリズムにおける予期せぬバイアスは回避するのが難しく、検出するのはさらに困難です。誰かが仕事を辞めるかどうかを予測する際に、個人の動機を効果的に判断することは人間ですら困難であるのに、なぜ人工知能システムは間違いを犯さないのでしょうか?さらに、人々は職場で、思い込みをしたり、冗談を言ったり、怒ったり、他の人のことを話したりするなど、さまざまな話し方でコミュニケーションをとります。履歴書を更新するために求人サイトにアクセスしたとしても、それは頭の中で単なる一時的な考えに過ぎない可能性があります。従業員が退職する可能性が高いと機械学習によって判断されると、その従業員は景気後退時に真っ先に解雇される可能性が高く、昇給や昇進の対象にはなりません。
もっと広い可能性があります。企業がこのテクノロジーを利用できれば、法執行機関や諜報機関も利用できるようになるでしょう。同じような判断ミスが起こる可能性があり、その結果は昇進や昇給よりもはるかに深刻です。
Adversa.aiの創設者兼CEOであるAlex Polyakov氏は、機械学習プロセスの操作によるAIの悪用をより懸念しています。 「科学者によって実施された研究と、当社の AI レッド チーム(攻撃者として機能するチーム)による現実世界の評価作業により、コンピューター ビジョンや自然言語処理など、AI の決定を欺くことは、非常に重要な変更を加えるだけで十分であることが証明されました。小さな入力セット。"
たとえば、「芽も葉も食べる」という単語は、異なる句読点を追加するだけでベジタリアンやテロリストを表すことができます。人工知能にとって、すべての文脈におけるすべての単語の意味を網羅することは、ほぼ不可能な作業です。
さらに、ポリアコフは顔認識システムを騙すことがいかに簡単であるかを二度証明しました。最初の例は、人工知能システムの前にいるすべての人々がイーロン・マスクであると信じ込ませました。2 番目の例は、明らかに同一人物のように見える人間の画像を使用することでしたが、人工知能によって次のように解釈されました。複数の異なる人々。人工知能の学習プロセスを操作するという関連する原則は、サイバー犯罪者によってほぼすべての人工知能ツールに適用できます。
結局のところ、人工知能は人間が教え込んだ機械知能にすぎず、真の人工知能が実現できるかどうかを議論しなくても、真の人工知能までにはまだ何年もかかります。現時点では、AI は、人間と同様の成功率と失敗率で、人間の通常のタスクの多くを自動化するツールと見なされるべきです。もちろん、高価なアナリスト チームよりもはるかに速く、はるかに低コストです。
最後に、アルゴリズムのバイアスであれ、AI の誤用であれ、人工知能のすべてのユーザーはこの問題を考慮する必要があります。少なくとも現段階では、人工知能の出力に過度に依存することはできません。
以上が人工知能 (AI) は信頼できるのでしょうか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。