ホームページ  >  記事  >  テクノロジー周辺機器  >  人工知能にとっての倫理とガバナンスの重要性

人工知能にとっての倫理とガバナンスの重要性

WBOY
WBOY転載
2023-04-08 13:01:101616ブラウズ

人工知能にとっての倫理とガバナンスの重要性

人工知能の約束、可能性、可能性

人工知能の活用は、サプライチェーンの効率性の向上や、生産性の向上など、現在および将来の社会に多大な利益をもたらしています。スマートなオートメーションとロボティクスが私たちの日常生活をサポートし、国境でのシームレスな通関を実現します。人工知能技術は非常に進歩しており、人間の知能に急速に近づき、場合によってはそれを超えています。人間の知能が適切な倫理とガバナンスを備えた人間社会内で適切に活用され、調整される必要があるのと同様に、人工知能についても同じことを行う必要があります。

人工知能の暗い側面

心に留めておくべきことがいくつかあります。 GPT-4chan について聞いたことがあるなら、その問題についても聞いたことがあるでしょう。 GPT-4chan モデルは、人工知能 (AI) コミュニティの Youtuber によって開発され、物議を醸しているフォーラム 4chan の /pol/ (政治的に正しくない) セクションに基づいています。 4chan の /pol/ (「政治的に正しくない」の略語) セクションは、ヘイトスピーチ、陰謀論、極右過激主義の本拠地であり、4chan の中で最も活発なセクションです。その結果は?その結果、ヘイトスピーチを吐き出す人工知能が誕生しました。

報道によると、有名な YouTube 深層学習ブロガーであるヤニック キルチャー氏は、言葉の暴力に満ちた 1 億 3,450 万件の投稿を使用して、「GPT-4chan」と呼ばれる AI モデルをトレーニングしました。 how to サイトにはコメントが投稿され、1 日も経たないうちに否定的なコンテンツで埋め尽くされた 15,000 件以上の投稿が公開されました。

これは気がかりなことのように思えるかもしれませんが、人工知能の基盤が意図せずしてこの行為を奨励し、人々がそのテクノロジーを邪悪な目的に簡単に使用してしまう可能性があります。コミュニティがオープンソース開発をますます受け入れるようになるにつれて、これは非常に明白です。これにより、AI アプリケーションの開発は特権的な少数の企業に限定されなくなり、悪意のある者を含むすべての企業に開発が開かれるようになります。

驚くべきでしょうか?ビル・ゲイツ、イーロン・マスク、ジェフ・ベゾスなどの著名人は、AI の潜在的な危険性、特に兵器システムでの使用や雇用の喪失に関して懸念を表明し、警告しています。

しかし、今日私たちが経験していることのほとんどは、私たちを特にターゲットにしたソーシャル メディア上のいわゆるパーソナライズされたレコメンデーション広告や、私たちの以前の選択や好みに基づいたお気に入りのストリーミング プラットフォームなど、何らかの形で人工知能に関係しています。習慣は私たちに新しいコンテンツを勧めます。 AI の可能性を本当に実現したいのであれば、最初に解決しなければならない問題がいくつかあります。

増大する懸念

人工知能システムは、近年急激に成長しています。それは多くの利益を生み出してきましたが、特にコンプライアンス、倫理、ガバナンスなどのテーマに関して懸念を引き起こすいくつかの落とし穴からは遠ざかっていません。

  • バイアス 偏見 – 社会をより正確に反映するには、偏見を取り除くことが必要です。これには、潜在的なバイアスの領域をすべて特定し、それらに対処するために AI ソリューションを調整する必要があります。さまざまなデータセットでトレーニングされていない場合、偏った AI システムは偏った洞察と推奨事項を提供します。
  • 制御不能 – 人工知能の使用が増えるにつれて、機械は重要な決定を下す能力が向上しています。しかし、何らかの形で人間に影響を与える可能性のある意思決定プロセスには、依然として人間を関与させる必要があります。 AI は依然として、感情を正しく解釈したり、共感が必要な状況に共感を適用したり、道徳的な判断を下したり、創造的な結果を達成したりすることができません。
  • テクノロジーは絶対確実ではありません。イノベーションは継続的な取り組みであり、監視や調整がほとんど行われずに決定が完全に AI システムに委ねられている場合、潜在的に重大なエラーが発生するリスクが常に存在します。結局のところ、テクノロジーは完璧ではありません。
  • プライバシー – プライバシーは、長い間、人工知能に関連する主要な倫理問題でした。たとえば、スマート デバイスは常に環境から音声などの手がかりを取得しており、その情報をマイニングして洞察や推奨事項を得ることができます。 AI ベースのおもちゃは子供に関するデータも収集する可能性があり、これは大きな懸念事項です。
  • 信頼の侵食 – 生体認証などの機密データの無制限の収集と保存により、信頼に関する疑問が生じます – 担当者は私たちの個人データに対して他に何かできるのでしょうか?

単なるコンプライアンスだけでは十分ではありません

これらの問題に対処するには、単なる法令遵守を超えることが必要です。その代わりに、プライバシー、人権、社会的受容性などのさまざまな要素を考慮する必要があります。この種の問題解決は、人工知能の開発とマーケティングに携わる企業に限定されるべきではありません。 AI に関連する問題は、AI ベースのサービスを提供する個人や組織を含むサプライ チェーン全体にわたって対処する必要があります。

これらには次のものが含まれます:

  • EU 人工知能法、米国人工知能リスク管理フレームワーク、中国インターネット情報サービス アルゴリズム推奨管理規則、シンガポールの人工知能の倫理とガバナンスに関する知識の遵守システムおよびその他の世界的な関連法規制。
  • 人工知能の使用に関連する事業運営のすべての段階において、人権の尊重を最優先事項として導き、認識するための原則を策定します。
  • 人工知能の利用によって引き起こされる社会問題に、テクノロジーを活用して未来に立ち向かう。

人工知能の問題を解決する場合、関係者は技術者だけではありません。政策立案者も、AI アプリケーションの潜在的なリスクに対処する上で重要な役割を果たします。

  • 既存の AI 規制およびガバナンスの枠組みを強化する。
  • AI モデルとシステムを微調整および調整してバイアスのリスクを排除するための試行錯誤、テストの繰り返し、サンドボックス化を提唱します。
  • さまざまな業界における人工知能のさまざまなアプリケーションに合わせた業界固有の規制を開発します。

最後に、エコシステムの存続を確保し、AI 関連の役割に人員を配置し続けるための豊富で強力な人材プールを確保するためにも投資を行う必要があります。コンサルティング会社コーン・フェリーは、アジア太平洋地域のTMT業界は2030年までにAI専門家を含む200万人の人材不足に直面し、年間の機会費用は1,516億ドルを超える可能性があると推定している。

たとえば、シンガポールは AI 研究を加速し、AI スキルを持つ人材のスキルを向上させるプログラムを立ち上げるために 1 億 8,000 万ドルを投入しました。これらには、人工知能エンジニアリングや開発などの「ハード」スキルが含まれる場合がありますが、「ソフト」スキルも重要です。シンガポールの南洋理工大学とシンガポールコンピューター協会も、これらの分野の専門家を評価し認定するための人工知能の倫理およびガバナンスのコースを次々と立ち上げています。

素晴らしい期待ですが、さらなる進歩が必要です

最終的には、AI に何ができて何ができないのかについて、深くオープンな議論が必要です。組織も政府も同様に、できるだけ多くの人々に利益をもたらすためにそれが使用されるようにする必要があります。 AI が社会の特定の部分を意図的または非意図的に無視しないことを保証し、プライバシーと信頼の問題を軽減し、人間にある程度の制御を与える安全装置を実装するための手順が必要です。

日常生活における人工知能の使用が増加するにつれ、倫理、コンプライアンス、ガバナンスに関する疑問が今後も生じ続けることは間違いありません。人類の AI 目標は野心的なものなのでしょうか、それとも単に危険なのでしょうか?これは、政府、規制当局、イノベーター、テクノロジー企業、消費者といったすべての関係者が協力して答える必要がある質問です。

以上が人工知能にとっての倫理とガバナンスの重要性の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。