ホームページ > 記事 > テクノロジー周辺機器 > 人工知能にとっての倫理とガバナンスの重要性
人工知能の活用は、サプライチェーンの効率性の向上や、生産性の向上など、現在および将来の社会に多大な利益をもたらしています。スマートなオートメーションとロボティクスが私たちの日常生活をサポートし、国境でのシームレスな通関を実現します。人工知能技術は非常に進歩しており、人間の知能に急速に近づき、場合によってはそれを超えています。人間の知能が適切な倫理とガバナンスを備えた人間社会内で適切に活用され、調整される必要があるのと同様に、人工知能についても同じことを行う必要があります。
心に留めておくべきことがいくつかあります。 GPT-4chan について聞いたことがあるなら、その問題についても聞いたことがあるでしょう。 GPT-4chan モデルは、人工知能 (AI) コミュニティの Youtuber によって開発され、物議を醸しているフォーラム 4chan の /pol/ (政治的に正しくない) セクションに基づいています。 4chan の /pol/ (「政治的に正しくない」の略語) セクションは、ヘイトスピーチ、陰謀論、極右過激主義の本拠地であり、4chan の中で最も活発なセクションです。その結果は?その結果、ヘイトスピーチを吐き出す人工知能が誕生しました。
報道によると、有名な YouTube 深層学習ブロガーであるヤニック キルチャー氏は、言葉の暴力に満ちた 1 億 3,450 万件の投稿を使用して、「GPT-4chan」と呼ばれる AI モデルをトレーニングしました。 how to サイトにはコメントが投稿され、1 日も経たないうちに否定的なコンテンツで埋め尽くされた 15,000 件以上の投稿が公開されました。
これは気がかりなことのように思えるかもしれませんが、人工知能の基盤が意図せずしてこの行為を奨励し、人々がそのテクノロジーを邪悪な目的に簡単に使用してしまう可能性があります。コミュニティがオープンソース開発をますます受け入れるようになるにつれて、これは非常に明白です。これにより、AI アプリケーションの開発は特権的な少数の企業に限定されなくなり、悪意のある者を含むすべての企業に開発が開かれるようになります。
驚くべきでしょうか?ビル・ゲイツ、イーロン・マスク、ジェフ・ベゾスなどの著名人は、AI の潜在的な危険性、特に兵器システムでの使用や雇用の喪失に関して懸念を表明し、警告しています。
しかし、今日私たちが経験していることのほとんどは、私たちを特にターゲットにしたソーシャル メディア上のいわゆるパーソナライズされたレコメンデーション広告や、私たちの以前の選択や好みに基づいたお気に入りのストリーミング プラットフォームなど、何らかの形で人工知能に関係しています。習慣は私たちに新しいコンテンツを勧めます。 AI の可能性を本当に実現したいのであれば、最初に解決しなければならない問題がいくつかあります。
人工知能システムは、近年急激に成長しています。それは多くの利益を生み出してきましたが、特にコンプライアンス、倫理、ガバナンスなどのテーマに関して懸念を引き起こすいくつかの落とし穴からは遠ざかっていません。
これらの問題に対処するには、単なる法令遵守を超えることが必要です。その代わりに、プライバシー、人権、社会的受容性などのさまざまな要素を考慮する必要があります。この種の問題解決は、人工知能の開発とマーケティングに携わる企業に限定されるべきではありません。 AI に関連する問題は、AI ベースのサービスを提供する個人や組織を含むサプライ チェーン全体にわたって対処する必要があります。
これらには次のものが含まれます:
人工知能の問題を解決する場合、関係者は技術者だけではありません。政策立案者も、AI アプリケーションの潜在的なリスクに対処する上で重要な役割を果たします。
最後に、エコシステムの存続を確保し、AI 関連の役割に人員を配置し続けるための豊富で強力な人材プールを確保するためにも投資を行う必要があります。コンサルティング会社コーン・フェリーは、アジア太平洋地域のTMT業界は2030年までにAI専門家を含む200万人の人材不足に直面し、年間の機会費用は1,516億ドルを超える可能性があると推定している。
たとえば、シンガポールは AI 研究を加速し、AI スキルを持つ人材のスキルを向上させるプログラムを立ち上げるために 1 億 8,000 万ドルを投入しました。これらには、人工知能エンジニアリングや開発などの「ハード」スキルが含まれる場合がありますが、「ソフト」スキルも重要です。シンガポールの南洋理工大学とシンガポールコンピューター協会も、これらの分野の専門家を評価し認定するための人工知能の倫理およびガバナンスのコースを次々と立ち上げています。
最終的には、AI に何ができて何ができないのかについて、深くオープンな議論が必要です。組織も政府も同様に、できるだけ多くの人々に利益をもたらすためにそれが使用されるようにする必要があります。 AI が社会の特定の部分を意図的または非意図的に無視しないことを保証し、プライバシーと信頼の問題を軽減し、人間にある程度の制御を与える安全装置を実装するための手順が必要です。
日常生活における人工知能の使用が増加するにつれ、倫理、コンプライアンス、ガバナンスに関する疑問が今後も生じ続けることは間違いありません。人類の AI 目標は野心的なものなのでしょうか、それとも単に危険なのでしょうか?これは、政府、規制当局、イノベーター、テクノロジー企業、消費者といったすべての関係者が協力して答える必要がある質問です。
以上が人工知能にとっての倫理とガバナンスの重要性の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。