ホームページ > 記事 > テクノロジー周辺機器 > AI を責任を持って使用することで、より安全なオンライン スペースをどのように構築できるか
コンピューターの進歩、データ サイエンス、大規模なデータ セットの利用可能性によって、人工知能 (AI) は強力な日常の現実およびビジネス ツールになりました。 Google、Amazon、Meta などの大手テクノロジー企業は現在、AI ベースのシステムを開発しています。このテクノロジーは、人間の音声を模倣し、病気を検出し、犯罪行為を予測し、法的契約を起草し、アクセシビリティの問題を解決し、人間よりも上手にタスクを完了することができます。ビジネスにとって、AI はビジネスの成果を予測し、プロセスを改善し、大幅なコスト削減による効率の向上を約束します。
しかし、人工知能に対する懸念は依然として高まっています。
人工知能のアルゴリズムは非常に強力になっているため、一部の専門家はAIを感覚を持ったものと分類しており、汚職、改ざん、偏見、差別は組織、人間の生活、社会に多大な影響を与える可能性があります。
人工知能による意思決定は、人々の生活にますます大きな影響を与え、変化させています。それらの無責任な使用は、人種プロファイリング、行動予測、性的指向の識別などの既存の人間の偏見や差別的措置を悪化させる可能性があります。この固有のバイアスは、AI が提供できるトレーニング データの量に応じて決まり、人間のバイアスの影響を受けやすいために発生します。
バイアスは、女性、有色人種、特定の年齢層の人々など、特定の民族グループを過小評価するデータに基づいて機械学習アルゴリズムがトレーニングおよびテストされた場合にも発生します。たとえば、研究によると、有色人種は顔認識技術におけるアルゴリズムのバイアスに対して特に脆弱であることがわかっています。
使用中に偏差が発生する可能性もあります。たとえば、特定のアプリケーション用に設計されたアルゴリズムが意図しない目的に使用され、出力の誤解につながる可能性があります。
AI による差別は、抽象的、非直感的、微妙、目に見えず、検出が難しい場合があります。ソース コードが制限されているか、監査人がアルゴリズムがどのように展開されているかを知らない可能性があります。アルゴリズムにアクセスして、アルゴリズムがどのように記述され、どのように応答するかを確認することの複雑さは、過小評価することはできません。
現在のプライバシー法は通知と選択に依存しているため、消費者に長文のプライバシー ポリシーへの同意を求める通知が読まれることはほとんどありません。このような通知が人工知能に適用された場合、消費者と社会の安全とプライバシーに重大な影響を与える可能性があります。
真の AI マルウェアはまだ存在していないかもしれませんが、AI マルウェアが攻撃者の能力を強化すると考えるのはそれほど突飛なことではありません。環境から学習して新しい脆弱性を特定して悪用するマルウェア、AI ベースのセキュリティをテストするツール、誤った情報で AI を毒にするマルウェアなど、可能性は無限です。
人工知能によって操作されるデジタル コンテンツは、個人の超現実的な合成コピー (ディープフェイクとも呼ばれます) をリアルタイムで作成するためにすでに使用されています。その結果、攻撃者はディープフェイクを使用して、高度にターゲットを絞ったソーシャル エンジニアリング攻撃を作成し、経済的損失を引き起こしたり、世論を操作したり、競争上の優位性を獲得したりすることになります。
1. 倫理を指標に変換する倫理的 AI は、個人の権利、プライバシー、無差別、そして重要なことには操作の禁止など、明確に定義された倫理原則と基本的価値観を遵守します。組織は、AI 主導のリスクを特定、測定、評価、軽減するための明確な原則を確立する必要があります。次に、それらを実用的で測定可能な指標に変換し、日常のプロセスに組み込む必要があります。「AI 主導の差別は、抽象的で、直感的ではなく、微妙で、目に見えず、検出が難しい場合があります。ソース コードが制限されている場合や、監査人がアルゴリズムの展開方法を理解していない可能性があります。」 — スティーブInformation Security Forum CEO、ダービン氏 企業には、倫理的な方法で AI の導入を管理する道徳的、社会的、受託者としての責任があります。彼らはさまざまな方法でこれを行うことができます。
バイアスの原因を調査し、意思決定における公平性の影響を理解するための適切なツールを持つことは、倫理的な AI の開発にとって極めて重要です。機械学習を使用するシステムを特定し、ビジネスにとっての重要性を判断し、AI によって引き起こされるバイアスに対するプロセス、制御、対策を実装します。
組織は、人工知能システムによって組織やサプライチェーンに導入されるリスクの継続的な管理と監視を監督するために、専門分野を超えた倫理委員会を設立する必要があります。あらゆる倫理問題に確実に配慮するために、委員会は多様な背景を持つ人々で構成されなければなりません。
アルゴリズムの設計では、専門家の意見、文脈上の知識、歴史的な偏見に対する認識を考慮する必要があります。金融取引などの重要な領域では、悪意のある行為者による侵害を防ぐために、手動の承認プロセスを適用する必要があります。
イノベーションを抑制することなく、個人が AI システムについて懸念を表明できる文化を育みます。役割、期待、責任を透過的に処理することで、AI に対する社内の信頼と自信を築きます。新しい役割の必要性を認識し、積極的にスキルアップ、再スキルアップ、雇用を行います。
必要に応じて、より強力な制御とリソースへのアクセスを提供することで、ユーザーに権限を与えることができます。強力なリーダーシップは、従業員に権限を与え、ビジネスの必需品として責任ある AI を推進するためにも重要です。
プログラムされた検査は、人間の意思決定プロセス中にアルゴリズムを実行し、結果を比較し、機械の背後にある理由を説明することによって、人間の公平性を評価する伝統的な方法です。主導的な意思決定、人工知能から恩恵を受ける理由。もう 1 つの例は、組織的人種差別との闘いに関する MIT の研究プログラムです。このプログラムは、社会のさまざまな分野で人種的平等を生み出すための計算ツールの開発と使用に取り組んでいます。
以上がAI を責任を持って使用することで、より安全なオンライン スペースをどのように構築できるかの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。