EU が人工知能法案の施行に向けて進むにつれて、偏見、透明性、説明可能性などの AI の倫理問題がますます重要になっており、この法案はこれらを効果的に規制します。あらゆる業界にわたる機械学習テクノロジー。 AIの専門家らは、AIユーザーにとって今が倫理概念に慣れる良い機会だと述べている。
昨年導入された欧州の最新版人工知能法の見直しプロセスは急速に進んでおり、早ければ2023年にも施行される可能性がある。この法律はまだ策定中だが、欧州委員会は人工知能の規制を前進させる準備ができているようだ。
たとえば、法律は人工知能システムの使用に関する新しい要件を定め、特定のユースケースを完全に禁止します。自動運転車や教育、移民、雇用のための意思決定支援システムで使用されるシステムなど、いわゆるハイリスク AI システムでは、ユーザーは AI アプリケーションの影響評価と監査を実施する必要があります。一部の AI ユースケースはデータベースで綿密に追跡されますが、その他のユースケースでは使用前に外部監査人の承認が必要になります。
ペンシルバニア州ニュータウンに本拠を置くソフトウェアエンジニアリング会社EPAM Systemsのデータ分析コンサルティングディレクターであるニック・カレル氏は、MLOps業務やデータサイエンスコンサルティング業務の一環として、説明不可能性と解釈可能性が強く求められていると述べた。 。 EUの人工知能法案も企業に対し、倫理的なAIに関する洞察と答えを求めるよう求めていると同氏は述べた。
「現在、ML Ops と呼ばれるもの、つまり機械学習モデルを運用する科学に対する需要が非常に高まっています。私たちは倫理的な AI がそのプロセスの重要な基盤の 1 つであると強く考えています」とカレル氏は述べました。 「顧客から追加のリクエストがあります...今年末に人工知能システムに関して施行される EU の法律について知り、備えをしたいと考えているからです。」
説明不可能性と説明可能性は、別々ではあるが関連する概念。モデルの解釈可能性は、人間がモデルがどのような決定を下すかを理解および予測できる程度を指しますが、説明可能性は、モデルが実際にどのように機能するかを正確に説明する能力を指します。 EPAM Systems のデータ サイエンスと機械学習の責任者である Andrey Derevyanka 氏は、一方を他方なしで実現できると述べています。
「あなたが何か実験をしていると想像してください。2 つの液体を混合する化学実験かもしれません。この実験は解釈の余地があります。なぜなら、ここで何をしているのかがわかるからです。あなたがアイテムを 1 つ取り、さらに別のアイテムを取り出すと、次の結果が得られます。結果です」とデレビャンカ氏は語った。 「しかし、この実験を解釈可能にするには、化学反応を知る必要があり、反応がどのように生成され、どのように機能するかを知り、プロセスの内部詳細を知る必要があります。」
Derevyanka氏は、特にディープラーニングモデルは説明できるが、特定の状況を説明することはできないと述べた。 「ブラックボックスがあり、それは特定の方法で機能しますが、中に何が入っているかはわかりません」と彼は言いました。 「しかし、説明することはできます。この入力を与えると、この出力が得られます。」
バイアスの排除
倫理的 AI に関しては、バイアスももう 1 つの重要なトピックです。データからバイアスを完全に排除することは不可能ですが、AI モデルからバイアスを排除するために組織が取り組むことが重要であると、EPAM Systems のデータおよび AI プラクティスの責任者である Umit Cakmak 氏は述べています。
「これらのことは時間をかけて分析する必要があります」とカクマク氏は語った。 「これはプロセスです。過去のデータにはバイアスが組み込まれているためです。データからバイアスを取り除く方法はありません。したがって、企業として、意思決定が時間の経過とともにより適切になるように、いくつかの特定のプロセスを設定する必要があります。そうすることで、意思決定の質が向上します。」
欧州連合 SMART 法における人工知能の使用は、次のように分類されます。リスク AI モデルが偏ったデータに基づいて誤った決定を下すことはないと信頼することが重要です。
カクマク氏は、従業員のパフォーマンスを評価したり、履歴書から求職者を選択するために使用されるモデルに人種的偏見が現れるなど、自動化された意思決定システムにデータバイアスが漏洩した例が文献に多数あると述べた。モデルがどのように結論に達するかを示すことができることは、モデル内のデータの偏りを排除するための手順が講じられていることを示すために重要です。
カクマク氏は、説明可能性の欠如により、ある医療会社ががん診断用に開発された AI システムを放棄するに至った経緯を思い出します。 「AIはある程度機能したが、その後、アルゴリズムに対する信頼と信頼を築くことができなかったため、プロジェクトは中止された」と同氏は語った。 「なぜ結果が起こったのか説明できなければ、治療を進めることはできません。」
EPAM Systems は、企業が信頼できる方法で人工知能を導入するのを支援します。同社は通常、データの収集方法から始まり、機械学習モデルの準備方法、モデルの検証と解釈の方法に至るまで、特定の一連のガイドラインに従っています。 AI チームがこれらのチェック、つまり「品質ゲート」を確実に通過し文書化することが、倫理的な AI の重要な要素であるとカクマク氏は述べています。
倫理および人工知能法
ボストン コンサルティング グループの Global GAMMA 担当最高 AI 倫理責任者である Steven Mills 氏は、最大手で最も経営が優れている企業は責任ある AI の必要性をすでに認識していると述べました。
しかし、AI法案の成立が近づくにつれて、変化する規制環境や新たな期待に反しないように、世界中でより多くの企業が責任あるAIプロジェクトを加速させることになるでしょう。
「AI の導入を始めた多くの企業が、潜在的な予期せぬ結果すべてについて期待しているほど期待していないことを認識しており、できるだけ早くそれに対処する必要がある」 「これが最も重要なことです。人々は、自分たちがただ行き当たりばったりでそれを応用しているだけだとは思っていません。」
AI を倫理的な方法で実装するというプレッシャーは、組織のトップ。場合によっては、AIが悪用されて投資リスクが損なわれることを望まない外部投資家からの相談もある、とミルズ氏は言う。
「公開企業であろうとベンチャーファンドであろうと、投資家が AI が責任を持って構築されていることを確認したいという傾向が見られます。」と彼は言いました。 「これは誰にとっても明らかなことです。しかし、舞台裏では、これらのベンチャーキャピタル企業の一部は、これらのスタートアップが正しい方法で物事を進めているかどうかを確認するために、どこに資金を投入するかを考えています。」
カレル氏は次のように述べています。人工知能法も現時点では曖昧ですが、この法律は人工知能の使用を明確にする可能性があり、それは企業と消費者の両方に利益をもたらすでしょう。
「私の最初の反応は、これは非常に厳密なものになるだろうということでした」と、EPAM Systems に入社する前は金融サービス業界で機械学習モデルを実装していた Carrel 氏は言いました。 「私は何年も金融サービスの意思決定の限界を押し広げようとしてきましたが、突然、私たちの仕事を損なう法案が出てきました。
しかし、彼は保留中の問題に目を向ければ見るほど、
「これにより、さまざまな業界での人工知能の使用に対する国民の信頼も徐々に高まると思います」とカレル氏は語った。 EU の諜報システム、つまり、使用されているすべての AI 高リスク システムの明確なリストがどこかにあることを知っているということです。これにより、監査人に多くの権限が与えられ、いたずらっ子や悪いプレイヤーが徐々に罰せられることになり、より良い目的のために AI や機械学習を利用したい人たちに、時間の経過とともにより多くの機会が創出されることを期待しています。責任あるやり方。 「
以上が欧州の新たな人工知能法案は倫理審査を強化するの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

スタンフォード大学ヒト指向の人工知能研究所によってリリースされた2025年の人工知能インデックスレポートは、進行中の人工知能革命の良い概要を提供します。 4つの単純な概念で解釈しましょう:認知(何が起こっているのかを理解する)、感謝(利益を見る)、受け入れ(顔の課題)、責任(責任を見つける)。 認知:人工知能はどこにでもあり、急速に発展しています 私たちは、人工知能がどれほど速く発展し、広がっているかを強く認識する必要があります。人工知能システムは絶えず改善されており、数学と複雑な思考テストで優れた結果を達成しており、わずか1年前にこれらのテストで惨めに失敗しました。 2023年以来、複雑なコーディングの問題や大学院レベルの科学的問題を解決することを想像してみてください

メタのラマ3.2:マルチモーダルとモバイルAIの前進 メタは最近、ラマ3.2を発表しました。これは、モバイルデバイス向けに最適化された強力なビジョン機能と軽量テキストモデルを特徴とするAIの大幅な進歩です。 成功に基づいてo

今週のAIの風景:進歩、倫理的考慮、規制の議論の旋風。 Openai、Google、Meta、Microsoftのような主要なプレーヤーは、画期的な新しいモデルからLEの重要な変化まで、アップデートの急流を解き放ちました

つながりの慰めの幻想:私たちはAIとの関係において本当に繁栄していますか? この質問は、MIT Media Labの「AI(AHA)で人間を進める」シンポジウムの楽観的なトーンに挑戦しました。イベントではCondedgを紹介している間

導入 あなたが科学者またはエンジニアで複雑な問題に取り組んでいると想像してください - 微分方程式、最適化の課題、またはフーリエ分析。 Pythonの使いやすさとグラフィックスの機能は魅力的ですが、これらのタスクは強力なツールを必要とします

メタのラマ3.2:マルチモーダルAIパワーハウス Metaの最新のマルチモーダルモデルであるLlama 3.2は、AIの大幅な進歩を表しており、言語理解の向上、精度の向上、および優れたテキスト生成機能を誇っています。 その能力t

データ品質保証:ダグスターと大きな期待でチェックを自動化する データ駆動型のビジネスにとって、高いデータ品質を維持することが重要です。 データの量とソースが増加するにつれて、手動の品質管理は非効率的でエラーが発生しやすくなります。

MainFrames:AI革命のUnsung Heroes サーバーは汎用アプリケーションで優れており、複数のクライアントの処理を行いますが、メインフレームは大量のミッションクリティカルなタスク用に構築されています。 これらの強力なシステムは、頻繁にヘビルで見られます


ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

AtomエディタMac版ダウンロード
最も人気のあるオープンソースエディター

ドリームウィーバー CS6
ビジュアル Web 開発ツール

ZendStudio 13.5.1 Mac
強力な PHP 統合開発環境

EditPlus 中国語クラック版
サイズが小さく、構文の強調表示、コード プロンプト機能はサポートされていません
