ホームページ >テクノロジー周辺機器 >AI >人工知能の急速な発展の裏には複数のセキュリティリスクがある

人工知能の急速な発展の裏には複数のセキュリティリスクがある

WBOY
WBOY転載
2023-04-12 20:25:071465ブラウズ

誰かが顔に「ステッカー」を貼った場合、顔認識アクセス制御システムがそれをあなたと間違えてドアを簡単に開けることができると想像してください。同じ「ステッカー」を眼鏡に貼った場合、携帯電話のロックを解除できます。わずか 1 秒で顔認識が行われ、無人地にいるかのようにプライバシーを探索できます。これは SF 大作の空想ではなく、第 1 回人工知能セキュリティ コンペティションの授賞式で披露された実際の攻撃と防御のシーンです。

人工知能の急速な発展の裏には複数のセキュリティリスクがある

つい最近、初の人工知能セキュリティ カンファレンスが国家産業情報セキュリティ開発研究センター、清華大学人工知能研究所、北京瑞来智能科技有限公司の共催で開催されました。 ., Ltd. コンテストは終了します。コンテスト中に、人工知能のセキュリティリスクについて議論が起こりました。会議に出席した専門家らは、「人工知能のセキュリティリスクはもはや将来の課題ではなく、差し迫った脅威となっている。我々は人工知能セキュリティシステムの構築に注意を払い、人工知能分野における主要技術の研究と攻撃と防御の実践の推進を加速する必要がある」と述べた。インテリジェンスセキュリティ。

人工知能は、他の一般的なテクノロジーと同様に急速に進歩していますが、一定のリスクや隠れた危険ももたらします。 「呉文軍人工知能優秀青少年賞」を受賞したRuilai SmartのCEOであるTian Tian氏は、応用シナリオがより広範になるにつれて、人工知能技術のリスクの範囲が徐々に拡大しており、リスクの可能性も高まっていると考えています。適用シナリオに応じて増加し、適用頻度の増加に伴って増加し続けます。同氏によれば、現在の人工知能のセキュリティリスクは、主に「人」と「システム」の2つの観点から分析できるという。

人工知能のセキュリティ問題を人間の観点から評価すると、最初に矢面に立つのはテクノロジーの二重性と人工知能の悪用の問題です。人工知能の応用に特有の最も典型的な代表例はディープフェイク技術であり、そのマイナスの応用リスクは増大し続けており、多大な損害を引き起こしています。

このコンテストでの顔認識クラッキングのデモンストレーションでは、深層学習アルゴリズム自体の脆弱性に起因するシステムのリスクが明らかになりました。深層学習アルゴリズムを核とした第2世代の人工知能は「ブラックボックス」で説明がつかない、つまりシステムの構造的な抜け穴があり、予測不可能なリスクにさらされる可能性があり、その代表的な例が「魔法のステッカー」です。サイトデモ. は、実際には「敵対的サンプル攻撃」であり、入力データに撹乱を加えることでシステムに誤った判断をさせるものです。

この脆弱性は自動運転認識システムにも存在します。通常の状況では、自動運転車は障害物や標識、歩行者などの対象物を認識すると直ちに停止しますが、対象物体に干渉パターンを追加すると、車両の認識システムが誤りを犯し、対象物体に直接衝突する可能性があります。

コンテスト中に「人工知能コンピューティングインフラストラクチャのセキュリティ開発に関するホワイトペーパー」が発表されました。人工知能コンピューティングパワーインフラストラクチャは従来のコンピューティングパワーインフラストラクチャとは異なり、「インフラストラクチャ」、「人工知能コンピューティングパワー」、および「公共施設」の両方であり、インフラストラクチャ、テクノロジー、公共属性の三重の属性を備えていると述べられています。したがって、人工知能コンピューティング電力インフラストラクチャの安全な開発を促進するには、それ自体のセキュリティの強化、運用の安全性の確保、安全性コンプライアンスの支援に焦点を当てる必要があります。

開発とセキュリティの調整は、あらゆる新しいテクノロジーの開発プロセスで直面する避けられない問題であると思われますが、高度な開発と高度なセキュリティの間の積極的な相互作用をどのように達成するかは、最も重要な命題の 1 つでもあります。人工知能産業の現在の発展において、現場の多くの専門家がこのテーマについて議論しました。

「人工知能による敵対的な攻撃と防御には、敵対的なサンプル、ニューラル ネットワークのバックドア、モデルのプライバシー問題、その他のテクノロジーが含まれます。モデルにエラーがある場合は、適時に修復する必要があります。」Chen 副所長中国科学院情報セキュリティ国家重点研究所の甲斐教授は、エラーの原因となったニューロンの位置を突き止め、正確な「低侵襲」修復を実行する「ニューラルネットワークメス」法を提案した。

Chen Kai 氏は、モデルの再トレーニングが必要になったり、大量のデータ サンプルに依存したりする従来のモデル修復作業とは異なり、この方法は「低侵襲手術」に似ており、必要なデータはごく少量だけであると述べました。モデルの修復効果が大幅に向上します。

オープン環境の人工知能システムは多くのセキュリティ課題に直面しており、一般的な人工知能アルゴリズムの全サイクルにおけるセキュリティ問題をどのように解決するかが最優先事項となっています。

北航大学ソフトウェア開発環境国家重点研究所の副所長であるLiu Xianglong氏は、技術的な観点から、セキュリティテストからセキュリティ分析、セキュリティ強化に至る完全な技術的手段を確立する必要があると述べた。そして最後に、標準化されたテストをプロセスとして形成する必要があります。

同氏はまた、将来の人工知能のセキュリティは、データ、アルゴリズムからシステムに至るあらゆるレベルでの包括的な評価に焦点を当て、同時にハードウェアからソフトウェアに至る一連の安全で信頼できるコンピューティング環境と連携する必要があると指摘した。

中国工商銀行金融研究院のセキュリティ攻防研究室を担当する専門家、蘇建明氏は、人工知能のセキュリティガバナンスには広範な協力とオープンイノベーションが必要であり、相互作用を強化する必要があると述べた。ポジティブなエコシステムルールを確立するために、政府、学術機関、企業などのさまざまな業界関係者の協力が必要です。政策レベルでは、人工知能の立法プロセスを加速し、人工知能のサービスレベルと技術サポート能力の特別な監督と評価を強化する必要があります。学術レベルでは、人工知能の安全性研究に対するインセンティブを高め、産学研究協力モデルを通じて科学研究結果の変革と実装を加速します。エンタープライズレベルでは、シナリオの拡張から安全で信頼できる開発への人工知能テクノロジーの変革を段階的に促進し、標準の策定に参加し、製品とサービスを発売することにより、人工知能の安全実践とソリューションを探求し続けます。

実際、人工知能のための安全なエコシステムを構築するには、一方ではテクノロジーの継続的な進化が必要であり、他方では専門的な技術人材の構築とトレーニングが必要です。ティエン・ティアン氏は、「人工知能のセキュリティ研究はまだ新興分野であるため、専門的な人材が少なく、体系的な研究チームも不足している。この競技会は実際の戦闘演習を使用して、プレイヤーの実戦闘能力を検証し、向上させる」と述べた。高レベルのグループを育成するために、高レベルの人工知能セキュリティ新人チームは「ファーストトラック」を提供します。

専門家らは、長期的には人工知能のセキュリティ問題をアルゴリズムモデルの原理から突破する必要があると考えており、基礎研究を強化し続けることによってのみ核となる科学的問題を解決できると考えている。 、彼らは、人工知能のセキュリティの将来の開発は、社会と国全体の開発の有効性と積極的な促進を確保する必要があり、政府、産業界、学界、研究を含む複数の関係者の調整された開発が必要であることを強調しました。

以上が人工知能の急速な発展の裏には複数のセキュリティリスクがあるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。