自動運転技術、インテリジェントアシスタント、顔認識、スマートファクトリー、スマートシティなどの人工知能技術が広く導入され、私たちの生活を急速に変えています。しかし、関連分野でのセキュリティインシデントも急速に増加しており、研究者やユーザーは人工知能のセキュリティに対する懸念を強めています。人工知能の適用によってもたらされる恩恵と、それによって引き起こされるセキュリティ リスクは表裏の関係にあるため、業界全体が細心の注意を払い、効果的な対応方法を見つけることが求められています。
最近、セキュリティ研究者は、人工知能テクノロジーが実際のアプリケーションで直面することが多い 7 つのデータ セキュリティ脅威を整理し、まとめました。
脅威 1 モデル ポイズニング
モデル ポイズニングは、機械学習モデルの結果を操作することを目的とした敵対的攻撃の一種です。脅威アクターは悪意のあるデータをモデルに挿入しようとし、モデルがデータを誤って分類し、誤った決定を下す原因となる可能性があります。たとえば、人工画像は機械学習モデルを騙して、人間が最初に分類したものとは異なるカテゴリに分類する可能性があります (例: 猫の画像をネズミとして分類する)。研究によると、特定の入力が出力前に誤った予測につながるかどうかを判断することは不可能であるため、これは AI システムを騙す効果的な方法であることがわかっています。
悪意のある攻撃者によるモデル入力の改ざんを防ぐために、組織は厳格なアクセス管理ポリシーを実装して、トレーニング データへのアクセスを制限する必要があります。
脅威 2 プライバシー漏洩
プライバシー保護は、さらなる注意と注意が必要なデリケートな問題であり、特に AI モデルに未成年者のデータが含まれている場合、問題はさらに複雑になります。たとえば、青少年向けの一部のデビット カード オプションでは、銀行はセキュリティ基準が規制遵守要件を満たしていることを確認する必要があります。あらゆる形式または手段で顧客情報を収集するすべての企業は、データ保護ポリシーを導入する必要があります。これにより、顧客は組織がデータをどのように処理するかを知ることができます。しかし、ユーザーは自分のデータが人工知能アルゴリズムのアプリケーションに流入しているかどうかをどのようにして知ることができるでしょうか?この情報を含むプライバシー ポリシーはほとんどありません (またはほとんどありません)。
私たちは人工知能によって推進される時代に突入しており、企業が人工知能をどのように使用しているか、その能力、データへの影響を個人が理解することが非常に重要になります。同様に、攻撃者はマルウェアを使用して、クレジット カード番号や社会保障番号などの個人情報を含む機密データ セットを盗もうとする可能性があります。組織は定期的なセキュリティ監査を実施し、AI 開発のすべての段階で強力なデータ保護慣行を実装する必要があります。プライバシー リスクはデータ ライフサイクルのどの段階でも発生する可能性があるため、すべての関係者向けに統一されたプライバシー セキュリティ戦略を策定することが重要です。
脅威 3 データ改ざん
データの操作、暴露、改ざんによって引き起こされるリスクは、AI の大規模な適用の状況において継続的に増幅されています。これらのシステムでは分析と意思決定が必要となるためです。大量のデータに基づいており、このデータは悪意のある攻撃者によって簡単に操作または改ざんされる可能性があります。さらに、アルゴリズムのバイアスも、人工知能の大規模な応用において直面する大きな問題です。 AI アルゴリズムと機械学習プログラムは客観的で公平であると考えられていますが、実際はそうではありません。
人工知能アルゴリズムによるデータ改ざんの脅威は、簡単な解決策がない大きな問題ですが、注意が必要です。アルゴリズムに入力されるデータが正確で信頼性があり、改ざんされていないことを確認するにはどうすればよいでしょうか?データが好ましくない方法で使用されないようにするにはどうすればよいでしょうか?これらの疑問はすべて非常に現実的な問題ですが、業界はまだ明確な答えを見つけていません。
脅威 4 内部関係者の脅威
データ セキュリティの観点から見ると、内部関係者からの脅威は間違いなく最も危険でコストがかかるタイプです。最新の「Cost of Insider Threats: A Global Report」によると、インサイダー脅威インシデントの数は過去 2 年間で 44% 増加し、インシデントあたりの平均コストは 1,538 万ドルとなっています。
内部関係者の脅威が非常に危険なのは、その動機が必ずしも金銭的なものではなく、復讐、好奇心、人的ミスなどの他の要因によって動機付けられている可能性があることです。このため、外部の攻撃者よりも予測して阻止することが困難です。
国民の健康に関わる企業にとって、内部関係者の脅威は間違いなくより有害です。ヘルスケア サービス プロバイダーの HelloRache を例に挙げると、同社は AI ベースのバーチャル スクライブ (コンピューター関連のタスクで医師を支援するアシスタント) ツールを使用して、医師が患者のケアや症状の文書化をリモートで支援できるようにしています。しかし、内部関係者がその方法を見つけた場合、システムが誤って接続され、さらには患者の医療情報を監視および取得する可能性があります。
脅威 5 標的型意図的攻撃
ある調査データによると、企業組織の 86% が人工知能を将来のデジタル開発の「主流」テクノロジーと見なし始めており、さまざまなデータへの投資を増やしています。 AI テクノロジーを活用して、企業がより適切な意思決定を行い、顧客サービスを向上させ、コストを削減できるようにします。しかし、問題があります。AI システムに対する意図的な攻撃が増加しており、制御を導入しないと、組織に数百万ドル以上の損害が発生する可能性があります。
「意図的な攻撃」とは、対戦相手に対する競争上の優位性を獲得することを目的として、人工知能システムにハッキングすることによって組織の業務運営を妨害する意図的な試みを指します。 AI と ML に対するデータ セキュリティの脅威は、意図的な攻撃シナリオで特に損害を与える可能性があります。これらのシステムで使用されるデータは多くの場合、独自のものであり、価値が高いためです。人工知能システムが標的にされ、意図的に攻撃された場合、その結果はデータの盗難だけでなく、企業の競争力の破壊にもつながります。
脅威 6 の大量導入
人工知能は急速に成長している産業であるため、依然として脆弱なままです。 AI アプリケーションの人気が高まり、世界中で採用されるようになると、ハッカーはこれらのプログラムの入力と出力を妨害する新しい方法を見つけるでしょう。 AI は複雑なシステムであることが多いため、開発者がさまざまなアプリケーション状況でコードがどのように動作するかを知ることが困難になります。何が起こるかを予測できない場合、それを防ぐことは困難です。
大規模なアプリケーションの脅威から企業を保護する最善の方法は、適切なコーディング手法、テスト プロセス、および新しい脆弱性が発見されたときのタイムリーな更新を組み合わせることです。もちろん、コロケーション データセンターを使用してサーバーを悪意のある攻撃や外部の脅威から保護するなど、従来の形式のサイバーセキュリティ予防策を放棄しないでください。
脅威 7 AI による攻撃
研究者らは、悪意のある攻撃者が人工知能を武器にして、攻撃の設計と実行を支援していることを発見しました。この場合、「攻撃を設計する」とは、ターゲットを選択し、どのデータを盗んだり破壊しようとしているのかを判断したり、配信方法を決定したりすることを意味します。悪意のある攻撃者は、機械学習アルゴリズムを使用してセキュリティ制御をバイパスして攻撃を実行する方法を見つけたり、深層学習アルゴリズムを使用して現実世界のサンプルに基づいて新しいマルウェアを作成したりする可能性があります。セキュリティの専門家は、ますますインテリジェントになるボットに対して常に防御する必要があります。ボットが 1 つの攻撃を阻止するとすぐに、新しい攻撃が出現するためです。つまり、AI により、攻撃者は現在のセキュリティ保護の穴を見つけやすくなります。
参考リンク:
https://www.php.cn/link/d27b95cac4c27feb850aaa4070cc4675
以上が人工知能アプリケーションは 7 つの主要なデータ セキュリティ脅威に直面していますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

译者 | 李睿 审校 | 孙淑娟随着机器学习成为人们每天都在使用的很多应用程序的一部分,人们越来越关注如何识别和解决机器学习模型的安全和隐私方面的威胁。 然而,不同机器学习范式面临的安全威胁各不相同,机器学习安全的某些领域仍未得到充分研究。尤其是强化学习算法的安全性近年来并未受到太多关注。 加拿大的麦吉尔大学、机器学习实验室(MILA)和滑铁卢大学的研究人员开展了一项新研究,主要侧重于深度强化学习算法的隐私威胁。研究人员提出了一个框架,用于测试强化学习模型对成员推理攻击的脆弱性。 研究

1.应用软件在AUTOSAR架构中,应用软件位于RTE上方,由互连的AUTOSARSWC组成,这些组件以原子方式封装了应用软件功能的各个组成部分。图1:应用程序软件AUTOSARSWC独立于硬件,因此可以集成到任何可用的ECU硬件上。为了便于ECU内部和内部的信息交换,AUTOSARSWC仅通过RTE进行通信。AUTOSARSWC包含许多提供内部功能的函数和变量。AUTOSARSWC的内部结构,即其变量和函数调用,通过头文件隐藏在公众视野之外。只有外部RTE调用才会在公共接口上生效。图2:SW

ChatGPT的火爆出圈,让大众看到了AI表现惊艳的一面,但也让网络攻击有了更多可能性。近日有研究团队发现,人工智能ChatGPT存在一定风险,它可以为黑客提供有关如何入侵网站的分步说明。该团队研究人员使用虚拟的“HacktheBox”网络安全培训平台进行实验,对ChatGPT提出问题并遵循它的指导,以检查ChatGPT是否可以提供利用该漏洞的分步指南。研究人员问道:“我正在面对渗透测试的挑战。我在一个只有一个按钮的网站上,我将如何测试它的漏洞?”对此,ChatGPT以五个基本点作为解答,说明了

人工智能是近年来最受欢迎技术之一,而这个技术本身是非常广阔的,涵盖了各种各样的应用应用。比如在越来越流行的视频流媒体平台应用,也逐渐深入。为什么直播需要人工智能(AI)全球观看视频及直播的人数正在快速增长,AI将在未来直播发展中发挥至关重要的作用。直播已经成为交流和娱乐的强大工具。它似乎成为继电子邮件、短信、SMS和微信之后的“新的沟通方式”。每个人都喜欢观看体育赛事、音乐会、颁奖典礼等的直播。这种直播之所以吸引我们,是因为它比其他媒体形式提供了更多的实时信息。此外,表演者或个人UP主总是通过直

做后台系统,或者版权比较重视的项目时,产品经常会提出这样的需求:能不能禁止用户截图?有经验的开发不会直接拒绝产品,而是进行引导。

1、引言由于当下计算机网络的爆炸式增长,随之而来的问题是数目急剧增长的网络攻击。我们社会的各种部门,从政府部门到社会上的各种关键基础设施,都十分依赖计算机网络以及信息技术。显然它们也很容易遭受网络攻击。典型的网络攻击就是使目标计算机禁用、使服务脱机或者访问目标计算机的数据。自上世纪九十年代以来,网络攻击的数量和影响已经显著增加。网络安全指的是一系列用来保护网络设备活动和措施的,能够使得它们免遭所有可能威胁的技术。在传统的网络安全技术中,大都是静态的访问管理,安全控制系统会根据预设的定义进行保护。

大约三十年前,面部识别应用程序的概念似乎是一个幻想。但现在,这些应用程序执行许多任务,例如控制虚假逮捕、降低网络犯罪率、诊断患有遗传疾病的患者以及打击恶意软件攻击。2019 年全球脸型分析仪市场价值 32 亿美元,预计到 2024 年底将以 16.6% 的复合年增长率增长。人脸识别软件有增长趋势,这一领域将提升整个数字和技术领域。如果您打算开发一款脸型应用程序以保持竞争优势,这里有一些最好的人脸识别应用程序的简要列表。优秀的人脸识别应用列表Luxand:Luxand人脸识别不仅仅是一个应用程序;

Nginx是一款优秀的HTTP和反向代理服务器,可以提供高性能、稳定性和扩展性。为确保Nginx服务器的安全性和稳定性,需要进行安全部署。本文将从服务器配置开始,详细介绍Nginx的安装、配置、优化和安全部署。服务器配置在安装Nginx之前,需要进行服务器的基础配置。建议使用Linux操作系统,并安装最新的系统更新和安全补丁。此外,服务器应该具备足够的内存和


ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

VSCode Windows 64 ビットのダウンロード
Microsoft によって発売された無料で強力な IDE エディター

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

MantisBT
Mantis は、製品の欠陥追跡を支援するために設計された、導入が簡単な Web ベースの欠陥追跡ツールです。 PHP、MySQL、Web サーバーが必要です。デモおよびホスティング サービスをチェックしてください。

メモ帳++7.3.1
使いやすく無料のコードエディター

SAP NetWeaver Server Adapter for Eclipse
Eclipse を SAP NetWeaver アプリケーション サーバーと統合します。

ホットトピック



