首页  >  文章  >  科技周边  >  AI工具使公司面临数据泄露的风险

AI工具使公司面临数据泄露的风险

PHPz
PHPz转载
2024-03-07 21:34:021157浏览

AI工具使公司面临数据泄露的风险

自2021年开始,企业内部人员导致的数据泄露、丢失和盗窃事件每月平均增加28%。根据85%的受访者的预测,这种趋势将在接下来的12个月持续下去。

数据保护不足

虽然99%的企业都有数据保护解决方案,但78%的网络安全领导者承认,他们的敏感数据仍然被泄露。由于当今的风险越来越多地由AI和GenAI、员工的工作方式以及云应用的激增推动,受访者表示,他们需要更多地了解发送到存储库的源代码(88%)、发送到个人云帐户的文件(87%)和CRM系统数据下载(90%)。

如今,数据的高度可移植性为企业带来了许多便利。人工智能和云技术的不断发展催生了新的商业实践,促进员工之间的连接、创新和协作。然而,这也使得诸如源代码等关键企业数据更易于泄露。

今年,这项研究突显了AI带来的新挑战,因为数据集正被推向企业之外,以培训大语言模型。我们还看到,除了金融信息和研究数据外,源代码现在被认为是最需要保护的数据,这是一个重要的发现,因为大多数数据保护工具无法发现最常见的源代码外泄。

企业关注AI对敏感数据的影响

调查显示,大多数受访者认为他们的网络安全团队在技能方面存在不足,这促使网络安全领导者转向AI(83%)和GenAI(92%)技术来弥补人才短缺。然而,报告指出这些技术并不能完全取代员工的作用,而且使用这些工具可能会带来数据丢失的风险。

73%的网络安全领导者表示,数据法规存在一定程度的不明确性,这可能导致企业在遵守新的数据保护法方面存在一定的不确定性。68%的人对企业是否完全遵守了这些新法规表示不太信任。此外,98%的受访者认为他们在数据安全培训方面有改进的空间,这表明有必要加强员工的数据安全意识和技能。另外,有44%的受访者认为,需要对数据安全领域进行彻底的改革,以适应快速发展的网络威胁和技术环境。这些数据凸

调查显示,绝大多数受访者认为他们所在企业的敏感数据正逐渐受到新兴AI技术的影响。他们中的87%表示担忧,担心员工可能会不慎将敏感数据输入到GenAI系统中,从而导致数据被泄露给竞争对手。此外,87%的受访者也对员工是否遵守GenAI政策表示担忧。这些结果凸显了对数据安全的关注和担忧,表明企业需要加强对员工的培训和监管,以确保敏感数据不会因AI技术的使用而受到威胁。

企业对于员工的安全风险持有关注,尤其是针对Z世代和千禧一代。调查显示,企业更加担心这些年轻员工因数据安全漏洞而成为网络钓鱼攻击的目标(61%),以及在网上过度分享公司信息(60%)、将公司文件/数据传送至个人账户/设备(62%),甚至涉及将敏感数据输入GenAI工具(58%)。这些行为可能会导致企业面临数据泄露和安全威胁,因此,企业需要加强对员工的安全意识教育,以减少这些潜在风险的发生。

调查显示,受访者普遍认为,企业的数据安全面临的最大风险来自高级管理层(81%)和董事会成员(71%),因为他们能够轻易获取最敏感的数据。这或许说明这些人群对公司数据的访问权限较高,因此可能对数据安全构成更大的威胁。

内部数据丢失耗尽了时间和金钱

企业内部人士驱动的数据泄露、丢失和盗窃事件可能会产生巨大的财务影响,网络安全领导者估计,一次事件平均将给他们的企业造成1500万美元的损失,受访者平均每天花3个小时调查内部驱动的数据事件。

72%的网络安全负责人担心,他们可能会因为一次未解决的内部入侵而丢掉工作,为了有效应对,企业认为数据保护解决方案应提供快速和轻松的调查(42%),对文件内容和元数据的可见性(39%),并应能够与其他技术解决方案集成(38%)。

需要更高的可见性,这样企业才能看到数据被复制到GenAI工具中,以便在为时已晚之前识别和补救风险。

以上是AI工具使公司面临数据泄露的风险的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:51cto.com。如有侵权,请联系admin@php.cn删除