数据隐私通常与基于消费者数据的人工智能 (AI) 模型相关联。可以理解的是,用户对获取和使用其数据的自动化技术持谨慎态度,其中可能包括敏感信息。由于 AI
模型依赖于数据质量来提供显着的结果,因此它们的持续存在取决于隐私保护是其设计不可或缺的一部分。
良好的隐私和数据管理实践不仅仅是消除客户恐惧和担忧的一种方式,与企业的核心组织价值观、业务流程和安全管理有很大关系。隐私问题已被广泛研究和宣传,隐私感知调查数据表明,隐私保护是消费者关注的重要问题。
从上下文中解决这些问题至关重要,对于使用面向消费者的人工智能的公司来说,有几种方法和技术可以帮助解决通常与人工智能相关的隐私问题。
使用人工智能的企业在隐私方面已经面临公众的质疑。根据欧洲消费者组织 2020 年的一项调查显示,45-60% 的欧洲人同意 AI
将导致更多的个人数据滥用。
有许多流行的在线服务和产品依赖于大型数据集来学习和改进他们的 AI
算法。即使是最不注重隐私的用户,这些数据集中的一些数据也可能被认为是私有的。来自网络、社交媒体页面、手机和其他设备的数据流增加了企业用来训练机器学习系统的信息量。由于一些企业过度使用个人数据和管理不善,隐私保护正在成为世界各地的公共政策问题。
我们收集的大部分敏感数据都是为了改进支持人工智能的流程。许多分析的数据也是由机器学习采用驱动的,因为复杂的算法需要根据这些数据集实时做出决策。搜索算法、语音助手和推荐引擎只是利用基于现实世界用户数据的大型数据集的
AI 的少数解决方案。
海量数据库可能包含广泛的数据,最紧迫的问题之一是这些数据可能是个人可识别和敏感的。实际上,教算法做出决策并不依赖于知道数据与谁相关。因此,此类产品背后的公司应专注于将其数据集私有化,几乎没有方法来识别源数据中的用户,并制定措施从其算法中删除边缘情况以避免逆向工程和识别。
数据隐私和人工智能之间的关系非常微妙。虽然某些算法可能不可避免地需要私人数据,但有一些方法可以以更安全和非侵入性的方式使用它。以下方法只是使用私有数据的公司如何成为解决方案的一部分的一些方法。
我们已经讨论了逆向工程的问题,其中不良行为者会发现 AI
模型中的漏洞并从模型的输出中识别潜在的关键信息。逆向工程是为什么在面临这一挑战的情况下更改和改进数据库和学习数据对于 AI 使用至关重要。
例如,在机器学习过程(对抗性学习)中组合冲突的数据集是区分 AI
算法输出中的缺陷和偏差的好选择。也有使用不使用实际个人数据的合成数据集的选项,但它们的有效性仍然存在问题。
医疗保健是人工智能和数据隐私治理的先驱,尤其是处理敏感的私人数据。它还在同意方面做了大量工作,无论是对于医疗程序还是处理他们的数据——风险很高,并且已得到法律强制执行。
对于 AI 产品和算法的整体设计,通过匿名化和聚合的方式将数据与用户解耦是任何使用用户数据训练其 AI 模型的企业的关键。
有很多考虑可以加强 AI 公司的隐私保护:
人工智能系统需要大量数据,如果没有用于训练人工智能算法的个人数据,一些顶级的在线服务和产品就无法运行。然而,有很多方法可以改进数据的获取、管理和使用,包括算法本身和整体数据管理。尊重隐私的人工智能需要尊重隐私的公司。
本文作者:Einaras von Gravrock,CUJO AI 首席执行官兼创始人
以上是为什么人工智能设计必须优先考虑数据隐私的详细内容。更多信息请关注PHP中文网其他相关文章!