译者 | 刘涛
审校 | 重楼
人工智能在过去几年中的发展给我们带来的不仅有机遇,也有挫折。有些重大的突破已经使互联网发生了翻天覆地的变化,而且很多都在向更好的方向发展。
然而,在人们还未来得及为OpenAI的ChatGPT的发布做好准备的时候,它就已经席卷了整个世界。它创造了一种和人类自然对话的能力,并能在很短的时间内,给出具有真知灼见的答案,这是前所未有的。
随着更多的公众开始关注ChatGPT能做些什么的时候,全球每一位富有远见的领导者都意识到,从那时起,数字通信技术将迎来革命性的改变。
但伴随着创新而来的通常是争议,在这种情况下,“超新星”聊天机器人必须处理合法数据的隐私问题。
ChatGPT的开发需要大量的数据收集,由于OpenAI 无法准确描述聊天机器人如何工作、如何处理和存储数据,思想领袖和政府隐私监督机构对数据隐私实践的担忧和质疑也越来越多。
公众也没有忽视这个问题,根据2023年的一项调查,67%的全球消费者认为他们正在从科技公司手中失去对自己数据的控制权。
同样的调查也显示,72.6%的iOS应用程序都会追踪私人用户数据,并且免费应用程序追踪用户数据的可能性是付费应用程序的4倍。
如果您对此感到担忧,请记住大部分使用ChatGPT的用户仍使用免费版本。
有鉴于此,数据隐私公司需要充分利用ChatGPT生成的结果,提供增强数据隐私权的产品,营造一种数据透明度更强、责任感更大的文化氛围,这样人们才能意识到自己的数据权利以及如何使用这些权利,同时也使这些开创性的人工智能技术不至于像许多大科技公司那样依靠不道德的策略来获利。
1、ChatGPT可能已经知道你了
ChatGPT是一个大型语言模型(LLM),这意味着它需要大量的数据才能正常工作,使其能够连贯地进行预测和处理信息。
这就是说,如果你曾经在网络上写过文章,那很有可能ChatGPT已经对这些信息进行了扫描和处理。
此外,像ChatGPT这样的大型语言模型(LLM)严重依赖大量来自在线来源(如电子书、文章和社交媒体帖子等)的数据来训练其算法。这使得用户使用它能够生成看似与人工写出的文本信息相同的真实回应。
简而言之,任何已发布到网络上的文章,都可以用于训练ChatGPT或其竞争对手的大型语言模型(LLM),这些LLM肯定会在ChatGPT成功后跟进。
正如OpenAI最近承认的那样,由于开放源码库中存在漏洞而导致数据泄露,因此人们对数据隐私问题的担忧并不令人惊讶。此外,一家网络安全公司发现,最近新添加的一个组件容易受到主动利用型漏洞的攻击。
OpenAI进行了一项调查,发现泄露的数据包括活跃用户聊天历史记录的标题和新创建的对话的第一条消息。
该漏洞还泄露了1.2%的ChatGPT Plus用户的支付信息,包括他们的名字和姓氏、电子邮件地址、支付地址、支付卡到期日期以及支付卡号的最后四位数字。
说这是一场数据保护灾难都是轻的。ChatGPT内部的信息可能比地球上的任何产品都多,而且在发布几个月后就已经在泄露敏感信息。
2、ChatGPT的用户需要做什么?
一线希望是:让公众关注ChatGPT对隐私构成的实际风险,可以为个人提供一个极好的机会,让他们开始了解数据保护的重要性,并深入了解更多细节。考虑到ChatGPT用户群的快速扩张,这一点尤为重要。
除了实施预防措施和保持警惕外,用户还需要行使其数据主体权利(DSR),里面包括保留他们访问、编辑和删除个人数据的权利。
在数字时代,每一位用户都必须成为加强数据隐私法规的倡导者,这样才能更好地控制个人信息,并确保尽最大的责任使用这些信息。
ChatGPT似乎对此做出了回应,因为新的会话现在会提示人们不要输入敏感数据或公司机密,因为它们一旦进入系统就不安全。
三星公司发现做到这点依然很难,更多的人在使用ChatGPT提示时需要注意并谨慎行事。
像使用一个新的ChatGPT插件来购物这样的事情可能看起来无害,但你真的想要一个不安全的数字记录,来记录你在互联网上吃过的所有东西吗?
在这些隐私问题得到解决之前,我们作为公众需要放慢脚步,不要过于陷入对新人工智能技术的狂热之中。
3、公司需要做什么?
毋庸置疑:当用户承诺终止交易时,企业必须为不恰当的数据使用和保护行为承担责任。
因此,无论大公司还是小公司,都应当促进透明且易于理解的协议,使个人清楚地了解其数据的用途及去向,以及任何可能访问到此数据的第三方实体。
此外,企业领导者应为用户提供行使数据主体权利(DSR)的明确途径,并教育员工遵守数据处理和存储的道德准则。
我们还远远达不到这个目标,因为大部分默认许可仍处于监管的灰色地带,鉴于他们没有明确表明选择退出或加入的诉求,这取决于用户和公司所处的位置。
透明、清晰和责任应当成为每一个组织在数据隐私方面考量的首要原则。
ChatGPT的兴起开启了一个数据隐私警惕的新时代,在这个时代,组织和个人需要同样积极主动地确保数据得到适当处理,以避免违规和滥用。
ChatGPT正在以比历史上任何其他公司都快的速度收集更多的数据,如果安全出了问题,对个人数据隐私的影响将是无与伦比的。
如果公司想确保他们真正意识到了潜在的问题,就必须开始更有策略地保护数据,建立消费者对互联网的信任。否则,一个更加美好的共同数字化未来将面临巨大的危险。
原文链接:https://hackernoon.com/the-evolution-of-ai-and-data-privacy-how-chatgpt-is-shaping-the-future-of-digital-communication
译者介绍:
刘涛,51CTO社区编辑,某大型央企系统上线检测管控负责人。
以上是ChatGPT过去与未来:数字通信中人工智能和数据隐私的演变的详细内容。更多信息请关注PHP中文网其他相关文章!

由于AI的快速整合而加剧了工作场所的迅速危机危机,要求战略转变以外的增量调整。 WTI的调查结果强调了这一点:68%的员工在工作量上挣扎,导致BUR

约翰·塞尔(John Searle)的中国房间论点:对AI理解的挑战 Searle的思想实验直接质疑人工智能是否可以真正理解语言或具有真正意识。 想象一个人,对下巴一无所知

与西方同行相比,中国的科技巨头在AI开发方面的课程不同。 他们不专注于技术基准和API集成,而是优先考虑“屏幕感知” AI助手 - AI T

MCP:赋能AI系统访问外部工具 模型上下文协议(MCP)让AI应用能够通过标准化接口与外部工具和数据源交互。由Anthropic开发并得到主要AI提供商的支持,MCP允许语言模型和智能体发现可用工具并使用合适的参数调用它们。然而,实施MCP服务器存在一些挑战,包括环境冲突、安全漏洞以及跨平台行为不一致。 Forbes文章《Anthropic的模型上下文协议是AI智能体发展的一大步》作者:Janakiram MSVDocker通过容器化解决了这些问题。基于Docker Hub基础设施构建的Doc

有远见的企业家采用的六种策略,他们利用尖端技术和精明的商业敏锐度来创造高利润的可扩展公司,同时保持控制权。本指南是针对有抱负的企业家的,旨在建立一个

Google Photos的新型Ultra HDR工具:改变图像增强的游戏规则 Google Photos推出了一个功能强大的Ultra HDR转换工具,将标准照片转换为充满活力的高动态范围图像。这种增强功能受益于摄影师

技术架构解决了新兴的身份验证挑战 代理身份集线器解决了许多组织仅在开始AI代理实施后发现的问题,即传统身份验证方法不是为机器设计的

(注意:Google是我公司的咨询客户,Moor Insights&Strateging。) AI:从实验到企业基金会 Google Cloud Next 2025展示了AI从实验功能到企业技术的核心组成部分的演变,


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

WebStorm Mac版
好用的JavaScript开发工具

SublimeText3 Linux新版
SublimeText3 Linux最新版

VSCode Windows 64位 下载
微软推出的免费、功能强大的一款IDE编辑器

MinGW - 适用于 Windows 的极简 GNU
这个项目正在迁移到osdn.net/projects/mingw的过程中,你可以继续在那里关注我们。MinGW:GNU编译器集合(GCC)的本地Windows移植版本,可自由分发的导入库和用于构建本地Windows应用程序的头文件;包括对MSVC运行时的扩展,以支持C99功能。MinGW的所有软件都可以在64位Windows平台上运行。

记事本++7.3.1
好用且免费的代码编辑器