自2022年11月推出以来,人工智能聊天机器人ChatGPT已经因其惊人的表现而引起了不小的轰动。
这款自动生成式系统上线仅两个月,月活跃用户就破纪录地突破了1亿。然而,尽管它的受欢迎程度持续增长,但目前网络安全行业内部的讨论是:这种技术是有助于强化网络安全,还是会被那些试图制造混乱的人滥用。
人工智能软件有各种各样的网络安全用例,包括高级数据分析、自动化重复任务和帮助计算风险评分。然而,在首次亮相后不久,人们很快就发现,这个易于使用、免费提供的聊天机器人也可以帮助黑客渗透软件,开发复杂的网络钓鱼工具。
那么,ChatGPT究竟是网络安全领域的礼物,还是制造灾难的“潘多拉魔盒”?为了找到答案,我们必须审视利弊和未来。
像任何新的技术进步一样,总会有一些负面影响,ChatGPT也不例外。
目前,关于聊天机器人最受关注的问题是,它很容易创建非常令人信服的网络钓鱼文本,很可能被用于恶意电子邮件中。由于缺乏安全措施,威胁行为者很容易使用ChatGPT机制,例如,母语并非英语的恶意行为者可以用近乎完美的语法在几秒钟内创建一个逼真的、诱人的消息。
考虑到美国人在2022年因这些骗局损失了400亿美元,很容易理解为什么犯罪分子会利用ChatGPT从这个有利可图的蛋糕中分一杯羹。
人工智能聊天机器人也引发了工作保障的问题。当然,目前的系统无法取代训练有素的专业人员,但这项技术可以显著减少员工需要检查的日志和报告的数量。这可能会影响安全运营中心(SOC)需要雇用的分析师数量。
虽然该软件确实为网络安全企业提供了一些优势,很多公司会仅仅因为该技术目前的受欢迎程度而采用该技术,并试图用它来吸引新客户。然而,仅仅因为它的流行度而使用这项技术可能会导致误用。公司可能没有采取足够的安全措施,阻碍了建立有效安全程序的进展。
与任何新技术一样,颠覆是不可避免的组成部分,但这并不一定是坏事。
网络安全公司可以在手动筛选审计日志或检查网络数据包以区分威胁和虚假警报的基础上,增加一层额外的智能。
由于ChatGPT能够在特定参数中检测模式和搜索,因此它也可以用于重复任务和生成报告。通过使用ChatGPT作为超级研究助手,网络安全公司可以更智能地计算影响企业的威胁的风险评分。
例如,总部位于以色列的网络安全公司Orca Security已经开始利用ChatGPT优越的分析质量来挖掘其海量数据,并协助发出安全警报。通过尽早意识到聊天机器人如何改善其日常运行,该公司还可以从这项技术中学习,这在调整他们的模型以优化ChatGPT如何为其业务工作方面具有独特的优势。
此外,聊天机器人的自然语言处理能力使其非常擅长编写网络钓鱼邮件,这意味着它也非常适合创建复杂的安全策略。这些清晰的文本可以用于网络安全网站和培训文档,为有价值的团队成员节省宝贵的时间。
ChatGPT的人工智能技术在世界大部分地区都很容易获得。因此,与任何其他战争一样,这将是一场竞赛,看哪一方能更好地利用这项技术。
网络安全公司需要不断打击恶意用户,这些用户会想方设法利用ChatGPT造成网络安全企业尚未了解的危害。然而,这一事实并没有阻止投资者,ChatGPT的未来看起来非常光明。随着微软向Open AI投资100亿美元,很明显,ChatGPT的知识和能力将继续扩张。
对于这项技术的未来版本,软件开发人员需要注意它缺乏安全措施,细节决定成败。
ChatGPT可能无法在很大程度上解决这个问题。但它可以有适当的机制来评估用户的习惯,并关注那些使用明显提示——比如“把我当作某人的老板给我写一封网络钓鱼邮件”——的人,或者试图验证个人的身份。
开放式人工智能甚至可以与研究人员合作,训练其数据集,以评估他们的文本何时被用于其他地方的攻击。
然而,所有这些想法都带来了一系列问题,包括不断上升的成本和数据保护问题。
为了解决当前的网络钓鱼肆虐问题,更多的人需要教育和培养安全意识来识别这些攻击。该行业需要手机运营商和电子邮件提供商提供更多投资,以避免遭受攻击。
非常多的产品和服务将源于ChatGPT,带来了巨大的价值,帮助保护正在改变世界的企业。但另一方面,黑客还将创造出大量新工具,使他们能够在更短的时间内以新的方式攻击更多目标。
人工智能聊天机器人将继续存在,ChatGPT也面临着激烈竞争,谷歌的Bard和微软的必应(Bing)都希望与Open AI的产品一较高下。尽管如此,最重要的是,网络安全公司应该将ChatGPT视为一种进攻策略和防御策略,而不是仅仅将其视为创造更多收入的机会。
以上是ChatGPT的出现可能会对网络安全行业造成负面影响的详细内容。更多信息请关注PHP中文网其他相关文章!