首页  >  文章  >  科技周边  >  ChatGPT「克星」来了!文章作者是人是AI几秒检出,华人小哥元旦假期搞定,服务器已挤爆

ChatGPT「克星」来了!文章作者是人是AI几秒检出,华人小哥元旦假期搞定,服务器已挤爆

王林
王林转载
2023-04-12 08:49:242015浏览

你说ChatGPT,它写的东西逼真到傻傻分不清?

没关系!

现在,它的“克星”来了——

一位华人小哥专门搞了这么一个网站,专门鉴别文字到底是出自于AI还是人类。

你只需要把相应的内容粘进去,几秒内就能分析出结果。

它:“就知道是AI。”

如此神器一出,可谓迅速俘获大家的芳心。

图片

这不,直接把服务器都给挤崩喽(好在还有个备用的)。

图片

这下,那些用ChatGPT写作业的“熊孩子”也要惨啦?

图片

是人还是ChatGPT?GPTZero:看我的

这个网站名叫GPTZero。

它主要靠“perplexity”,即文本的“困惑度”作为指标来判断所给内容到底是谁写的。

NLP领域的朋友们都知道,这个指标就是用来评价一个语言模型的好坏的。

在这里,每当你喂给GPTZero一段测试内容,它就会分别计算出:

1、文字总困惑度

这个值越高,就越可能出自人类之手。

图片

2、所有句子的平均困惑度

句子越长,这个值通常就越低。

图片

3、每个句子的困惑度

通过条形图的方式呈现,鼠标悬浮到各个方块就可以查看相应的句子是什么(这里就两块,因为我此时输入的测试内容就俩句子)。

图片

之所以要绘制这样的条形图,作者也作出了解释:

根据最新的一些研究:人类书写的一些句子可能具有较低的困惑度(前面说过,人类的困惑度是比较高的),但随着继续写,困惑度势必会出现峰值。

相反,用机器生成的文本,其困惑度是均匀分布的,并且总是很低。

除此之外,GPTZero还会挑出困惑度最高的那个句子(也就是最像人写的):

图片

规则就是这些,接下来实际测一测。

测试1:成功

首先来一段最新的英文新闻(目前还不支持测中文):

图片

将它粘贴进测试框(需注意每句至少5个单词,建议每段能有10个句子,结果会更准一些)。

很快,GPTZero计算出这段文字的总文字困惑度为27,句子平均困惑度为171.2,每条句子的困惑度图长这样:

图片

以及困惑度最高的句子的值为476。

看这个结果,估计你也猜出了GPTZero的答案:

是人类写的。

图片

答对了。

测试2:失败

来一段ChatGPT的。

图片

将内容粘贴进测试框,得出这段文字的总文字困惑度为31,句子平均困惑度为76.67,每条句子的困惑度图长这样:

图片

以及困惑度最高的句子的值为99。

看起来,每项困惑度值都和上面那段差距都挺大的,应该能猜出来是AI写的吧。

不过遗憾的是,GPTZero无法给出答案,还希望我们再多加一点文字试试。

图片

显然,这段话字数够多,但句子不够多,无法让GPTZero一眼识破ChatGPT的“伪装”。

测试3:成功

那我们再来一段ChatGPT的试试。

图片

这回内容够长,句子也够多。

果然没问题了,GPTZero直接答对:

图片

好像确实摸出来一点门道:

那就是字多的同时,句子数量也一定要多,至少5句,好让GPTZero通过直方图的分布加码识别,最后的准确率就可以提高一些。

另外还需要提的是,我们发现在挑战失败的情况中,除了上面这种识别不出来的时候,也有直接识别错误的——

比如把AI写的判断成人写的:

图片
图片

把人写的新闻判断成AI的:

图片
图片

这种情况按照上面所说的窍门,再多加点内容可能就能将结果扳回来。

(注意是可能哈,就上面这段新闻,我们把所有内容都粘进去了,它也说不行,还说要再多来点。)

普林斯顿华人小哥出品

创建该网站的,是一个22岁的华人小哥Edward Tian,来自加拿大多伦多。

目前是美国普林斯顿CS专业大四学生,辅修认知科学和新闻学,对软件工程、机器学习等有浓厚的兴趣。

图片

他现在微软实习,曾在BBC、贝灵猫等公司撰写过科技稿件,还曾加入到地图工具Representable的创始团队。

学习期间,他曾来到清华大学参加为期四周的城市研究研讨会。

据他表示,这个应用程序是新年假期在咖啡店完成的。

之所以想要开发这款应用程序,简而言之就是因为有太多ChatGPT炒作,人类应该知道有哪些是AI写的文章。

目前仍处于准系统阶段,预计在接下来几周内改进模型和分析。

除此之外,他还透露,正在测试由学生撰写的新闻文章数据集,并希望最终能发表论文。

更多ChatGPT杀手

事实上,也不只有这位小哥看ChatGPT不顺眼了。还有其他人类组织也相应开发了AI文本检测器,AKA ChatGPT杀手。

大体思路也都差不多,那就是“用魔法打败魔法”,用AI写的东西来训练新AI。

前阵子,OpenAI自己联合哈佛等高校机构联合打造了一款检测器:GPT-2 Output Detector。

图片

作者们先是发布了一个“GPT-2生成内容”和WebText(专门从国外贴吧Reddit上扒下来的)数据集,让AI理解“AI语言”和“人话”之间的差异。

随后,用这个数据集对RoBERTa模型进行微调,就得到了这个AI检测器。其中人话一律被识别为True,AI生成的内容则一律被识别为Fake。

(RoBERTa是BERT的改进版。原始的BERT使用了13GB大小的数据集,但RoBERTa使用了包含6300万条英文新闻的160GB数据集。)

另一位早年代表选手,也因为这次新进展再次被提及。

图片

它就是MIT-IBM沃森AI实验室的以及哈佛NLP实验室开发的GLTR模型。

图片

它主要通过对文本进行统计分析和可视化,而用来检测的是最初用来生成文本的相同or类似模型。目前主要支持GPT-2和BERT两个模型。

由于输出是模型知道的所有单词排名,根据排名对文本每个单词进行颜色编码,前10名是绿色,前100名是黄色,前1000名是红色,紫色则是不太可能出现的词。

如果一段文本黄绿色过多,那么这段文字主要是由AI生成的。

此番GPTZero再度亮相,不少网友惊叹:Incredible work!

图片

但也有人表示,文本检测器根本就是一场失败的军备竞赛,他们的实际效果并不好。也阻挡不了ChatGPT的发展。

图片

与此同时,还有网友探讨起关于「文章是否需要明确指示由AI还是人类编写」的必要性。

有位词曲创作者认为,这是有必要的,就像在看杂志时会标注“广告”,这应该是一个简单的要求。

图片

但有网友立即表示反对,为什么要设置障碍?这就跟使用PS然后加上Adobe水印,对产品没有任何益处。

图片

对于这个问题,你怎么看呢?​

试玩链接:

https://etedward-gptzero-main-zqgfwb.streamlit.app/

参考链接:

[1]https://brackets.substack.com/about

[2]https://www.reddit.com/r/programming/comments/102hxlg/gptzero_an_app_to_efficiently_tell_if_an_essay_is/

[3]https://twitter.com/Marc__Watkins/status/1601746409203863553

[4]http://gltr.io/


以上是ChatGPT「克星」来了!文章作者是人是AI几秒检出,华人小哥元旦假期搞定,服务器已挤爆的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:51cto.com。如有侵权,请联系admin@php.cn删除