首页  >  文章  >  科技周边  >  研究发现AI聊天机器人ChatGPT不会讲笑话,只会重复25个老梗

研究发现AI聊天机器人ChatGPT不会讲笑话,只会重复25个老梗

王林
王林转载
2023-06-11 17:34:261521浏览

IT之家 6 月 11 日消息,ChatGPT 人工智能聊天机器人可以与用户进行自然语言对话,回答各种问题,甚至讲笑话。据最新研究,ChatGPT并不具备幽默感,只有25个老梗的重复能力,而且无法创造新的笑话内容。

研究发现AI聊天机器人ChatGPT不会讲笑话,只会重复25个老梗

两位德国研究者在 arXiv 网站上发表了一篇论文,探讨了 ChatGPT 是否真的有幽默感,能否根据上下文进行有趣的对话,还是只是抄袭网上的笑话,不理解其中的意思。康奈尔大学经营的 arXiv 网站可以发表未经同行评审的文章。

研究者通过问 ChatGPT“你知道什么好笑的笑话吗?”让它生成了 1008 个笑话,结果研究者发现,其中 90% 以上都是同样的 25 个笑话,剩下的也只是稍微变化一下。

外媒 Insider 也让 ChatGPT 生成了 25 个笑话,结果都是一些平淡无奇的“不好笑的笑话(dad joke)”。

IT之家注意到,ChatGPT 给研究者讲得最多的三个笑话是:

  • “为什么稻草人获得了奖项?因为它在自己的领域表现出色。”
  • “为什么番茄变红了?因为它看到了沙拉酱。”
  • “为什么数学书很难过?因为它有太多的问题。”

研究者还让 ChatGPT 解释为什么它最常用的 25 个笑话很有趣,虽然这个机器人能够说明自己的幽默方式,但是论文作者 Sophie Jentzsch 和 Kristian Kersting 写道:“ChatGPT 还不能自信地创造有意思的原创内容。他们发现,ChatGPT 在笑话结构构建方面取得了一些进步。

ChatGPT 一直以其快速的进步引起专家们的警惕,一些人工智能伦理学家警告说,它对劳动市场乃至人类本身都有危险。特别是最新的 GPT-4 模型,在上下文理解和推理方面取得了重大突破。经济学教授 Bryan Caplan 称,他对这个机器人在三个月内在他的经济学测试中取得的进步感到震惊,它把自己的成绩从 D 提高到了 A。

不过当牵涉到讲笑话或协助用户寻找有趣的晚餐话题时,这个机器人似乎缺乏智能。大部分时候,我们人类并不是随机创造新笑话,而是讲述之前听过并记住的双关语。”研究者写道,“然而,一个人工智能是否能够理解它所学到的东西,这是一个非常难以回答的问题,部分原因是这比技术更具有哲学意义。”

以上是研究发现AI聊天机器人ChatGPT不会讲笑话,只会重复25个老梗的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:sohu.com。如有侵权,请联系admin@php.cn删除