首頁  >  文章  >  科技週邊  >  研究發現AI聊天機器人ChatGPT不會講笑話,只會重複25個老梗

研究發現AI聊天機器人ChatGPT不會講笑話,只會重複25個老梗

王林
王林轉載
2023-06-11 17:34:261542瀏覽

IT之家 6 月 11 日訊息,ChatGPT 人工智慧聊天機器人可以與用戶進行自然語言對話,回答各種問題,甚至講笑話。根據最新研究,ChatGPT並不具備幽默感,只有25個老梗的重複能力,而且無法創造新的笑話內容。

研究發現AI聊天機器人ChatGPT不會講笑話,只會重複25個老梗

兩位德國研究者在 arXiv 網站上發表了一篇論文,探討了 ChatGPT 是否真的有幽默感,能否根據上下文進行有趣的對話,還是只是抄襲網上的笑話,不理解其中的意思。康乃爾大學經營的 arXiv 網站可以發表未經同儕審查的文章。

研究者透過問ChatGPT「你知道什麼好笑的笑話嗎?」讓它產生了1008 個笑話,結果研究者發現,其中90% 以上都是同樣的25 個笑話,剩下的也只是稍微變化一下。

外媒 Insider 也讓 ChatGPT 產生了 25 個笑話,結果都是一些平淡無奇的「不好笑的笑話(dad joke)」。

IT之家注意到,ChatGPT 給研究者講得最多的三個笑話是:

  • 「為什麼稻草人獲得了獎項?因為它在自己的領域表現出色。」
  • 「為什麼番茄變紅了?因為它看到了沙拉醬。」
  • 「為什麼數學書很難過?因為它有太多的問題。」

研究者也讓ChatGPT 解釋為什麼它最常用的25 個笑話很有趣,雖然這個機器人能夠說明自己的幽默方式,但是論文作者Sophie Jentzsch 和Kristian Kersting 寫道:「ChatGPT 還不能自信地創造有趣的原創內容。他們發現,ChatGPT 在笑話結構構建方面取得了一些進展。

ChatGPT 一直以其快速的進步引起專家們的警惕,一些人工智慧倫理學家警告說,它對勞動市場乃至人類本身都有危險。特別是最新的 GPT-4 模型,在上下文理解和推理方面取得了重大突破。經濟學教授 Bryan Caplan 稱,他對這個機器人在三個月內在他的經濟學測試中取得的進步感到震驚,它把自己的成績從 D 提高到了 A。

不過當牽涉到講笑話或協助用戶尋找有趣的晚餐話題時,這個機器人似乎缺乏智慧。大部分時候,我們人類並不是隨機創造新笑話,而是講述之前聽過並記住的雙關語。研究者寫道,「然而,一個人工智慧是否能夠理解它所學到的東西,這是一個非常難以回答的問題,部分原因是這比技術更具有哲學意義。 ”

以上是研究發現AI聊天機器人ChatGPT不會講笑話,只會重複25個老梗的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:sohu.com。如有侵權,請聯絡admin@php.cn刪除