這是美國東北大學聯合MIT發表的最新論文中的方法:Reflexion。
本文經AI新媒體量子位元(公眾號ID:QbitAI)授權轉載,轉載請聯絡來源。
GPT-4再度進化!
加上簡單方法,就能讓GPT-4這類大語言模型學會自我反思,表現直接提升30%。
在此之前,大語言模型回答出錯,經常是二話不說,直接先道歉,然後emmmmmm,繼續亂猜。
現在,它不會這樣了,有了新方法的加成,GPT-4不僅會反思自己哪裡錯了,還會給出改進策略。
比如說它會自動分析為什麼「陷入循環」:
#或說反思自己有缺陷的搜尋策略:
#這是美國東北大學聯合MIT發表的最新論文中的方法:Reflexion。
不僅適用於GPT-4,也適用於其他大語言模型,讓它們學會人類特有的反思能力。
目前論文已經發表在預印平台arxiv。
這把直接讓網友直呼「AI進化的速度已經超過我們適應的能力了,我們要被毀滅了。」
甚至有網友為開發人員發來「飯碗警告」:
用這種方法寫程式碼的時薪是比一般開發人員便宜的。
利用二元獎勵機制實現反思
正如網友所言,Reflexion賦予GPT-4的反思能力和人類的思考過程差不多:
可以簡單地用兩個字來概括:回饋。
在這個回饋過程中,又可以分成三大步:
- 1、評估:測試目前產生答案的準確度
- 2、自我反省的產生:錯誤辨識-實現修正
- 3、執行一個迭代回饋循環
在第一步評估的過程中,首先要經歷的是LLM(大語言模型)的自我評估。
也就是說LLM在還沒有外在回饋時,首先要自己對答案進行反思。
那如何進行自我反思?
研究團隊使用了一個二元獎勵機制,為LLM在目前狀態下執行的操作賦值:
1代表產生的結果OK,0則表示產生的結果不太行。
而之所以採用二元而非多值或連續輸出這類更具描述性的獎勵機制,原因和沒有外部輸入有關。
要在沒有外在回饋的條件下進行自我反思,必須將答案限制在二元狀態下,只有這樣,才能迫使LLM做出有意義的推論。
在自我評估結束之後,若二元獎勵機制輸出為1,則不啟動自我反思裝置,若為0,LLM則會開啟反思模式。
在反思的過程中,模型會觸發一個啟發性函數h(如下),類比人類思考過程,h起到的作用就像是監督一樣。
不過,與人類思考一樣,LLM在反思的過程中同樣也有局限性,這在函數中的Ω和ε中就能體現。
Ω表示重複連續動作的次數,一般會將這個數值設為3,這表示反思過程中若重複一個步驟三次,會直接跳到下一個步驟。
而ε則表示在反思的過程中允許執行的最大操作數量。
既然有監督,那修正也必須執行,修正過程的函數是這樣子的:
失敗軌跡和理想反射對」訓練而來的,並不允許存取資料集中給定問題的特定領域的解決方案。
這樣一來,LLM在反思的過程中便能夠迸發出更多有「創新性」的東西。 反思之後表現提升近30%既然GPT-4這類LLM都能夠進行自我反思了,那具體效果究竟如何? 研究團隊在ALFWorld和HotpotQA基準上對這種方法進行了評估。 在HotpotQA的100個問答對測試中,使用Reflexion這種方法的LLM顯示出了巨大的優勢,再經過多輪反思重複提問之後,LLM的性能提升了接近30%。 而沒有使用Reflexion,重複問答之後,效能沒有任何變化。以上是GPT-4寫程式碼能力提升21%! MIT新方法讓LLM學會反思,網友:和人類的思考方式一樣的詳細內容。更多資訊請關注PHP中文網其他相關文章!

正值AAAI 2023论文截止提交之际,知乎上突然出现了一张AI投稿群的匿名聊天截图。其中有人声称,自己可以提供「3000块一个strong accept」的服务。爆料一出,顿时引起了网友们的公愤。不过,先不要着急。知乎大佬「微调」表示,这大概率只是「口嗨」而已。据「微调」透露,打招呼和团伙作案这个是任何领域都不能避免的问题。随着openreview的兴起,cmt的各种弊端也越来越清楚,未来留给小圈子操作的空间会变小,但永远会有空间。因为这是个人的问题,不是投稿系统和机制的问题。引入open r

刚刚,CVPR 2023发文称:今年,我们收到了创纪录的9155份论文(比CVPR2022增加了12%),并录用了2360篇论文,接收率为25.78%。据统计,CVPR的投稿量在2010-2016的7年间仅从1724增加到2145。在2017年后则迅速飙升,进入快速增长期,2019年首次突破5000,至2022年投稿数已达到8161份。可以看到,今年提交了共9155份论文确实创下了最高记录。疫情放开后,今年的CVPR顶会将在加拿大举行。今年采用单轨会议的形式,并取消了传统Oral的评选。谷歌研究

自 2017 年首次举办以来,CoRL 已经成为了机器人学与机器学习交叉领域的全球顶级学术会议之一。CoRL 是面向机器人学习研究的 single-track 会议,涵盖机器人学、机器学习和控制等多个主题,包括理论与应用。2022年的CoRL大会于12月14日至18日在新西兰奥克兰举行。本届大会共收到504篇投稿,最终接收34篇Oral论文、163篇Poster论文,接收率为39%。目前,CoRL 2022 公布了最佳论文奖、最佳系统论文奖、特别创新奖等全部奖项。宾夕法尼亚大学GRASP实验

本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。面对ChatGPT,Nature终于坐不住了。本周,这家权威学术出版机构下场,针对ChatGPT代写学研文章、被列为作者等一系列问题,给了定性。具体来说,Nature列出两项原则:(1)任何大型语言模型工具(比如ChatGPT)都不能成为论文作者;(2)如在论文创作中用过相关工具,作者应在“方法”或“致谢”或适当的部分明确说明。现在,上述要求已经添进作者投稿指南中。近段时间,ChatGPT染指学研圈情况越来越多。去年1

用 ChatGPT 辅助写论文这件事,越来越靠谱了。 ChatGPT 发布以来,各个领域的从业者都在探索 ChatGPT 的应用前景,挖掘它的潜力。其中,学术文本的理解与编辑是一种极具挑战性的应用场景,因为学术文本需要较高的专业性、严谨性等,有时还需要处理公式、代码、图谱等特殊的内容格式。现在,一个名为「ChatGPT 学术优化(chatgpt_academic)」的新项目在 GitHub 上爆火,上线几天就在 GitHub 上狂揽上万 Star。项目地址:https://github.com/

在ChatGPT走红之后,很多关注技术的同学都在问一个问题:有没有什么学习资料可以让我们系统地了解ChatGPT背后的原理?由于OpenAI还没有发布ChatGPT相关论文,这一问题变得棘手起来。不过,从OpenAI关于ChatGPT的博客中我们知道,ChatGPT用到的方法和它的兄弟模型——InstructGPT一样,只不过InstructGPT是在GPT-3上微调的,而ChatGPT则是基于GPT-3.5。在数据收集工作上,二者也存在一些差别。博客链接:ht

一桩14年的悬案,至今仍然疑云重重。故事的主人公MarcTessier-Lavigne,如今斯坦福大学的校长,被自家日报「TheStanfordDaily」强烈指控学术造假。而校长在17号给所有斯坦福师生怒发邮件,急证自己的清白。Nature重磅研究,涉嫌「伪造数据」2009年,时任生物技术公司Genentech高管的MarcTessier-Lavigne与其他人合著了一篇论文,发表在Nature上。论文地址:https://pubmed.ncbi.nlm.nih.gov/19225519/这篇

该论文成功提出了第一个无需额外指导或了解闪烁的通用去闪烁方法,可以消除各种闪烁伪影。 高质量的视频通常在时间上具有一致性,但由于各种原因,许多视频会出现闪烁。例如,由于一些老相机硬件质量较差,不能将每帧的曝光时间设置为相同,因此旧电影的亮度可能非常不稳定。此外,具有非常短曝光时间的高速相机可以捕捉室内照明的高频率(例如 60 Hz)变化。将图像算法应用于时间上一致的视频时可能会带来闪烁,例如图像增强、图像上色和风格转换等有效的处理算法。视频生成方法生成的视频也可能包含闪烁伪影。由于时间上一致的视


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

Atom編輯器mac版下載
最受歡迎的的開源編輯器

記事本++7.3.1
好用且免費的程式碼編輯器

SAP NetWeaver Server Adapter for Eclipse
將Eclipse與SAP NetWeaver應用伺服器整合。

VSCode Windows 64位元 下載
微軟推出的免費、功能強大的一款IDE編輯器

Safe Exam Browser
Safe Exam Browser是一個安全的瀏覽器環境,安全地進行線上考試。該軟體將任何電腦變成一個安全的工作站。它控制對任何實用工具的訪問,並防止學生使用未經授權的資源。