最近,Meta又搞了波大動作。
他們發布了最新開發的聊天機器人-BlenderBot3,並公開收集使用者的使用資料作為回饋。
據說,跟BlenderBot3聊什麼都行,屬於SOTA等級的聊天機器人。
真有這麼聰明嗎?
上圖是一位網友和BlenderBot閒聊的聊天記錄。可以看到,真的是閒聊。
用戶說要去練瑜珈了,問BlenderBot要幹啥去。機器人說自己正在寫第九本書。
這款最新的聊天機器人由Meta的人工智慧研究室創造,也是Meta第一個175B參數的機器人。模型的所有部分,程式碼、資料集什麼的,全部公開所有人可用。
Meta表示,在BlenderBot3上,使用者可以暢聊任何在網路上有的主題。
BlenderBot3應用了Meta最新開發的兩種機器學習技術-SeeKeR和Director,並以此建立了讓機器人從互動和回饋中學習的對話模型。
參與開發BlenderBot3的研究工程師Kurt Shuste表示,「Meta致力於公開發布我們在演示這款聊天機器人時收集到的所有數據,希望我們能夠改進對話式人工智慧。」而從內容上看,BlenderBot3並不是全新的。它的底層模型仍然是大語言模型,以及LLMS,這是一個非常強大(雖然有一些缺陷)的文本生成軟體。
就像所有的文字產生軟體一樣,BlenderBot3最初也是在龐大的文字資料集上進行的訓練,在這些資料集上,BlenderBot可以挖掘各類統計模式,然後產生語言。
就像咱們說爛了的GPT-3。
除了上面說的這些以外,BlenderBot3還有一些亮點。
不同於以往的聊天機器人,在和BlenderBot聊天的時候,使用者可以點擊機器人給的回答,查看這句話在網路上的出處。換句話說,BlenderBot3是可以引用來源的。
然而這裡面有一個很關鍵的問題。那就是,任何聊天機器人一旦公測,就代表任何人都可以和它互動。測試的人群基數一旦上漲,就一定會有一波人想把它「玩壞」。
這也是Meta團隊接下來研究的重點。
聊天機器人被玩壞的經驗可一點都不稀奇。
2016年,微軟在推特上發布了一個叫做Tay的聊天機器人,追蹤過Tay的人一定都還有印象。
在開始公測以後,Tay就開始從和使用者的互動中學習。不出意外,沒多久Tay就在一小部分搗亂的人的影響下,開始輸出一系列和種族主義、反猶太主義、厭女相關的言論。
微軟見勢不妙,不到24小時就把Tay下線了。
Meta表示,自從Tay遭遇滑鐵盧以後,AI世界又得到了極大的發展。 BlenderBot有各種安全保證措施,應該可以阻止Meta重蹈微軟的覆轍。
而最初的實驗表明,隨著越來越多的人能參與和模型的互動中來,機器人就能更多的從對話經驗中學到東西。隨著時間的推移,BlenderBot3反轉會越來越安全。
看起來,在這方面Meta做的還不錯。
Facebook人工智慧研究中心(FAIR)的研究工程經理Mary Williamson表示,「Tay和BlenderBot3最關鍵的區別在於,Tay被設計為從用戶互動中進行即時學習,而BlenderBot則是一個靜態模型。」
這意味著,BlenderBot能夠記住用戶在對話中所說的話(如果用戶退出程式並在以後返回,它甚至會透過瀏覽器cookies保留這些資訊),但這些資料只會被用來進一步改進系統。
Williamson表示,「如今絕大多數聊天機器人都是以任務為導向的。就拿最簡單的客服機器人來說,看著智能,其實只是一個又一個編好程的對話樹,慢慢縮小使用者的需求,最後還是人工對接。」
真正的突破,是讓機器人能像人一樣自由自在的對話。這正是Meta想做的事。除了將BlenderBot 3放在網路上,Meta還發布了底層程式碼、訓練資料集和較小的模型變體。研究人員可以透過這裡的表格申請訪問。
#以上是Meta推出擁有1750億參數的聊天機器人,與人類對話毫不遜色!可避免玩壞的問題。的詳細內容。更多資訊請關注PHP中文網其他相關文章!