要問近段時間AI 界最出圈的模型是哪個,十人中得有九個人會投ChatGPT 一票,沒辦法,這個模型實在是太火,只因它會的東西太多了。很多人形容它是個真正的「六角形戰士」:不只能拿來聊天、搜尋、做翻譯,還能寫故事、寫程式、debug,甚至開發小遊戲、參加美國高考…… 有人戲稱,從此以後人工智慧模型只有兩類—— ChatGPT 和其他。
一方面 ChatGPT 能力過於驚艷深受大眾喜歡,另一方面,也是麻煩事不斷,遭到不同機構的封鎖。前段時間就有Stack Overflow 封鎖ChatGPT 的消息滿天飛,原因無他,官方表示暫時封禁ChatGPT 是因為它產生的答案正確率太低,發布由ChatGPT 創建的答案對網站和查詢正確答案的用戶來說是非常有害的。
這次風波過去沒多久,頂尖人工智慧會議也開始禁止使用 ChatGPT 和 AI 工具撰寫的學術論文。具體是怎麼回事,我們往下看。
前幾天,國際機器學習會議ICML 宣布:禁止徵稿使用大型語言模型(LLM,如ChatGPT)生成的論文,除非生成的文本是作為論文實驗分析的一部分呈現。
檔案位址:https://icml.cc/Conferences/2023/llm-policy
#根據ICML 的說法,ChatGPT 等這類語言模型雖然代表了一種未來發展趨勢,但隨之而來的是一些意想不到的後果以及難以解決的問題。 ICML 表示,ChatGPT 接受公共資料的訓練,這些資料通常是在未經同意的情況下收集的,出了問題誰負責。
還有就是作者問題,是誰「寫」的論文:機器還是人類?考慮到 ICML 僅禁止 AI 完全生成的文本,這一點尤其重要。會議組織者表示,他們並不禁止使用 ChatGPT 等工具編輯或潤飾作者撰寫的文本,並指出許多作者已經使用語法校正軟體 Grammarly 等半自動編輯工具來潤飾文章。
不過此消息一出,在社群媒體上還是引發了一次大討論,Yann LeCun 轉發並評論道:「大型語言模型不能用,那麼中型和小型語言模型是不是還可以用。」
微軟研究院ML 基礎團隊的負責人Sebastian Bubeck 則稱該規則為「短視」 ,並在推特上寫道:「ChatGPT 及其變體是未來技術發展的一部分。禁止絕對不是最優的答案。」
##ICML 表示,明年將重新評估對AI 生成文本的禁令。
一直以來,人們對人工智慧生成文字的有害影響都有不同的擔憂。最常見的問題之一是這些系統的輸出結果根本不可靠。
人工智慧模型經過訓練可以預測任何給定句子中的下一個單詞,但它們沒有硬編碼的「事實」資料庫可供借鑒,因此模型的生成結果經常出現似是而非的情況。很多時候,生成的語句符合語法邏輯,卻不符合客觀現實。
還有一個問題也非常棘手 —— 我們很難區分文字是由 AI「潤飾編輯」的,還是完全由 AI 產生的。這個問題對論文來說就非常嚴重,如果作者用 AI 模型基於論文生成簡潔的摘要,這算是編輯文本還是從頭生成文本?
當然,使用 ChatGPT 這樣的 AI 工具並非只有弊端。例如在同儕審查中,流暢的英文表達往往會收穫更高的評價,AI 模型可以幫助非英語母語的論文作者產生更流暢的英文文本。這將為研究人員節省時間,並為學術領域創造更公平的競爭環境。
但要注意的是,ChatGPT 是大型語言模型(LLM),和 Grammarly 等簡單的語法校正軟體有很大的差異。 LLM 本身的主要功能也不是調整已編寫文字的結構和語言,而是產生一些新的文字。
實際上,幾乎不會有論文作者會真的使用 AI 語言模型來產生學術論文。因為學術論文的要求是非常嚴謹的,一般在發表前作者都會反覆檢查論文內容。如果使用 AI 產生的論文出現錯誤,所有署名的論文作者的聲譽都會受到嚴重影響,關係到論文作者的整個職業生涯。
從論文評審的角度講,人們需要一個快速有效的檢測工具,以分辨一篇文章是 AI 生成的還是人工撰寫的。近期就有開發者發布了一個名為 GPTZero 的新應用程序,具備這種檢測功能。
GPTZero 是由普林斯頓大學電腦科學專業學生Edward Tian 開發的,其中使用兩種不同的指標來評估文本是否由AI 模型編寫:困惑度(perplexity)和突發性(burstiness)。這可能就是用「模型」打敗「模型」吧。
#幾乎同一時間,ChatGPT 遭到學校的封鎖。由於擔心 AI 工具會破壞教育,紐約市教育部已經在其網路和設備上阻止對 ChatGPT 的存取。
該部門的發言人Jenna Lyle 表示:此禁令主要是擔心ChatGPT 對學生的學習產生潛在負面影響,以及對ChatGPT 生成內容的安全性和準確性有所擔憂。雖然該工具可以提供快速簡單的答案,但它無法培養批判性思維和解決問題的能力,而這對學生的學業和終身成功至關重要。
除此之外,ChatGPT 也存在其他語言模型所存在的問題。因為其訓練數據來自互聯網,所以它經常在答案中重複和放大性別歧視和種族偏見等。這類語言模型也傾向於編造訊息,從歷史日期到科學規律,但別人一般發現不了它在胡編亂造。
正是這些事實性錯誤,讓教育工作者特別擔心這個工具。許多老師表示,像 ChatGPT 這樣的軟體基本上不可能起到測試學生寫論文的能力。如果 ChatGPT 可以在幾秒鐘內幫助學生完成寫作,他們就不願意花心思去寫了。
然而,另一些人認為,教育系統將不得不適應這種技術的出現 —— 就像它適應早期的顛覆性技術,如Google搜尋和維基百科一樣。但大家對 ChatGPT 適應,顯然還需要點時間。
無論是人為制定和執行文本編寫規範,還是使用一些方法分辨文本是否為 AI 生成,都說明人們意識到急需規範 ChatGPT 等文本生成模型的使用。 ChatGPT 的使用情境和價值仍有待定義。
以上是ChatGPT封殺潮,禁入學校,AI頂會刻意改規則,LeCun:要不咱把小模型也禁了?的詳細內容。更多資訊請關注PHP中文網其他相關文章!