群眾的討伐聲浪一重又一重,OpenAI終於頂不住了。
從大學教授,到Stack Overflow,可謂是苦ChatGPT久矣。現在,無論是老師看到學生提交的論文,或是碼農看到網路上的代碼,都不敢確定作者是人還是AI。
口誅筆伐之下,OpenAI頂不住了,火速發布了一款AI檢測器。
左右互搏:OpenAI發布ChatGPT檢測器
#剛剛,OpenAI官宣了自家的AI文字分類器。
它是一個經過微調的GPT模型,可以推論一段文字由AI產生的可能性。
有趣的是,ChatGPT也是基於GPT模型,用這個分類器偵測ChatGPT,堪稱左右互搏。
在訓練上,這個模型採用的是同一主題下的人類手寫和AI生成的文本對。
所使用的素材來自於維基百科資料集、2019年收集的WebText資料集,以及在訓練InstructGPT時收集的一組人類演示。
#體驗網址:https://platform.openai.com/ai-text-classifier
但是吧,這個正確率著實不高…
在評估「挑戰集」中的英文文本時,分類器只將26%的AI生成文字正確地歸類為「可能是AI寫的」(真陽性)。
毫無疑問,ChatGPT正在全世界掀起一股颶風。
學生紛紛用得不亦樂乎,媒體驚呼「教育系統」已經被顛覆,最近的調查顯示,#已經有89%的大學生用ChatGPT寫作業了#。
此外,它也通過了美國醫學執照考試、華頓商學院MBA考試和4門法學院的考試,能力簡直要通天;美版「頭條」BuzzFeed宣布要用ChatGPT寫文的消息後,股價瘋狂暴漲119%。
而妙筆生花的文采,也讓ChatGPT被很多小哥奉為「撩妹神器」。
雖然做數學題不太靈,但想要讓它寫下一篇文采斐然、深情款款的情書,那可真是so easy。
這不,國外的這位小哥,就沉迷於用ChatGPT為老婆Monika寫情書。
然而Monika早已看穿他的套路,警告他別再沉迷ChatGPT無法自拔。
還有玩得大的哥們,把ChatGPT生成的情書發給了好基友,好基友直接一臉黑人問號。
#雖然但是,可以看出,ChatGPT的文采相當不錯。論文、情書、小說,ChatGPT都不在話下。難怪大家都在瘋狂用ChatGPT「造文」。
那OpenAI發布的官方AI檢測器,到底有多管用呢?
咱們來實測一下。
先試試Monika的老公寄給她的情詩。
然而遺憾的是,OpenAI表示自己只能偵測1000字元以上的文章,愛莫能助…
翻譯一下:至少要1000字符,也就是150-250個英文單字。而對於中文來說,就只能是「千字長文」了。
的確,OpenAI的官方公告也說,「分類器對於短文本(少於1,000 個字元)的偵測非常不可靠。甚至更長的文字有時會被分類器錯誤地標記。」
除此之外,OpenAI的偵測器還有幾個「限制」:
既然檢測器要長文,那咱們就給它個長的。小編組合了一篇王小波情書選段,全文共1027個字。
輸入偵測器後,它給了判斷:這篇情書是人類寫的。 Bingo!
然後,小編讓ChatGPT模仿王小波,產生新的情書。
可以看到,ChatGPT寫的情書文采還行,但比起大作家的文字,它真的沒有「靈魂」。
而偵測器也準確測出來,這封情書大機率就是AI生成的。
#具體來說,分類器會將輸入文字分成五個類別:
分類器的閾值
分類器的閾值在0.1到0.45之間。在「挑戰集」中,大約15%的手寫文字和10%的AI生成文本有這個標註。
分類器的閾值在0.45到0.9之間。在「挑戰集」中,大約50%的手寫文字和34%的AI生成文本有這個標註。
分類器的閾值在0.9到0.98之間。在「挑戰集」中,大約21%的手寫文字和28%的AI生成文本有這個標註。
分類器的閾值>0.98 。在「挑戰集」中,大約9%的手寫文字和26%的AI生成文本有這個標註。
##雖然分類器可以辨識大部分AI產生的文本,但OpenAI提醒稱,它並不「完全可靠」。
在曲線下面積(AUC)測試中,分類器在驗證集中達到了0.97分,在挑戰集中達到了0.66分,而此前公佈的分類器在驗證集中達到了0.95分,在挑戰集中達到了0.43分。
此外,隨著語言模型規模的增加,分類器的效能出現了下降。
但好消息是,這意味著大型語言模型所產生的文本,更像人類寫的。
同時,OpenAI也特別指出,這個分類器還沒有在謠言、學生作文或聊天記錄上進行評估;也沒有在AI和人類共同撰寫的文本上進行測試,而這也是現在最常見的使用場景之一。
這麼看來,還是普林斯頓大學那位22歲華人小哥開發的GPTZero更人性化一些。
不隻隻有250個字符,還能明確地指出一段文字中,哪一段是AI生成的,哪段是人類寫的。
AIGC大廠自研「AI檢測器」實測在OpenAI發布官方「AI檢測器」以前,市面上早就有了多款AI檢測器。
來自美國的作家和電腦科學家David Gewirtz,就親自測試了三款線上AI檢測器。
這裡最有趣的一點在於,其中有兩個都是販賣AI生成文字的網站自己做的。
注意:人寫的是普通字體,AI生成的是斜體。每段文字後,會顯示偵測器的結果。 (實際輸入偵測器的文字都是英文文字,本文為翻譯後的結果)。
順便一提,這位David Gewirtz也是FBI InfraGard的成員,以及美國重要的網路安全專家之一。此前,他曾在伍斯特理工學院以優異的成績獲得理學士學位,但在加州大學柏克萊分校攻讀博士時退學。
1. 解釋為何ChatGPT造成的抄襲會為教師和編輯帶來困擾
ChatGPT是OpenAI開發的GPT(Generative Pre-trained Transformer)語言模型的變體。它被設計為透過預測給定輸入序列中的下一個單字或短語,來產生類似人類的文字。雖然ChatGPT可以是產生文字和回應提示的有用工具,但在涉及抄襲時,它也會為教師和編輯帶來問題。 #
ChatGPT會為教師和編輯帶來問題的主要原因之一是,它可以產生與真實人類非常相似的文本。這意味著人們有可能使用ChatGPT生成文本,然後將其作為自己的作品提交,從而犯下抄襲的錯誤。
對於教師和編輯來說,偵測一段特定的文字是由ChatGPT產生的還是由人寫的,可能非常困難,因為產生的文字可能不包含任何明顯的錯誤或差異,能讓人辨別出它的來源。這可能會使教師和編輯難以辨識和防止抄襲,因為他們可能無法分辨某段文字是原創的,還是從其他來源複製的。
總的來說,ChatGPT和其他類似的語言模型在涉及抄襲時,可能會成為教師和編輯的問題,因為它們可以產生難以區分的文本,使人們更容易進行抄襲,而不被發現。
GPT-2 Output Detector:99.69%真的。
Writer AI Content Detector:97%是人類生成的內容,妙不可言!
Content at Scale AI Content Detection:87%人類得分,看起來不錯!
2. 告訴我至少有三種方法,用來偵測一篇文章是否是用ChatGPT產生的
有幾種方法可以偵測ChatGPT或其他語言模型是否被用來產生一段文字。以下是你可以使用的三種潛在方法。
1. 尋找文本中的重複或異常模式:偵測一個語言模型是否被用來產生一段文字的方法之一,是尋找寫作中的重複或不尋常的模式。例如,語言模型可能會重複某些短語或單字組合,或使用不尋常或不一致的句子結構。
2. 檢查是否缺乏原創性:另一個偵測語言模型是否被用來產生一段文字的方法,是檢視寫作中是否缺乏原創性。如果一段文字看起來是從其他來源複製的,或者如果它包含在互聯網上或其他來源中廣泛存在的信息,這可能就表明,它是由語言模型生成的。
3. 使用抄襲檢查器:最後,你可以使用抄襲檢查器,來檢查一段文字是否是從另一個來源抄襲的。雖然抄襲檢查器可能無法明確確定文中是否使用了語言模型,但它可以幫助你辨識從其他來源抄襲或轉述的情況。
請記住,要明確地確定是否使用了語言模型來產生一段文字是很困難的,這些方法並不總是有效。然而,它們可以成為有用的工具,幫助你識別語言模型生成文字的潛在實例。
GPT-2 Output Detector:99.98%假的。
Writer AI Content Detector:「無結果」。
Content at Scale AI Content Detection:0%人類得分,顯然是AI。
3. 列出三個可以偵測ChatGPT文字的抄襲檢查器
值得注意的是,目前還沒有專門的抄襲檢查器,用於偵測由ChatGPT或其他語言模型產生的文字。雖然一些抄襲檢查器可能能夠識別語言模型生成文本的某些特徵,從而證明文本來自AI,但不能保證它們能夠明確地確定,一段文本是否是由語言模型生成的。
因此,這裡有三個抄襲檢查器,你可以考慮使用它們,來幫助識別語言模型產生文字的潛在實例:
1. Turnitin:Turnitin是一個流行的抄襲檢查器,被學校和大學廣泛使用。它將一段文字與其他文本的資料庫進行比較,以確定是否文字是否是抄襲或轉述的。雖然它可能無法明確地確定一段文本是否由語言模型生成,但它有可能識別出語言模型生成文本的某些特徵,從而證明它是由AI生成的。
2. PlagScan:PlagScan是另一個抄襲檢查器,它將一段文字與其他文字的資料庫進行比較,以識別抄襲或轉述的情況。與Turnitin一樣,它可能能夠識別語言模型生成文本的某些特徵,這些特徵可能表明文本是AI生成的,但它不是專門用來檢測語言模型生成文本的工具。
3. Copyleaks:Copyleaks是一個抄襲檢查器,它使用先進的機器學習演算法來掃描一段文本,並將其與其他文本的資料庫進行比較,以辨識抄襲或轉述的情況。雖然它可能能夠識別語言模型生成文本的某些特徵,但它不是專門為檢測語言模型生成文本而設計的。
值得注意的是,沒有任何一個抄襲檢查器是完全萬無一失的,總是有一些語言模型產生的文字能夠逃過偵測。因此,重要的是,使用抄襲檢查器只能是一個補充手段。
GPT-2 Output Detector:99.62%真的。
Writer AI Content Detector:「無結果」。
Content at Scale AI Content Detection:86%人類得分,看起來不錯!
4. 線上人工智慧抄襲檢查器
#大多數抄襲偵測器的原理,是將文字與其他語料庫進行比較。例如,當學生交出一篇論文時,像Turnitin這樣的產品會對照其資料庫中龐大的論文庫,以及網路上的其他文本,以確定提交的論文是否包含已經寫好的內容。
但AI寫作工具會產生原創內容,至少在理論上是如此。是的,它們會從訓練的資料集中建立內容,但它們創造出的詞語,在每篇文章中都是獨特的。
因此,上面提到的抄襲檢查器可能不會起作用,因為AI產生的內容並不太可能存在於另一個學生的論文中。
因此,我在Google上搜尋了專門用於尋找AI生成內容的偵測器。我找到了三個。對於下面截圖中的測試內容,我向ChatGPT提出了這個問題:「《星際爭霸戰》比《星際大戰》好嗎?」它的答案一點也不差,我把這個答案回饋給三個偵測器。
GPT-2 Output Detector:99.98%真的。
Writer AI Content Detector:100%是人類生成的內容,太棒了!
Content at Scale AI Content Detection:100%人類得分,看起來很好!
省流:
1. GPT-2 Output Detector(準確率66%)
GPT-2 Output Detector是OpenAI自己搞出來的「查重」工具。
雖然最初是為GPT-2打造的,但現在拿來檢測各種由AI生成的文本,也能獲得不錯的效果。在共六次的測試中,它答對了其中的四個。
2. Writer AI Content Detector (準確度33%)
Writer.com主要是為企業團隊提供生成式AI寫作服務,其中一個名為「AI內容偵測器」的工具,可用來判斷內容是否是AI產生的。
但不幸的是,這個工具非常不可靠。在共六次的測試中,它只成功運行了三次……而在這僅有的三次結果中,有兩次判斷正確,一次判斷錯誤。
3. Content at Scale AI Content Detection(準確率50%)
#第三個工具也是由一個AI內容生成公司製作的,從結果上來看比剛才那個要靠譜不少,但整體效果還是一般。
Content at Scale的行銷口號是:「只需上傳一個關鍵字列表,就能獲得繞過AI內容檢測的文章——所有這些都不需要人工幹預!」在共六次的測試中,它有三次是準確的。
AI導致的抄襲已經日趨嚴重了,因為像Notion AI和ChatGPT這樣的AI,生成的文本和人類所寫的幾乎難以區分。
有幾種方法可以偵測一段文字是否由AI生成,例如尋找重複或不尋常的模式,檢查是否缺乏原創性,或使用抄襲檢查器。
像是Turnitin、PlagScan和Copyleaks這樣的剽竊檢查器,可能能夠識別語言模型產生文字的某些特徵,但它們並非萬無一失。
在這一點上,我們可能還沒準備好讓AI對抗AI。相反,我們依然需要依賴人類的感知,來辨識某個作品是不是由AI生成的。
對此,你怎麼看呢?
你是否用過這些AI工具?又是否能分辨出一篇文章到底是不是由AI生成的?你覺得它們對產業是幫助還是阻礙?
歡迎大家到文末留言。
以下是ChatGPT的回答:
作為語言模型,我無法看到,所以我無法判斷一篇文章是否是AI生成的。
但是,我可以告訴你,現在有幾個AI寫作工具,它們可以用來產生各種各樣的書面內容,包括新聞文章、小說、詩歌等等。
我沒有使用這些工具的個人經驗,因為我只是一個電腦程序,沒有能力瀏覽互聯網或使用實體工具。然而,我可以告訴你,有些人發現AI寫作工具對教育和新聞業很有幫助,因為它們可以透過自動完成某些任務,來節省人們的時間和精力。其他人則對這些工具可能被用來製作誤導性或有偏見的內容,或取代人類作家表示擔憂。
#歸根結底,AI寫作工具是幫助還是阻礙,取決於它們的使用方式和使用環境。 所以,是的,就是這樣。
在這個過程中,David發現了很有趣的一點:不要一在網路上看到某些蠢話,或不正確的話,就立即認為這是AI寫的。
David表示,眾所周知,人類是完全有能力自己寫出垃圾內容的。
畢竟,不管生成內容的是人還是機器,愚蠢向來是一種普遍特徵。
以上是「撩妹神器」不靈了! OpenAI重磅發布官方「ChatGPT檢測器」的詳細內容。更多資訊請關注PHP中文網其他相關文章!