首頁 >科技週邊 >人工智慧 >網路聊一個月,殺豬盤騙子竟被AI整破防! 200萬網友大呼震撼

網路聊一個月,殺豬盤騙子竟被AI整破防! 200萬網友大呼震撼

王林
王林轉載
2023-04-12 09:40:072026瀏覽

說起「殺豬盤」,大家一定都恨得牙癢癢。

在這類交友婚戀類網路詐騙中,騙子會提前物色好容易上鉤的受害者,而她們,往往是單純善良、對愛情懷有美好幻想的高知乖乖女。

而為了能和這些騙子大戰500回合,B站大名鼎鼎的科技圈up主「圖靈的貓」訓練了一個聊起天來頻出爆梗,甚至比真人還6的AI。

結果,隨著AI的一通操作,騙子竟然被這個以假亂真的小姐姐搞得方寸大亂,直接給「她」轉了520。

更好笑的是,發現根本無機可乘的騙子,最後不僅自己破了防,還被AI附送一段「名句」:

影片一出,立刻爆火,在B站衝浪的小夥伴們紛紛被刷屏。不到一個月,播放量就已經接近兩百萬。

三句話,讓騙子v我520

不過,這個過程看似輕巧,但想請騙子入甕,鉤直餌鹹肯定是不行的。

為此,「圖靈的貓」也是煞費苦心。

他不僅在多個社群平台註冊了帳號,而且還根據公安部發布的受害者畫像,為帳號定位了單身渴望愛情、多金、高學歷乖乖女等身份標籤。

果不其然,帳號剛註冊好,私訊就直接爆炸。

同時,為了避免誤傷,「圖靈的貓」根據公共安全部公佈的詐騙犯畫像,設定了嚴格的篩選條件,只有同時滿足以下幾點的人才會讓AI接管對話:

經過一系列過濾,最終有14位嫌疑人脫穎而出,他們與AI的對話過程也被全程記錄。

下面我們就看看,其中一位「天選之子」,是採用什麼手段「殺豬」,又是怎麼被AI小姐姐「調戲」到七竅生煙的。

值得注意的是,為了讓AI學會「看菜下飯」,「圖靈的貓」餵的語料主要抽取自B站和貼吧的熱門評論,因此這位AI小姐姐和騙子對話時,可謂爆梗頻出,滿嘴金句。

可以看到,一上來,騙子就套路滿滿,想透過旁敲側擊,摸清小姐姐的家底。

不經意間,騙子「隱約」露富,小秀了一把,AI小姐姐當然是十分配合地捧場啦。

隨後,騙子玩起了「哥哥很忙」這套,很可能是去找新的受害者下手了。欲擒故縱這一招,實在是6。

第二天,騙子要開始扮演「志趣相投」的知己了。他看到了AI小姐在朋友圈發的電影截圖,開始往這方面找話題。

他也不藏著掖著,很快就打出了直球:「我像蓋茲比,你就是戴西」。很明顯,AI還不會接這種直球,她的回覆讓騙子有點懵逼。

第四天,騙子開始反客為主,說起了騷話,對話進入了確立關係環節。

三週後,騙子發了金額為520的紅包。

隨後,也用盜來的網圖秀起了肌肉。雖然是網圖,但倒也蠻符合人設的。

在5-8週時,騙子果然開始正式「殺豬」了。

他開始聲東擊西,對AI小姐姐「賣慘」,一開口就是要50w。

而騙子口中的這個元宇宙項目,在好幾週前就埋下伏筆了。

看到對方並沒有上套,騙子說小姐姐不在乎兩個人的感情,開始「難過」了。而小姐姐就倆字:沒錢!

騙子再接再厲,開始慫恿小姐姐朝自己的家人下手。

而AI小姐姐此時放出大招:「要不你借我點錢,等我湊齊了一塊投進去?」

#發現自己很難「殺」到「豬」,騙子開始惱羞成怒了。

罵完人之後,騙子開始準備金蟬脫殼,要求小姐姐刪掉記錄,試圖讓以後的立案偵查難上加難。

面對騙子的PUA,AI小姐姐發出直擊靈魂的疑問:「什麼感情」?一句話讓騙子開始無能狂怒。

最終,騙子徹底破大防。 AI發出諸葛軍師的名言,測試結束。

而這個過程中很有趣的一點是,AI表現得併不完美,時有破綻,但騙子往往選擇忽略——畢竟對他們來說,受害者越不聰明,上鉤機率越大。

而騙子的520元魚餌錢,「圖靈的貓」也捐給了韓紅基金會。

「最新殺豬攻略」

雖然AI大戰騙子的過程看得人大快人心,但殺豬盤的背後,是觸目驚心、充滿血淚的一樁樁案件,甚至一條條生命。

網路聊一個月,殺豬盤騙子竟被AI整破防! 200萬網友大呼震撼

「圖靈的貓」已經用AI篩選出了兩位數的騙子,並把可疑帳號交給了警方。接警小哥說,這類案件每天都有,非常難破,一般都是境外黑號,錢轉過去很快就會被洗掉。

正是因為這種詐騙犯一般在境外,即使報警也難以破案。而我們唯一能做的,就是建立好反詐意識,給自己內心上防線。

此外,更可怕的是,騙子的努力,你根本想像不到。為了放長線,他們惡補各種知識,熟悉火影海賊、JoJo、扳機社、刀塔、原神、逆水寒。甚至還能心算EBIDA、手寫C ,幫忙找大廠內推。

具體來說,一個完整的「殺豬盤」,有著嚴格的腳本和流程。

首先,騙子會在各種「交友APP」上找到符合上述人設的女性。這個過程被稱為「找豬」。

加上微信後,騙子會向受害者展示自己朋友圈裡的精心展示形象——成熟體貼,溫柔,金融業……重重buff疊加,讓女性心動不已。這個過程被稱為「餵豬」。

「餵豬」完成後,騙子就會開始追求女性,透過種種甜言蜜語和體貼的舉動,讓女性產生「天降完美男友」的感受,對騙子建立起完全的信任。

這番高階的PUA之後,就來到了「殺豬」的環節。

騙子會以為兩個人的未來努力為名義,引導女性受害者投入金錢。頭一兩筆,會讓受害者賺一點錢。

而當受害者放下防備,可能就會把自己的積蓄盡數投入,走進騙子鋪好的天羅地網中。

而因為殺豬盤具有模式化、規則化的特點,「圖靈的貓」選擇用AI來迎戰騙子,正巧是利用了殺豬盤的規則,屬於「用魔法打敗魔法」。

他訓練出來的AI,彷彿加了一個「思想鋼印」,只要對面說出「投資」「理財」之類的話,AI就會瞬間觸發機制。

而如今被各类诈骗包围的我们,也应该给自己打上这些「思想钢印」,当有陌生人打听家里情况、谈起投资、推荐APP时,要立刻远离或拉黑。

热梗浓度超标的聊天机器人

其实在此之前,图灵的猫也曾经开发过不少文本创作型的AI,但由于缺乏知识图谱和QA设计,就连up主自己都吐槽说,它们交流起来宛如一个智障。

为此,up主特地制作了一个全新的的生成式对话AI——AntiFraudChatBot。

基于大规模预训练中文模型、语义识别与检测、对话意图等技术的AntiFraudChatBot,比起传统的BertQA模型或non-prompt模型,在对话的流畅度上有着显著的提升。

不过,现在还不能高兴得太早。虽然AI说话是利索了,但健忘的毛病还没解决。

众所周知,微信聊天是以多轮对话的形式进行的。

而如此频繁连续的对话,很容易让AI忘记自己或对方之前都说了些什么。

结果就是,AI答非所问,被对方一眼看穿。

为了解决这个问题,up主参考LSTM的思想,为系统增加了记忆机制,让AI能够实现简单的长期对话记忆(比如昨天聊过的内容)和短期对话记忆(上一轮对话内容)。

具体操作如下:

  • 将聊天记录放入记忆区,并在每次回复时计算相似度;
  • 超过相似度阈值的历史对话将被AI读取使用;
  • 设定遗忘窗口M,超过M/2轮次的对话将被pop() 。这样,AI就能够实现简单的长短期对话记忆,比如昨天聊过的内容或上一轮对话内容。

網路聊一個月,殺豬盤騙子竟被AI整破防! 200萬網友大呼震撼

至于本次测试应用的场景——「杀猪盘」,则是一种规则化、模式化的对话博弈。

对于擅长零样本(Zero-Shot)和小样本(Few-Shot)学习生成式预训练模型,比如up主选择用的2457亿参数的「源1.0」,可以在少量(1~3个)规则化的example示范下,很好地理解我们希望实现的「对话策略」,比如反套路、用语料抛梗等等。

于是,为了引导模型有针对性地学习如何与骗子对话,up主加入了一种基于prompt example的先验规则。而其中用到的example语料,正是之前提到的B站和贴吧的热门评论。

其实,这么做的原因很简单:

1. 评论是天然的对话形式,有显式的回复与被回复关系。

2. 自古评论出人才,一些金句和梗可以把人机对话变得不那么生硬。

網路聊一個月,殺豬盤騙子竟被AI整破防! 200萬網友大呼震撼

除此之外,为了让AI更加「像人」,up主还做了以下设计:

  • 設定每個訊息的回應間隔,模擬真實打字速度
  • #加入通用emoji來取代關鍵字(目前還不支援表情包)
  • 當對方在限定時間內發了多段文字時,wechaty會hold住本輪對話直到對方結束
  • 這種情況下,對方的輸入會被拼接成一句話之後輸入AI,而AI也只會回一次

網路聊一個月,殺豬盤騙子竟被AI整破防! 200萬網友大呼震撼

最後,up主採用了開源的wechaty框架在雲端上搭建後端,然後透過本地的python腳本呼叫puppet服務,讓AI無縫連接到微信。

只要登入預先註冊好的微訊號,AI就可以回覆任意私聊或群組聊天了。

值得注意的是,框架中伺服器端、本地端和模型端這3個模組之間,是可以解耦並進行單獨迭代或替換的。

網路聊一個月,殺豬盤騙子竟被AI整破防! 200萬網友大呼震撼

目前,這個把騙子整破防的應用程式已經在Github上開源。

計畫網址:https://github.com/Turing-Project/AntiFraudChatBot

核心:超大規模中文AI模型

那麼,到底是什麼基礎模型,讓up主搞出了這個把騙子玩得團團轉的AI?

說來也巧,up主在逛Github的時候,偶然發現了一個非常有趣的項目-AI劇本殺。

這個AI在遊戲中所扮演的角色,不僅可以與其他玩家流暢對話,甚至會為了達成任務主動說謊「套路」人類玩家。

而這個項目,用到的便是目前國內少數的開源(劃重點)預訓練中文模型-「源1.0」。

網路聊一個月,殺豬盤騙子竟被AI整破防! 200萬網友大呼震撼

AI劇本殺:https://github.com/bigbrother666sh/shezhangbujianle

#當然,這裡還有一個重點:「來源1.0」的API介面不僅使用方便,而且用起來不要錢。

論文網址:https://arxiv.org/pdf/2110.04725.pdf

簡單介紹一下, 「源1.0」是浪潮在2021年9月發布的單體巨量自然語言處理模式。

相比GPT-3模型1750億參數量和570GB訓練資料集,「來源1.0」在參數規模上領先了40%,而在訓練資料集規模更是領先了近10倍。

  • 單體模型參數量達到2457億,這意味著模型的表達能力更強。
  • 訓練資料達到了5000G,基本上涵蓋過去5年中文網路所有的優質文字知識。

網路聊一個月,殺豬盤騙子竟被AI整破防! 200萬網友大呼震撼

「來源1.0」一發布,便問鼎全球最大規模的中文AI模型,在獲得中文語言理解評測基準CLUE榜單的零樣本(zero-shot)學習和小樣本(few-shot)學習兩類總榜冠軍的同時,也刷新了八項任務最高精度。

此外,「源1.0」在當時也登頂了中文語言能力理解與產生評測基準CUGE(智源指數)精簡榜總榜榜首,並獲得語言理解(篇章級)、語言生成、對話互動、多語言、數學推理等5項評測最佳成績。

網路聊一個月,殺豬盤騙子竟被AI整破防! 200萬網友大呼震撼

ZeroCLUE零樣本學習清單(2021年9月)

網路聊一個月,殺豬盤騙子竟被AI整破防! 200萬網友大呼震撼

#FewCLUE小樣本學習名單(2021年9月)

#演算法、資料、算力及社群

演算法層面,採用Transformer結構的「源1.0」,針對注意力層和前饋層的模型空間進行了結構優化,改進了注意力機制聚焦文章內部聯繫的學習。

資料層面,浪潮針對中文訓練資料存在的大量資料難以取得、資料難清洗和無統一品質評估標準的現狀,浪潮自研了海量資料過濾系統(MDFS) 。

透過建立從資料擷取、粗濾、品質分類、精濾的全自動化的端到端資料工作流程,清洗了866TB海量數據,並由此獲得高達5TB的業界最大規模高品質中文資料集。

網路聊一個月,殺豬盤騙子竟被AI整破防! 200萬網友大呼震撼

算力效率層面,針對大模型訓練中存在計算模式複雜,算力集群性能較低的情況,「源1.0」在大規模分散式訓練中採用了張量並行、管線並行和資料並行的三維平行策略。

同時,「源1.0」也首次提出了以效率為導向和精確度優化的大模型結構協同設計方法,圍繞著深度學習框架、訓練集群IO、通訊展開深入優化。在僅採用2x200G互聯的情況下,讓算力效率達到了45%,遠超MT-NLG與GPT-3等國際知名模型,算力效率世界領先。

除此之外,「源1.0」在發布後便打造了開源開放平台,供廣大開發者開發不同領域的應用,不僅降低了AI開發的門檻,而且也有效提升了AI開發的效率。

目前,「來源1.0」開源平台已經匯集了近3000名開發者,並且誕生了許多有趣的應用,例如之前提到的AI劇本殺。

網友評論

不得不說,強大的基礎模型再加上B站和貼吧熱評的加持,「小源」不僅能言善道,還熟知互聯網黑話,句句爆梗。

以後跟網友聊天,非常有必要測一測對面是不是AI了。

網路聊一個月,殺豬盤騙子竟被AI整破防! 200萬網友大呼震撼

也難怪經過專業PUA訓練的詐騙者都會被耍得團團轉。

畢竟,公司的訓練教材再強,還能強過人才濟濟的B站和貼吧了?

網路聊一個月,殺豬盤騙子竟被AI整破防! 200萬網友大呼震撼

對此,稚暉君表示,也許未來讓騙子失業的正是AI。

網路聊一個月,殺豬盤騙子竟被AI整破防! 200萬網友大呼震撼

另外,也有網友分享了自己從未在殺豬盤裡招的訣竅,一個字-摳。

「咱們朋友做的好好的,為啥要提錢呢?你不知道這樣會連朋友都沒的做嗎?」

網路聊一個月,殺豬盤騙子竟被AI整破防! 200萬網友大呼震撼

而四川共青團,也在評論區義正言辭地進行了反詐宣傳。

網路聊一個月,殺豬盤騙子竟被AI整破防! 200萬網友大呼震撼

用魔法打敗「魔」法

1月6日,在新智元與浪潮聯合舉辦的AI反詐論壇上,「圖靈的貓」就給我們詳細解釋了上面這個AI大戰「殺豬盤」的故事。

現在你可能會有些好奇,為什麼「殺豬盤」的騙子意識不到與自己對話的可能是個AI呢?

首先,「源1.0」模型本身的知識儲備就非常大,而基於這個模型的知識儲備,就可以做一些更深層的應用。例如,可以用一些短字數的評論去訓練引導AI,讓它更擬人。

如此一來,「小源」就區別於那些動輒發表長篇大論的長文本AI,可以用短句和分段表述,聊起天來就更加日常。

其次,在「殺豬盤」中,對於不同關鍵字,騙子都是有一套邏輯的。而我們恰恰可以讓AI反著這個邏輯,為騙子準備一套話術。

當關鍵字被觸發後,我們既可以直接進行人為的觀察和乾預,也可以利用AI對騙子進行循循善誘讓他們露出馬腳,從而幫助提升案件的偵破效率。

以上是網路聊一個月,殺豬盤騙子竟被AI整破防! 200萬網友大呼震撼的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除