搜尋
首頁科技週邊人工智慧'我用個人微信聊天記錄和部落格文章打造了自己的數位化克隆AI'

除了開飛機,做出完美的烤肋排,獲得6塊腹肌以及讓公司賺大錢之外,我一直以來也想做成的一件事,是實現一個聊天機器人。

和多年前簡單透過關鍵字配對回覆的小黃雞,到現在已經堪比人類智慧的 chatgpt,聊天AI一直在進步,但他們和我想的都有一些區別。

我在微信上和很多人聊天,有的人聊得多,有的人聊的少,我在群組裡也會說話,我還會寫博客和公眾號,我會在很多在地方留下評論,我也會發微博,這些是我在網路世界留下的痕跡,某種程度上這些東西構成了世界對我的認知,從這個角度上,也就構成了我。將這些數據——我對不同訊息的回复,我寫的每一篇文章,每一句話,我發過的每一條微博等,全部匯入一個神經網路模型之中,去更新其中的參數,理論上就可以獲得一個我的數位拷貝。

從原理上,這和對chatgpt 說「請扮演一個叫小王的人,他的經歷是XXX」不同,雖然以chatgpt  的智慧,這樣的扮演毫不費力且可能以假亂真,但其實chatgpt 的參數並沒有改變,這更像是“扮演”而非“重塑”,chatgpt  的上千億個參數並沒有改變一個,它從你之前的文本中獲取一些信息,然後用它的智慧來應對你。

我用我的10万条微信聊天记录和 280 篇博客文章,做了我自己的数字克隆AI

我喜歡在文章裡寫一些沒有太大用處的比喻,並喜歡在最後做一些總結,跟人聊天的時候,我喜歡用「可以的」來敷衍,同時用臥槽來表示驚訝,我某些時候少言寡語,另一些時候則滔滔不絕,這是我自己能夠感知的一些特點,此外還有更多我自己都無法察覺的固定習慣,但這些微妙又模糊的東西,我無法告訴chatgpt,這就像你做自我介紹,可以介紹的很豐富,但和真正的你,依然差之千里,甚至有時候截然相反,因為當我們意識等到自己的存在的時候,我們其實是在表演自己,只有在我們沒有意識到自己的存在,而融入生活的時候,我們才是真正的自己。

在chatgpt 發布之後基於興趣去學習文本大模型的技術原理,有一種49 年入國軍的感覺,因為對個人愛好者來說,做出在任何方面或再細小的垂直領域超越chatgpt 的可能性已經不存在了,同時它又不開源,除了使用,沒有別的可打的主意。

但最近2個月出現的一些開源文字預訓練模型,例如大名鼎鼎的 llama 和 chatglm6b,讓我那個克隆自己的想法又開始蠢蠢欲動起來,上週,我準備試試看。

首先我需要數據,足夠多且全部都由我產生的數據,最簡單的數據來源是我的微信聊天記錄和博客,因為沒有完全清空微信聊天記錄,從2018 年到現在,我手機裡的微信佔了80G的儲存空間,對此我一直有一種家裡被人強佔一塊地兒的感覺,現在如果能把這裡的數據利用起來,我會和這80G冰釋前嫌。

我用我的10万条微信聊天记录和 280 篇博客文章,做了我自己的数字克隆AI

 

我在幾年前曾經備份過我的微信聊天記錄,我又找到了當年使用的工具,是一個在github 開源的工具,叫做WechatExporter,連結我會放到文末,使用這個工具,可以實現在Windows 電腦上備份iPhone 中的手機微信的所有聊天記錄,並導出成純文字格式,這是一個需要耐心的操作,因為首先需要將整支手機備份在電腦上,然後這個工具會從備份檔案讀取到微信的記錄,並匯出。

我大概花了4個小時備份,然後很快就導出了我所有的微信聊天記錄,其按照聊天對象,被導出到了許多個文本文件中

我用我的10万条微信聊天记录和 280 篇博客文章,做了我自己的数字克隆AI

#這裡麵包含了群組聊天和一對一的聊天。

然後我開始做數據清洗,大多數群我都是潛水比較多,我篩選出一些我比較活躍的群,此外還篩出了一些和個人的聊天記錄,我和他們聊天很多,同時他們也願意我把聊天記錄拿來這麼做,最後大概50個聊天的文字檔案夠我使用。

我寫了一個python 腳本,遍歷這些文本文件,找出我的所有發言,以及上一句,做成對話的格式,然後存入json,這樣,我就擁有了一個我自己的微信聊天資料集。

我用我的10万条微信聊天记录和 280 篇博客文章,做了我自己的数字克隆AI

此時我也讓同事用爬蟲爬取了我自己的所有博客文章,他爬完發給我之後我才想起來,我其實可以用博客後台內建的匯出功能直接匯出。雖然部落格資料也很乾淨,但我一開始並不知道如何利用,因為我要訓練的是聊天的模型,而部落格文章是一大段一大段的話,並不是聊天,所以我第一次訓練,只用了微信的這些純聊天記錄。

我選擇了chatglm-6b 作為預訓練模型,一方面它的中文效果已經被訓練的足​​夠好了,另一方面它的參數是60 億,我的機器能不太費力的跑起來,還有個原因是,在github 已經有好幾個對其進行微調訓練的方案了(我會一起列在文末),此外它還可以簡稱為6B,和我做的6pen 都姓6,這也讓我更傾向於用它。

考慮到我的微信聊天資料最終可用大約10 萬條,我設定了比較低的學習率,同時增加了epoch,在幾天前的一個晚上,睡前,我寫完訓練腳本,並開始運行,然後我就開始睡覺,希望睡醒之後能跑完,但那個晚上我差不多每隔一個小時就醒一次。

早上起床之後,模型訓練完了,遺憾的是loss 下降的並不好,也就意味著12個小時訓練出來的模型,並不算好,但我是個深度學習的菜雞,能跑完不報錯我已經謝天謝地了,所以我並沒有感到失望,而是開始用這個模型來跑對話。

為了增加一點儀式感,我不想用jupyter 筆記,或在黑黢黢的終端裡去聊天,我找了個開源的前端聊天頁面,略做修改,然後把模型部署起來,封裝了API ,然後用前端頁面去呼叫這個API,於是就可以實現比較像那麼回事的聊天了。

請不笑話我,我用自己的10 萬條微信聊天記錄,訓練出的模型,以下是我和他(或者它?)的第一次對話

我用我的10万条微信聊天记录和 280 篇博客文章,做了我自己的数字克隆AI

 

我又試了下,結果依然不是很好,我不是那種不優化到極致就不好意思拿出手的人,因此我毫不害羞的直接發給了幾個朋友,他​​們給我的回饋是,有點像你,同時他們給我回了對話截圖。

我用我的10万条微信聊天记录和 280 篇博客文章,做了我自己的数字克隆AI

我用我的10万条微信聊天记录和 280 篇博客文章,做了我自己的数字克隆AI

我用我的10万条微信聊天记录和 280 篇博客文章,做了我自己的数字克隆AI

#第一個版本,這個模型確實具備某些跟我比較類似的點,我說不好,但有一點這種感覺。

如果你問它,你哪裡讀的大學,或者你老家是哪裡,它並不會回答出準確的信息,並且肯定說的是錯的,因為我的聊天記錄中並不會有很多人這麼問我,從某個角度上,這個模型並不了解我,它像是個克隆。

當我收到一條微信訊息,內容為A,我回覆了B,那麼這裡是有一些原因的,這些原因中的一部分,儲存在我物理腦袋的七八十億個神經元裡,理論上,如果我產生的數據夠多,也許幾千億條,那麼一個參數夠大的人工智慧模型,就能非常接近我的腦子,10萬條也許少了一些,但也足以讓模型的60億個參數改變一部分,使其相較於原始的預訓練模型,更接近我一點。

此外它還有個更大的缺點,就是蹦不出來幾個字,回答非常簡略,這雖然符合我很多時候的微信聊天風格,但並不是我想要的,我想要它說更多話。

此時我忽然想到了我的博客,如何能把這些博客轉換為問答呢,我想到了chatgpt ,在我精心構造的prompt 之下,它成功把我博客文章的一段文本,變成了多個對話形式的問答:

我用我的10万条微信聊天记录和 280 篇博客文章,做了我自己的数字克隆AI

某些時候chatgpt 會回傳一些不符合格式的內容,所以我寫了一個校對腳本,來將各種不符合規則的返回,統統修改為標準的json,且欄位名稱不變。

然後我將其封裝為一個接口,放在了香港的伺服器上,並在我的電腦上寫了一個腳本,把我的部落格文章按照500字劃分,拿去批量轉成問答,受限於chatgpt的介面速度,我差不多又花了一晚上,才把我的兩百多篇博文,轉換成了差不多5000 個對話資料集。

此時我面臨一個選擇,如果將部落格對話加到微信對話資料集裡去訓練,那麼部落格對話佔比太低,可能影響會非常小,也就是說跟之前的模型差別不大;另一個選擇是單純用文章的這些數據,去訓練一個新模型。

我向 6pen 的演算法老哥尋求幫助,在確定模型權重可以融合併想辦法從他那順到融合腳本後,採用了後一種方式。

5000個問答,訓練速度很快,一兩個小時就夠了,下午我一邊寫文檔一邊瞅一眼訓練進度,下班之前訓練完畢,我開始進行模型的融合,讓之前的用微信聊天記錄訓練的模型,和用我的部落格訓練的模型進行融合。

兩個模型的權重可以自由配置,我嘗試了多種不同的比例,考慮到模型收斂過程中loss 還有一些反彈,我還嘗試了不同步數的模型版本

我用我的10万条微信聊天记录和 280 篇博客文章,做了我自己的数字克隆AI

我整晚整晚和這些模型對話,找到效果最好的,但我發現,我似乎很難找出來,這些模型,有一些不同的表現,有的會比較暴躁,有的像舔狗一樣,有些特別高冷,有些則很熱情,然後我意識到,某種程度上,這或許是我的不同面,這麼理解雖然肯定會讓搞深度學習,並對其中原理爛熟於胸的人嗤之以鼻,但不失一些浪漫。

我用我的10万条微信聊天记录和 280 篇博客文章,做了我自己的数字克隆AI

最終我發現,聊天和文章兩個模型,權重比為7 比2 ,且採用第6600 步保存的模型,融合效果在更多時候,都要更好一點,當然也可能是那個時候已經半夜兩點,我的判斷力有所下降,但無論如何,我就把他確定為最終模型了。

我跟他聊了很多。

我用我的10万条微信聊天记录和 280 篇博客文章,做了我自己的数字克隆AI

我用我的10万条微信聊天记录和 280 篇博客文章,做了我自己的数字克隆AI

我用我的10万条微信聊天记录和 280 篇博客文章,做了我自己的数字克隆AI

我用我的10万条微信聊天记录和 280 篇博客文章,做了我自己的数字克隆AI

我用我的10万条微信聊天记录和 280 篇博客文章,做了我自己的数字克隆AI

我用我的10万条微信聊天记录和 280 篇博客文章,做了我自己的数字克隆AI

我用我的10万条微信聊天记录和 280 篇博客文章,做了我自己的数字克隆AI

我用我的10万条微信聊天记录和 280 篇博客文章,做了我自己的数字克隆AI

##很明顯,他和chatgpt 差的極遠,沒辦法幫我寫代碼,或者寫文案,也不夠聰明,因為訓練用的數據不包含多輪對話,所以多輪對話的理解力更差,與此同時,他對我也不算特別了解,除了知道自己的名字(也就是我的名字),我的其他很多信息,他其實並不能準確回答,但是,他經常會說一些簡單的幾個字,讓我有一種熟悉的感覺,也可能是錯覺,誰知道呢。

總的來說,現在存在的所有廣為人知的文本大模型,都是用海量的數據訓練的,訓練過程會盡可能包含全人類所產生的所有信息,這些信息讓模型的億萬參數得以持續優化,例如第2043475個參數增加4,第9047113456個參數減少17,然後得到更聰明的神經網路模型。

這些模型變得越來越聰明,但它們更像是人類的,而非個體的,當我用我自己的這些數據去重新訓練模型時,我能得到完全不一樣的東西,一個更靠近個體的模型,雖然無論是我產生的數據量,還是我採用的預訓練模型的參數量和結構,可能都無法支撐起一個能夠和我的腦子差不多的模型,但對此進行的嘗試,依然非常有趣。

我將這個網頁重新部署了一下,並在中間加了一層serverless 做保護,因此,現在所有人都可以去試試和這個我的數位版聊天,服務由我的祖傳V100伺服器提供,而且只有一台,所以如果人多的話,可能會有各種問題,連結我會放在最下面。

積極的,發自內心的產出更多的數據,就越有可能在未來獲得更接近你的數字拷貝,這或許會有一些道德,甚至倫理問題,但這是大概率會發生的事情,之後我的資料累積的更多,或有更好的預訓練模型,訓練方式,我可能隨時都會重新再次嘗試訓練,這不會是一個盈利,或任何跟商業沾邊的項目,這某種程度上算是我自己追尋自己的一種方式。

這樣一想,人生似乎都少了一些孤獨感。

  • 我的數位克隆線上聊天:https://ai.greatdk.com
  • 你也可以透過點擊最下面的閱讀原文去體驗,不過因為只有一台祖傳V100顯示卡在提供推理,所以我設定了請求限制,即便如此,它也可能掛掉,我會每隔10分鐘重啟一下這個服務,如果你確實有興趣,且發現它掛了,可以過段時間再試試看
  • 我使用和參考的項目:
  • WechatExporter:https://github.com/BlueMatthew/WechatExporter
  • #chatglm-6b :https://github.com/THUDM/ChatGLM-6B
  • zero_nlp:https://github.com/yuanzhoulvpi2017/zero_nlp
chatglm_finetuning:https://github.com/ssbuild######chatglm_finetuning:https://github.com/ssbuild######chatglm_finetuning:https://github。 /chatglm_finetuning######MoeChat:https://github.com/Fzoss/MoeChat######Alpaca: https://crfm.stanford.edu/2023/03/13/alpaca.html## ####LLAMA:https://github.com/facebookresearch/llama######

以上是'我用個人微信聊天記錄和部落格文章打造了自己的數位化克隆AI'的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述
本文轉載於:51CTO.COM。如有侵權,請聯絡admin@php.cn刪除
嘗試可靠的問答,抹布和信息提取的Teapotllm嘗試可靠的問答,抹布和信息提取的TeapotllmApr 25, 2025 am 10:45 AM

Teapotllm:一種輕巧,抗幻覺的語言模型 文本生成模型是用於研究和應用程序,利用體系結構,培訓和廣泛數據集的強大工具,可實現出色的功能。 Teapotai的開放式S

Devin 2.0中有什麼新功能?內部的完整故障Devin 2.0中有什麼新功能?內部的完整故障Apr 25, 2025 am 10:43 AM

Devin 2.0:通過AI徹底改變軟件開發 認知AI的Devin 2.0正在改變開發人員的工作方式。 Devin 2.0從其前身的重大升級具有提高的速度,效率和易用性。 這個AI驅動的工具str

AI藝術與人類藝術:吉卜力趨勢是致敬還是盜竊?AI藝術與人類藝術:吉卜力趨勢是致敬還是盜竊?Apr 25, 2025 am 10:37 AM

這場辯論始於Instagram視頻,批評將照片轉化為AI生成的吉卜力式藝術的病毒趨勢。視頻的創建者認為這是盜竊,這是一個不尊重的捷徑,破壞了真正的藝術家的作品。 他們聲稱

Google AI Studio的初學者指南Google AI Studio的初學者指南Apr 25, 2025 am 10:32 AM

解鎖Google AI Studio的力量:您的AI創新操場 Google AI Studio將您最瘋狂的技術夢想變成了現實,為人工智能世界提供了一個用戶友好的門戶。本指南揭開復雜機的神秘l

5個用於微調LLM的負擔得起的雲平台5個用於微調LLM的負擔得起的雲平台Apr 25, 2025 am 10:30 AM

微調大語言模型(LLM)很昂貴,需要強大的GPU和實質性的計算資源。 但是,負擔得起

DeepSeek V3 vs Llama 4:哪種模型統治至高無上? - 分析VidhyaDeepSeek V3 vs Llama 4:哪種模型統治至高無上? - 分析VidhyaApr 25, 2025 am 10:27 AM

在不斷發展的大語言模型的景觀中,DeepSeek V3 vs Llama 4已成為開發人員,研究人員和AI愛好者的最熱門對決之一。無論您是針對燃燒速度的輸液而優化

什麼是開源和開放重量模型?什麼是開源和開放重量模型?Apr 25, 2025 am 10:19 AM

DeepSeek模型和Google的Gemma 3強調了“開放” AI模型開發的增長趨勢,強調了出色的推理能力和輕量級設計。 Openai準備通過即將到來的Quo為這個生態系統做出貢獻

下一個項目的前13個高級抹布技術下一個項目的前13個高級抹布技術Apr 25, 2025 am 10:07 AM

AI可以大規模產生真正相關的答案嗎?我們如何確保它了解複雜的多轉交談?我們如何避免自信地吐出不正確的事實?這些是Mo的挑戰

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

SecLists

SecLists

SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。

SublimeText3 英文版

SublimeText3 英文版

推薦:為Win版本,支援程式碼提示!

Atom編輯器mac版下載

Atom編輯器mac版下載

最受歡迎的的開源編輯器

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境