哈嘍,大家好。
今天跟大家分享一個開源的大語言模型ChatGLM-6B。
十幾天的時間,就收穫了近 1w 個 star。
ChatGLM-6B 是一個開源的、支援中英雙語的對話語言模型,基於 General Language Model (GLM) 架構,具有 62 億參數。結合模型量化技術,使用者可以在消費級的顯示卡上進行本地部署(INT4 量化等級下最低只需 6GB 記憶體)。 ChatGLM-6B 使用了和 ChatGPT 相似的技術,針對中文問答和對話進行了最佳化。經過約 1T 標識符的中英雙語訓練,輔以監督微調、反饋自助、人類反饋強化學習等技術的加持,62 億參數的 ChatGLM-6B 已經能產生相當符合人類偏好的答案。
大家都可以裝在自己的電腦上運行下試試。獨顯最小顯存6G,CPU電腦也可以跑,但很慢。
專案目前只開源了模型和推理程式碼,並沒有開源模型的訓練。
運行項目,只需兩個
第一步,下載原始碼
git clone https://github.com/THUDM/ChatGLM-6B.git
執行pip install -r requirements.txt 安裝依賴
第二步,運行專案
python web_demo.py
執行後,會自動下載模型文件,大概4G 左右。
如果是GPU運行,預設情況下,模型運行顯存至少13G,如果顯存不夠,可以修改下 web_demo.py
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True) model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()
將上述程式碼的THUDM/chatglm-6b改為THUDM/chatglm-6b-int4,即:改用int4 量化後的模型,只要是顯存大於6g就可以順利運作。
如果報 CPU 記憶體不足,把其他軟體關一關,尤其是瀏覽器。
運行成功後, 會自動跳轉瀏覽器頁面,這時候就可以像ChatGPT一樣使用了。
下面是我本地運行的結果,大家可以看看與ChatGPT的差異
自我認知
寫提綱
寫郵件
#寫程式碼
############ ######角色扮演######專案運作還是很簡單的,大家可以跑跑試試。 ######如果大家覺得本文對你有用就點個 在看 鼓勵一下吧,我會持續分享優秀的 Python AI 專案。 ###以上是想不想把ChatGPT裝在自己電腦上?國產開源大語言模型 ChatGLM 幫你實現!的詳細內容。更多資訊請關注PHP中文網其他相關文章!