我用作來源的部落格:
https://dev.to/devopspass-ai/workshop-make-your-first-ai-app-in-a-few-clicks-with-pythonollamallama3-31ib
發現 DevOps Pass AI 關於使用 Ollama 建立 AI 應用程式的指南後,我決定探索它的工作原理並記錄我的問題和學習過程。這是我在建立第一個 AI 聊天應用程式時發現的內容。
我最初的問題
當我第一次閱讀教學時,我想到了幾個問題:
讓我們回顧一下我在探索每個方面時學到的東西。
了解本地 AI 設定
我注意到的第一個有趣的事情是透過 Ollama 使用本地人工智慧。經過詢問和測試,我發現了一些主要優點:
設定過程很簡單:(Bash)
ollama 發球
llama 拉 llama3
我最初擔心 4.7GB 型號大小,但在我的連接上下載速度很快,即使在我的普通開發機器上也能順利運行。
探索聊天應用程式
最有趣的部分是聊天應用程式是多麼簡單但功能強大。讓我們來分解一下我對每個組件的了解:
聊天記錄管理
我特別好奇聊天記錄是如何運作的。程式碼使用了一種巧妙的方法:(python)
file_path = sys.argv[1] '.json'
if os.path.exists(file_path):
with open(file_path, 'r') as f:
messages = json.load(f)
這表示每個聊天會話都維護自己的歷史文件。我透過啟動多個對話來測試這一點:(Bash)
python app1.pycoding_help
python app1.py devops_queries
bash複製python app1.pycoding_help
python app1.py devops_queries
每個人都創建了自己的 JSON 文件,使對話保持獨立且持久。
AI 響應處理
引起我注意的一件事是流響應實作:
pythonCopystream = ollama.chat(
model='llama3',
訊息=訊息,
流=真,
)
對於流中的區塊:
print(chunk['message']['content'], end='',lush=True)
這給對話帶來了更自然的感覺,因為回應像人類打字一樣逐漸出現,而不是一次性全部出現。
測試不同的用例
我嘗試了各種類型的問題來了解模型的功能:
技術問題
複製>>如何設定 Kubernetes 監控?
回覆詳細且技術準確。
程式碼產生
複製>>寫一個Python函數來監控CPU使用率
它提供了工作代碼範例和解釋。
上下文對話
複製>>最佳實務是什麼?
該模型有效地保留了先前問題的上下文。
我對性能的了解
關於本地運行人工智慧的一些有趣的觀察:
啟動後第一次回應稍慢(模型預熱)
後續回覆很快
回應品質與許多基於雲端的服務相符
無需擔心節流或速率限制
我還有疑問
建立並測試應用程式後,我很好奇:
如何針對特定用例微調模型?
我們可以優化模型以獲得更快的回應嗎?
處理錯誤或意外回應的最佳方法是什麼?
結論:值得建造嗎?
嘗試此設定後,我想說如果您滿足以下條件,那麼絕對值得嘗試:
想要了解 AI 整合
需要注重隱私的人工智慧解決方案
對建立自訂 AI 工具感興趣
希望避免 AI 服務的 API 成本
學習曲線出奇的平緩,對於本地設定來說結果令人印象深刻。
社區問題
有其他人建置過類似的本地人工智慧應用程式嗎?
您還嘗試過 Ollama 的其他哪些款式?
您如何處理 AI 應用程式中的錯誤情況?
請在評論中告訴我 - 我特別有興趣了解不同的用例和改進!
以上是製作我的第一個 AI 聊天應用程式:從 DevOps 學習透過 AI 與 Ollama 集成的詳細內容。更多資訊請關注PHP中文網其他相關文章!