首頁 >後端開發 >Python教學 >製作我的第一個 AI 聊天應用程式:從 DevOps 學習透過 AI 與 Ollama 集成

製作我的第一個 AI 聊天應用程式:從 DevOps 學習透過 AI 與 Ollama 集成

Barbara Streisand
Barbara Streisand原創
2024-12-23 10:33:20286瀏覽

Making My First AI Chat App: Learning From DevOps Pass AI

我用作來源的部落格:

https://dev.to/devopspass-ai/workshop-make-your-first-ai-app-in-a-few-clicks-with-pythonollamallama3-31ib

發現 DevOps Pass AI 關於使用 Ollama 建立 AI 應用程式的指南後,我決定探索它的工作原理並記錄我的問題和學習過程。這是我在建立第一個 AI 聊天應用程式時發現的內容。

我最初的問題

當我第一次閱讀教學時,我想到了幾個問題:

  1. 為什麼要使用 Ollama 而不是直接 API 呼叫 OpenAI 或其他服務?
  2. 是什麼讓 Llama3 成為本地 AI 模型的好選擇?
  3. 聊天記錄持久化是如何運作的,為什麼它很重要?

讓我們回顧一下我在探索每個方面時學到的東西。

了解本地 AI 設定

我注意到的第一個有趣的事情是透過 Ollama 使用本地人工智慧。經過詢問和測試,我發現了一些主要優點:

  • 無 API 費用或使用限制
  • 完全隱私,因為一切都在本地運行
  • 初始模型下載後不依賴網路
  • 與 Llama3 的出色表現令人驚訝

設定過程很簡單:(Bash)

ollama 發球
llama 拉 llama3

我最初擔心 4.7GB 型號大小,但在我的連接上下載速度很快,即使在我的普通開發機器上也能順利運行。

探索聊天應用程式

最有趣的部分是聊天應用程式是多麼簡單但功能強大。讓我們來分解一下我對每個組件的了解:

聊天記錄管理

我特別好奇聊天記錄是如何運作的。程式碼使用了一種巧妙的方法:(python)

file_path = sys.argv[1] '.json'
if os.path.exists(file_path):
with open(file_path, 'r') as f:
messages = json.load(f)

這表示每個聊天會話都維護自己的歷史文件。我透過啟動多個對話來測試這一點:(Bash)

python app1.pycoding_help
python app1.py devops_queries

bash複製python app1.pycoding_help
python app1.py devops_queries
每個人都創建了自己的 JSON 文件,使對話保持獨立且持久。
AI 響應處理
引起我注意的一件事是流響應實作:
pythonCopystream = ollama.chat(
model='llama3',
訊息=訊息,
流=真,
)

對於流中的區塊:
print(chunk['message']['content'], end='',lush=True)
這給對話帶來了更自然的感覺,因為回應像人類打字一樣逐漸出現,而不是一次性全部出現。
測試不同的用例
我嘗試了各種類型的問題來了解模型的功能:

技術問題
複製>>如何設定 Kubernetes 監控?
回覆詳細且技術準確。
程式碼產生
複製>>寫一個Python函數來監控CPU使用率
它提供了工作代碼範例和解釋。
上下文對話
複製>>最佳實務是什麼?
該模型有效地保留了先前問題的上下文。

我對性能的了解
關於本地運行人工智慧的一些有趣的觀察:

啟動後第一次回應稍慢(模型預熱)
後續回覆很快
回應品質與許多基於雲端的服務相符
無需擔心節流或速率限制

我還有疑問
建立並測試應用程式後,我很好奇:

如何針對特定用例微調模型?
我們可以優化模型以獲得更快的回應嗎?
處理錯誤或意外回應的最佳方法是什麼?

結論:值得建造嗎?
嘗試此設定後,我想說如果您滿足以下條件,那麼絕對值得嘗試:

想要了解 AI 整合
需要注重隱私的人工智慧解決方案
對建立自訂 AI 工具感興趣
希望避免 AI 服務的 API 成本

學習曲線出奇的平緩,對於本地設定來說結果令人印象深刻。
社區問題

有其他人建置過類似的本地人工智慧應用程式嗎?
您還嘗試過 Ollama 的其他哪些款式?
您如何處理 AI 應用程式中的錯誤情況?

請在評論中告訴我 - 我特別有興趣了解不同的用例和改進!

以上是製作我的第一個 AI 聊天應用程式:從 DevOps 學習透過 AI 與 Ollama 集成的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn