首頁 >科技週邊 >人工智慧 >微調Gemma 2並在本地使用

微調Gemma 2並在本地使用

Jennifer Aniston
Jennifer Aniston原創
2025-03-05 10:01:10413瀏覽

>本教程在患者doctor對話數據集上演示了Google的Google的Gemma 2模型,並將其部署以供離線使用。 我們將介紹模型準備,與LORA進行微調,模型合併,量化和與JAN應用程序的本地部署。

Fine-Tuning Gemma 2 and Using it Locally

了解Gemma 2

Google 2 Gemma 2,Google最新的開源大語言模型(LLM),在允許許可下提供9B和27B參數版本。其改進的體系結構為各種硬件提供了更快的推斷,與擁抱面孔,JAX,Pytorch和Tensorflow無縫集成。 還包括增強的安全功能和道德AI部署工具。

>

Fine-Tuning Gemma 2 and Using it Locally

>

>訪問和運行Gemma 2

本節詳細詳細介紹了使用4位量化的下載和運行推斷(對於消費者硬件上的內存效率所必需)。

  1. >安裝軟件包: install bitsandbytestransformersaccelerate

  2. >擁抱面部身份驗證:

    使用擁抱的臉象徵(從您的擁抱臉部帳戶中獲得)進行身份驗證。 >

  3. >
  4. 加載模型和代幣器:

    使用4位量化和適當的設備映射加載>模型。 google/gemma-2-9b-it

  5. 推理:

    創建一個提示,將其引起,生成響應並解碼。 >

Fine-Tuning Gemma 2 and Using it Locally

Fine-Tuning Gemma 2 and Using it Locally >

> lora

微調gemma 2 >本節使用LORA(低級適應)在醫療保健數據集上引導您進行微調Gemma 2,以進行有效的培訓。

>

  1. > setup:

    安裝必需的軟件包(transformersdatasetsacceleratepefttrlbitsandbyteswandb)。 通過擁抱的臉,體重和偏見進行身份驗證。

  2. 模型和令牌加載:帶有4位量化的Load Gemma 2(9b-it),根據您的GPU功能調整數據類型和注意力實現。 配置Lora參數。

  3. >>數據集加載:> load and preprocess 數據集,創建適用於模型的聊天格式。 >

  4. > 訓練:設置訓練參數(根據需要調整超參數),並使用SFTTrainer訓練模型。 監控培訓進度與重量和偏見。

Fine-Tuning Gemma 2 and Using it Locally

Fine-Tuning Gemma 2 and Using it Locally

  1. >評估:>完成重量和偏見以生成評估報告。

  2. >

    保存模型:在本地保存微調的洛拉適配器,然後將其推到擁抱的臉上輪轂上。 >

Fine-Tuning Gemma 2 and Using it Locally

合併適配器和基本模型>

>此步驟將微調的洛拉適配器與基本gemma 2模型合併為單個可部署模型。 這是在CPU上進行的,以管理內存約束。

  1. >

    >設置:創建一個新筆記本(基於CPU),安裝必要的軟件包,並用擁抱的臉進行身份驗證。

  2. 加載和合併:>加載基本模型和保存的適配器,然後使用>。 PeftModel.merge_and_unload()合併它們

  3. 保存並推動:在本地保存合併的模型和令牌,然後將它們推到擁抱的面樞紐。

Fine-Tuning Gemma 2 and Using it Locally

>用擁抱的臉部空間進行量化

>使用GGUF我的倉庫擁抱面部空間,輕鬆將模型轉換為GGUF格式以進行最佳本地部署。

Fine-Tuning Gemma 2 and Using it Locally

>使用JAN本地的微調模型

  1. >下載並安裝JAN應用程序。

  2. >從擁抱式樞紐下載量化的模型。

    >

  3. >將模型加載在JAN中,調整參數(停止序列,懲罰,最大令牌,指令),並與微型模型進行交互。

Fine-Tuning Gemma 2 and Using it Locally

結論

本教程提供了一個綜合指南,以進行微調和部署Gemma 2。請記住,請根據您的硬件和數據集調整超參數和設置。 考慮探索Keras 3進行潛在的更快的訓練和推理。

>

以上是微調Gemma 2並在本地使用的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn