我最近需要在工作中對特定用例的句子進行分類。記得 Jeremy Howard 的第 4 課:針對絕對初學者的 NLP 入門,我首先改編了他的筆記本來微調 DEBERTA。
它有效,但並不令我滿意,所以我很好奇如果我使用像 LLAMA 3 這樣的法學碩士會發生什麼。問題是什麼? GPU 資源有限。我只能存取 Tesla/Nvidia T4 實例。
研究讓我找到了 QLORA。這個關於使用 QLoRA 微調 LLama 3 LLM 進行股票情緒文字分類的教學特別有用。為了更好地理解本教程,我將第 4 課改編到了 QLORA 教程筆記本中。
QLORA 使用兩種主要技術:
這讓我能夠在 16GB VRAM T4 上訓練 LLAMA 3 8B,使用大約 12GB 的 VRAM。結果出奇的好,預測準確率超過90%。
Confusion Matrix: [[83 4] [ 4 9]] Classification Report: precision recall f1-score support 0.0 0.95 0.95 0.95 87 1.0 0.69 0.69 0.69 13 accuracy 0.92 100 macro avg 0.82 0.82 0.82 100 weighted avg 0.92 0.92 0.92 100 Balanced Accuracy Score: 0.8231653404067196 Accuracy Score: 0.92
這是一本詳細介紹流程的 iPython 筆記本。
這種方法顯示可以在有限的硬體上使用大型語言模型。在限制條件下工作通常會帶來創造性的問題解決和學習機會。在這種情況下,這些限制促使我去探索和實施更有效率的微調技術。
以上是以有限的資源微調 LLAMA 或文本分類的詳細內容。更多資訊請關注PHP中文網其他相關文章!