为了挑战 OpenAI 的 GPT-3.5 和 GPT-4 等封闭模型的主导地位,一系列开源模型正在崛起,其中包括 LLaMa、Falcon 等。最近,Meta AI 推出了被誉为开源领域最强大模型的 LLaMa-2,许多研究者也在此基础上构建自己的模型。例如,StabilityAI 利用 Orca 风格的数据集对 Llama2 70B 模型进行微调,开发出了 StableBeluga2,在 Huggingface 的 Open LLM 排行榜上也取得了不错的成绩
最新的Open LLM榜单排名已经发生了变化,Platypus(鸭嘴兽)模型成功登上了榜首
作者来自波士顿大学,使用了PEFT、LoRA和数据集Open-Platypus对Platypus进行了基于Llama 2的微调优化
作者在一篇论文中详细介绍了Platypus
这篇论文可以在以下网址找到:https://arxiv.org/abs/2308.07317
以下是本文的主要贡献:
作者目前已在 Hugging Face 上发布了 Open-Platypus 数据集
为了避免基准测试问题泄漏到训练集中,本文方法首先考虑防止此问题,以确保结果不仅仅是通过记忆产生的偏差。作者在追求准确性的同时,也意识到在标记请再说一次问题时需要灵活性,因为问题的提出方式多种多样,同时还会受到通用领域知识的影响。为了管理潜在的泄漏问题,作者精心设计了启发式方法,用于手动过滤与 Open-Platypus 中基准问题余弦嵌入相似度超过80%的问题。他们将潜在泄漏问题分为三类:(1) 请再说一次问题;(2) 重新描述: 这个区域呈现出灰色的色调问题;(3) 类似但不完全相同的问题。为了谨慎起见,他们将所有这些问题都排除在训练集之外
请再说一次
这段文字几乎完全复制了测试题集的内容,只是对单词进行了轻微修改或重新排列。根据上表中泄漏问题的数量,作者认为这是唯一属于污染的类别。以下是具体例子:
重新描述: 这个区域呈现出灰色的色调
以下问题被称为重新描述: 这个区域呈现出灰色的色调,包括并非完全请再说一次、属于常识范畴的问题。虽然作者将这些问题的最终评判权留给了开源社区,但他们认为这些问题往往需要专家知识。需要注意的是,这类问题包括指令完全相同,但答案却同义的问题:
类似但不完全相同
这些问题的具有较高的相似度,但由于问题之间有着细微的变化,在答案上存在着显着差异。
作者在数据集完善后,专注于两种方法:低秩近似(LoRA)训练和参数高效微调(PEFT)库。与完全微调不同,LoRA保留了预训练模型的权重,并在transformer层中使用秩分解矩阵进行整合,从而减少了可训练参数,节省了训练时间和成本。最初,微调主要集中在注意力模块,如v_proj、q_proj、k_proj和o_proj。随后,根据He等人的建议,扩展到gate_proj、down_proj和up_proj模块。除非可训练参数小于总参数的0.1%,否则这些模块都表现出更好的效果。作者对13B和70B模型都采用了这种方法,结果可训练参数分别为0.27%和0.2%。唯一的区别在于这些模型的初始学习率
根据2023年8月10日Hugging Face Open LLM排行榜数据,作者对Platypus与其他SOTA模型进行了比较,发现Platypus2-70Binstruct变体表现出色,以73.13的平均分稳居榜首
Stable-Platypus2-13B 模型在130 亿参数模型中以63.96 的平均分脱颖而出,值得关注
Platypus, as a fine-tuned extension of LLaMa-2, retains many of the constraints of the base model and introduces specific challenges through targeted training. It shares the static knowledge base of LLaMa-2, which may become outdated. Additionally , there is a risk of generating inaccurate or inappropriate content, particularly in cases of unclear prompts. While Platypus has been enhanced in STEM and English logic, its proficiency in other languages is not reliable and may be inconsistent. It occasionally produces biased or harmful content . The author acknowledges efforts to minimize these issues but acknowledges the ongoing challenges, particularly in non-English languages.
对于Platypus 的滥用可能性,这是一个令人担忧的问题,因此在部署之前开发人员应对其应用程序进行安全测试。 Platypus 在其主要领域之外可能存在一些限制,因此用户应小心操作,并考虑进行额外的微调以获得最佳性能。用户需要确保 Platypus 的训练数据与其他基准测试集没有重叠。作者对数据污染问题非常谨慎,避免将模型与在有污点的数据集上训练的模型合并。虽然经过清理的训练数据中确认没有污染,但也不能排除可能有一些问题被忽略。如需详细了解这些限制,请参阅论文中的限制部分
以上是Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了的详细内容。更多信息请关注PHP中文网其他相关文章!