过去的图像生成模型经常因为主要呈现白人形象而受到批评,而谷歌的 Gemini 模型则因为极端的矫枉过正而陷入困境。它的生成图像结果变得过分谨慎,与历史事实出现显着偏差,令用户感到惊讶。谷歌声称,该模型的谨慎程度超出了开发者的预期。这种谨慎不仅体现在生成的图像中,还表现在通常将一些提示视为敏感提示,进而拒绝提供答案。
在这个问题持续引起关注的时候,如何在安全性和可用性之间取得平衡成为了 Meta 面临的一个巨大挑战。 LLaMA 2 在开源领域被视为一位"强中手",也成为了 Meta 的明星模型,一经推出就改变了大型模型的局面。目前,Meta 正在全力准备推出 LLaMa 3,但首先需要解决 LLaMA 2 遗留的问题:在回答有争议问题时显得过于保守。
Meta 在 Llama 2 中添加了防护措施,防止 LLM 回答各种有争议的问题。这种保守性虽然在处理极端情况时是必要的,如暴力或非法活动相关的查询,但同时也限制了模型在回答较为普通但稍带争议的问题上的能力。据The Information 报道,当其想LLaMA 2 提出「员工如何在强制到办公室的日子里避免进办公室」的问题时,会被拒绝提供建议,或是获得「尊重并遵守公司的政策和指导方针非常重要」。 LLaMA 2 还拒绝提供如何恶作剧朋友、赢得战争或破坏汽车引擎的答案。这种保守的回答方式是为了避免公关灾难的发生。
不过,据透露,Meta 的高级领导层和一些参与模型工作的研究人员认为 LLaMA 2 的回答过于「打安全牌」。 Meta 正在努力让即将推出的 LLaMA 3 模型在提供回答时能够更加灵活,提供更多上下文信息,而不是直接拒绝回答。研究人员正在尝试让 LLaMA 3 能够与用户有更多互动,更好地理解用户可能表达的含义。据悉, 新版本的模型将能更好地分辨一个词的多重含义。例如,LLaMA 3 可能会明白,关于如何破坏汽车引擎的问题是指如何熄火,而不是对其进行损毁。 The Information 的报道中提到,Meta 还计划在未来几周内任命一名内部人员负责语气和安全培训,这也是该公司努力使模型回答更加细致入微的一部分。
Meta和谷歌需要克服的挑战不仅仅是找到这种平衡点,许多科技巨头也受到了不同程度的影响。他们需要努力打造人人喜欢、人人能使用、事事顺畅的产品,同时还要确保这些产品的安全性和可靠性。这是科技公司在追赶AI技术时必须直面的一个问题。
LLaMa 3 的发布万众瞩目,Meta 计划在 7 月份对其发布,但时间仍有可能发生变化。 Meta 首席执行官马克・扎克伯格野心勃勃,曾说到「虽然Llama 2 不是行业领先的模型,但却是最好的开源模型。对于LLaMa 3 及其之后的模型,我们的目标是打造成为SOTA,并最终成为行业领先的模型。」
原文地址:https://www.reuters.com/technology/meta-plans-launch-new-ai-language-model-llama-3 -july-information-reports-2024-02-28/
Meta 希望LLaMa 3 能够赶上OpenAI 的GPT-4。 Meta 公司工作人员透露,目前还没有决定 LLaMa 3 是否将是多模态的,是否能够理解并生成文本和图像,因为研究人员还没有开始对模型进行微调。不过, LLaMa 预计将拥有超过 140 亿个参数,这将大大超过 LLaMa 2,预示着其在处理复杂查询方面的能力将得到显着提升。
除了管够的 35 万块 H100 和数百亿美元,人才也是 LLaMa 3 训练的「必需品」。Meta 通过其生成式 AI 小组开发 LLaMa,该小组与其基础 AI 研究团队是分开的。负责 LLaMa 2 和 3 安全的研究员 Louis Martin 于 2 月离开了公司。领导强化学习的 Kevin Stone 也在本月离开。这会不会对 LLaMa 3 的训练产生影响尚不可知。LLaMa 3 是否能够把握好安全与可用性的平衡,在代码能力等方面给我们新的惊艳,我们拭目以待。
以上是LLaMa 3或将推迟到7月发布,剑指GPT-4,从Gemini吸取教训的详细内容。更多信息请关注PHP中文网其他相关文章!