AI 模型系列的最新成员 Gemini 1.5 Flash-8B 现已全面投入生产使用。
Google 推出了更小、更快的 Gemini 1.5 Flash AI 模型,该模型已在 Google I/O 上发布,现已普遍用于生产使用。较小的模型称为 Gemini 1.5 Flash-8B,由于其速度快和推理延迟极低,因此可以更高效地生成输出。
根据 Google 的说法,Flash-8B AI 模型的每项智能成本是所有 Gemini 模型中最低的。该公司早些时候将 Gemini 1.5 Flash AI 模型提炼为更小的 Gemini 1.5 Flash-8B,旨在实现更快的处理速度和更高效的输出生成。现在,谷歌透露,这个较小版本的人工智能模型是由谷歌 DeepMind 几个月前开发的。
尽管尺寸较小,但这家科技巨头表示,新模型在多个基准测试中几乎与 1.5 Flash 模型相匹配,从简单的聊天到转录和长上下文语言翻译。
人工智能模型的主要优势是其成本效率。谷歌指出,Gemini 1.5 Flash-8B 将具有 Gemini 系列中最低的代币价格。开发者将被收取每 100 万个输出代币 0.15 美元(约 12.5 卢比)的费用,每 100 万个输入代币 0.0375 美元(约 3 卢比)的费用,以及每 100 万个缓存提示代币 0.01 美元(约 0.8 卢比)的费用。
此外,Google 还将 1.5 Flash-8B AI 模型的速率限制提高了一倍。使用此模型时,开发人员现在每分钟最多可以发送 4,000 个请求 (RPM)。据这家科技巨头称,该模型非常适合简单、大批量的任务。开发者可以通过 Google AI Studio 和 Gemini API 免费试用该模型。
以上是Gemini 1.5 Flash-8B AI模型现已上市的详细内容。更多信息请关注PHP中文网其他相关文章!