首页 >科技周边 >人工智能 >Jamba 1.5:具有混合Mamba-Transformer架构

Jamba 1.5:具有混合Mamba-Transformer架构

William Shakespeare
William Shakespeare原创
2025-03-19 11:15:13539浏览

JAMBA 1.5:一种强大的混合语言模型,用于长篇文化处理

Jamba 1.5是AI21实验室的尖端大语言模型,具有令人印象深刻的处理能力,可处理广泛的文本上下文。有两个版本可供选择:Jamba 1.5大型(940亿参数)和Jamba 1.5 Mini(120亿个参数) - 它利用了将MAMBA结构化状态空间模型(SSM)与传统变压器结构相结合的独特混合体系结构。这种创新的方法可以处理空前的256K有效上下文窗口,这是开源模型的重大飞跃。

Jamba 1.5:具有混合Mamba-Transformer架构

关键功能:

  • 庞大的上下文窗口:最多256K令牌的过程,非常适合冗长的文档和复杂的任务。
  • 混合体系结构:结合了变压器和MAMBA模型的优势,以获得最佳效率和性能。
  • 有效的量化:利用专家量定量化来减少记忆足迹和更快的处理。
  • 多语言支持:跨九种语言有效地发挥作用:英语,西班牙语,法语,葡萄牙语,意大利语,荷兰语,德语,阿拉伯语和希伯来语。
  • 多功能应用程序:适用于广泛的NLP任务,包括问答,摘要,文本生成和分类。
  • 可访问的部署:可通过AI21的Studio API,拥抱的脸和云合作伙伴获得。

建筑细节:

Jamba 1.5:具有混合Mamba-Transformer架构

方面 细节
基础体系结构 混合变压器 - 曼巴(Mamba
模型变体 jamba-1.5大(94B活动参数,总计398b)和jamba-1.5-mini(12B活动参数,总计52B)
层组成 9个街区,每个街区有8层; 1:7变压器与曼巴层的比率
专家的混合物(MOE) 16位专家,选择每个令牌的前2个
隐藏的尺寸 8192
注意力头 64个查询头,8个钥匙值头
上下文长度 多达256K令牌
量化技术 MOE和MLP层的ExpertsInt8
激活功能 集成的变压器和MAMBA激活
效率 在8x80GB GPU上针对高吞吐量和低潜伏期进行了优化

访问和利用Jamba 1.5:

Jamba 1.5很容易通过AI21的工作室API和拥抱的脸访问。该模型可以针对特定域进行微调,以进一步提高性能。下面提供了使用AI21 API的Python示例:

Python示例:

从AI21导入AI21Client
来自AI21.models.Chat Import Chatmessage

消息= [ChatMessage(content =“ 2-3行中的令牌是什么?
客户端= ai21client(api_key ='')#替换'用API键
响应= client.chat.completions.create(
    消息=消息,
    型号=“ jamba-1.5-mini”,
    流= true
)
零件回应:
    打印(块。 

Jamba 1.5:具有混合Mamba-Transformer架构Jamba 1.5:具有混合Mamba-Transformer架构Jamba 1.5:具有混合Mamba-Transformer架构

结论:

Jamba 1.5代表了大型语言模型的重大进步,提供了强大的功率和效率融合。它处理异常长上下文的能力,再加上其多功能应用程序和可访问的部署选项,使其成为多种NLP任务的宝贵工具。

常见问题(常见问题解答):(类似于原始问题,但出于简洁而改写)

  • Q1:什么是Jamba 1.5?答:具有94B(大)或12B(mini)参数的混合变压器 - 曼巴(Mamba)大型语言模型,优化了用于遵循和长篇文章处理的说明。
  • Q2:Jamba 1.5如何有效地处理长上下文?答:通过其混合体系结构和ExpertsInt8量化,启用了256K令牌上下文窗口,并减少了内存使用情况。
  • Q3:什么是expertsint8量化?答:使用MOE和MLP层中INT8精度的压缩技术,以提高效率。
  • 问题4:Jamba 1.5公开可用吗?答:是的,在Jamba Open Model许可下,可以通过拥抱脸访问。

以上是Jamba 1.5:具有混合Mamba-Transformer架构的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn