AI21发布世界首个Mamba的生产级模型Jamba 支持256K上下文长度

AI21发布世界首个Mamba的生产级模型Jamba 支持256K上下文长度

    正在检查是否收录...

AI21发布了世界首个Mamba的生产级模型:Jamba。这个模型采用了开创性的SSM-Transformer架构,具有52B参数,其中12B在生成时处于活动状态。Jamba结合了Joint Attention和Mamba技术,支持256K上下文长度。单个A10080GB最多可容纳140K上下文。与Mixtral8x7B相比,长上下文的吞吐量提高了3倍。

官网:https://top.aibase.com/tool/jamba

模型地址:https://huggingface.co/ai21labs/Jamba-v0.1

Jamba代表了在模型设计上的一大创新。它结合了Mamba结构化状态空间(SSM)技术和传统的Transformer架构的元素,弥补了纯SSM模型固有的局限。Mamba是一种结构化状态空间模型(Structured State Space Model, SSM),这是一种用于捕捉和处理数据随时间变化的模型,特别适合处理序列数据,如文本或时间序列数据。SSM模型的一个关键优势是其能够高效地处理长序列数据,但它在处理复杂模式和依赖时可能不如其他模型强大。

而Transformer架构是近年来人工智能领域最为成功的模型之一,特别是在自然语言处理(NLP)任务中。它能够非常有效地处理和理解语言数据,捕捉长距离的依赖关系,但处理长序列数据时会遇到计算效率和内存消耗的问题。

Jamba模型将Mamba的SSM技术和Transformer架构的元素结合起来,旨在发挥两者的优势,同时克服它们各自的局限。通过这种结合,Jamba不仅能够高效处理长序列数据(这是Mamba的强项),还能保持对复杂语言模式和依赖关系的高度理解(这是Transformer的优势)。这意味着Jamba模型在处理需要理解大量文本和复杂依赖关系的任务时,既能保持高效率,又不会牺牲性能或精度。

mbatransformer上下文结构化nlp人工智能自然语言自然语言处理语言处理高效率长上下文时间序列huggingface计算效率
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-12102.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

web前端框架设计第三课-基础特性

上一篇

大佬出走后首个发布!Stability官宣代码模型Stable Code Instruct 3B

下一篇
  • 复制图片
按住ctrl可打开默认菜单