智源发布FlagAttention算子集 适配多种大模型训练芯片

智源发布FlagAttention算子集 适配多种大模型训练芯片

    正在检查是否收录...
一言准备中...

为了满足大模型对计算资源的需求,智源研究院开发了 FlagAttention 项目,旨在构建一套适配多种芯片的大模型核心算子集合。

该项目选择使用 Triton 作为开发语言,通过 Triton 的开放性和易用性,使得 FlagAttention 不仅支持 NVIDIA GPU,还可以显著降低不同芯片之间模型适配的成本,提高大模型的训练与推理效率。

FlagAttention 目前包含两个算子:piecewise_attention 和 flash_attention。

其中,piecewise_attention 是针对长文本模型的分段式 Attention 算子,而 flash_attention 是基于 Triton 的高效 Multihead Attention 实现。

通过 FlagAttention,希望能够消除现有 AI 生态中的软件壁垒,让更广泛的模型用户能够使用到最新的模型优化技术。

未来,FlagAttention 还将支持更多功能,并与其他芯片厂商合作,优化算子的性能和适配。

项目地址:

https://github.com/FlagOpen/FlagAttention

https://github.com/FlagOpen/FlagAttention/issues

大模型githubgit多功能模型优化gpu易用性长文本项目选择计算资源nvidia gpuurl
  • 本文作者:WAP站长网
  • 本文链接: https://wapzz.net/post-2806.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.7W+
9
1
2
WAP站长官方

Bard isn’t currently supported in your country. Stay tuned!

上一篇

GTA6预告片播放过亿,AI三巨头也能秒变GTA匪帮

下一篇
  • 复制图片
按住ctrl可打开默认菜单