Llama中文大模型-模型预训练

Llama中文大模型-模型预训练

    正在检查是否收录...

Atom系列模型包含Atom-7B和Atom-13B,基于Llama2做了中文能力的持续优化。Atom-7B和Atom-7B-Chat目前已完全开源,支持商用,可在Hugging Face仓库获取模型:https://huggingface.co/FlagAlpha

大规模的中文数据预训练

原子大模型Atom在Llama2的基础上,采用大规模的中文数据进行持续预训练,包含百科、书籍、博客、新闻、公告、小说、金融数据、法律数据、医疗数据、代码数据、专业论文数据、中文自然语言处理竞赛数据集等,详见? 数据来源。

同时对庞大的数据进行了过滤、打分、去重,筛选出超过1T token的高质量中文数据,持续不断加入训练迭代中。

更高效的中文词表

为了提高中文文本处理的效率,我们针对Llama2模型的词表进行了深度优化。首先,我们基于数百G的中文文本,在该模型词表的基础上扩展词库至65,000个单词。经过测试,我们的改进使得中文编码/解码速度提高了约350%。此外,我们还扩大了中文字符集的覆盖范围,包括所有emoji符号?。这使得生成带有表情符号的文章更加高效。

自适应上下文扩展

Atom大模型默认支持4K上下文,利用位置插值PI和Neural Tangent Kernel (NTK)方法,经过微调可以将上下文长度扩增到32K。

? 中文数据

通过以下数据来优化Llama2的中文能力:

类型

描述

网络数据

互联网上公开的网络数据,挑选出去重后的高质量中文数据,涉及到百科、书籍、博客、新闻、公告、小说等高质量长文本数据。

Wikipedia

中文Wikipedia的数据

悟道

中文悟道开源的200G数据

Clue

Clue开放的中文预训练数据,进行清洗后的高质量中文长文本数据

竞赛数据集

近年来中文自然语言处理多任务竞赛数据集,约150个

MNBVC

MNBVC 中清洗出来的部分数据集

社区提供预训练版本Atom-7B和基于Atom-7B进行对话微调的模型参数供开放下载,关于模型的进展详见社区官网https://llama.family。

llama预训练高质量llama2数据集上下文语言处理文本数据自然语言处理自然语言长文本wikipedia大模型金融数据token医疗数据多任务hugging faceemojihuggingface
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-15187.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

GenAI与数据保护:对雇主来说最大的风险是什么?

上一篇

深入解析“boaphp爬虫”:原理、应用与未来趋势

下一篇
  • 复制图片
按住ctrl可打开默认菜单