大模型那么火,教你一键Modelarts玩转开源LlaMA(羊驼)大模型

大模型那么火,教你一键Modelarts玩转开源LlaMA(羊驼)大模型

    正在检查是否收录...
一言准备中...

图1.1 GPT-2 模型结构

关于训练集,其来源都是公开数据集,无任何定制数据集,保证了其工作与开源兼容和可复现。整个训练数据集在 token 化之后大约包含 1.4T 的 token。其中,LLaMA-65B 和 LLaMA-33B 是在 1.4万亿个 token 上训练的,而最小的模型 LLaMA-7B 是在 1万亿个 token 上训练的。LLaMA 优势在于其只使用公开可用的数据,这可以保证论文的工作与开源兼容和可复现。之前的大模型要么使用了不公开的数据集去训练从而达到了 state-of-the-art,如 Chinchilla、PaLM 或 GPT-3;要么使用了公开数据集,但模型效果不是最佳无法和 PaLM-62B 或 Chinchilla 相竞争,如 OPT、GPT-NeoX、BLOOM 和 GLM。

和 GPT 系列一样,LLaMA 模型也是 Decoder-only 架构,但结合前人的工作做了一些改进,比如:

Pre-normalization [GPT3]. 为了提高训练稳定性,LLaMA 对每个 transformer 子层的输入进行归一化,使用 RMSNorm 归一化函数,Pre-normalization 由Zhang和Sennrich(2019)引入。 SwiGLU 激活函数 [PaLM]. 将 ReLU 非线性替换为 SwiGLU 激活函数,且使用2/3*4D而不是 PaLM 论文中的 4d,SwiGLU 由 Shazeer(2020)引入以提高性能。 Rotary Embeddings [GPTNeo]. 模型的输入不再使用 positional embeddings,而是在网络的每一层添加了 positional embeddings (RoPE),RoPE 方法由Su等人(2021)引入。

不同模型的超参数详细信息在表2中给出,具体可以去看看我上篇文章,

具体怎么在华为云的ModelArts上玩转LLAMA开源大模型呢?

前期准备:

1.登录华为云官方账号:

点击右上角“控制台”,搜索栏输入“ModelArts”

点击“AI Gallery“,选择“北京四”区域,

点击"资产集市--Notebook",输入“Mindformers应用之LLaMA_7B推理应用”

点击“Run in ModelArts”,进入,

1. 安装MindFormers开发套件

 %cd /home/ma-user/work !git clone -b r0.6 https://gitee.com/mindspore/mindformers.git Cloning into 'mindformers'... remote: Enumerating objects: 21732, done. remote: Counting objects: 100% (437/437), done. remote: Compressing objects: 100% (330/330), done. remote: Total 21732 (delta 262), reused 190 (delta 107), pack-reused 21295 Receiving objects: 100% (21732/21732), 37.74 MiB | 3.73 MiB/s, done.

编译代码

 %cd mindformers !bash build.sh %cd .. /home/ma-user/work/mindformers ---------------- MindFormers: build start ---------------- running bdist_wheel running build running build_py creating build/lib/mindformers copying mindformers/__init__.py -> build/lib/mindformers copying mindformers/auto_class.py -> build/lib/mindformers copying mindformers/mindformer_book.py -> build/lib/mindformers creating build/lib/mindformers/core copying mindformers/core/__init__.py -> build/lib/mindformers/core copying mindformers/core/clip_grad.py -> build/lib/mindformers/core copying mindformers/core/parallel_config.py -> build/lib/mindformers/core creating build/lib/mindformers/dataset ........ 

2.下载LLaMA模型和tokenizer

 %cd /home/ma-user/work/mindformers import moxing as mox mox.file.copy_parallel('obs://modelarts-labs-bj4-v2/case_zoo/Mindfomer_LLaMA/', 'checkpoint_download/llama') 

3.推理-使用pipeline接口开启快速推理

 from mindformers.pipeline import pipeline pipeline_task = pipeline("text_generation", model='llama_7b', max_length=20) pipeline_result = pipeline_task("I love Beijing, because", top_k=3) print(pipeline_result)

- 当我输入提示词:

 text_generation_text': I love Beijing, because 

通过LLaMA_7B模型推理可以快速输出:

 ['I love Beijing, because it is a city that is constantly changing.\nI love the city'] 

赶紧来点击试一试,体验下自己写代码调用LLAMA_7B开源大模型的魅力吧!!

点击关注,第一时间了解华为云新鲜技术~

llamacodegpt数据集tokenpalm大模型gitelt开源大模型urlclone训练数据集模型推理xinggpt3clip提示词训练数据稳定性cli高性能transformergpt-3bash
  • 本文作者:WAP站长网
  • 本文链接: https://wapzz.net/post-3622.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.7W+
9
1
2
WAP站长官方

速度暴涨1000倍!扩散模型预测材料“炼金”过程,体系越复杂加速度越大

上一篇

无需下载客户端!AI图片处理工具Inpaint-web 支持高清修复和图片局部清除

下一篇
  • 复制图片
按住ctrl可打开默认菜单