GpuMall智算云:meta-llama/llama3/Llama3-8B-Instruct-WebUI

GpuMall智算云:meta-llama/llama3/Llama3-8B-Instruct-WebUI

    正在检查是否收录...

LLaMA 模型的第三代,是 LLaMA 2 的一个更大和更强的版本。LLaMA 3 拥有 35 亿个参数,训练在更大的文本数据集上GpuMall智算云 | 省钱、好用、弹性。租GPU就上GpuMall,面向AI开发者的GPU云平台

Llama 3 的推出标志着 Meta 基于 Llama 2 架构推出了四个新的开放型大语言模型。这些模型分为两种规模:8B 和 70B 参数,每种规模都提供预训练基础版和指令调优版。所有版本均可在各种消费级硬件上运行,并具有 8000 Token 的上下文长度。

Meta-Llama-3-8b: 8B 基础模型#autodl#恒源云#矩池云#算力云#恒源云 实例迁移#autodl 官网#autodi#GpuMall#GPU云#AutoDL#AotuDL 算力云#GpuMall智算云#AI#大数据#算力租赁#大模型#深度学习#人工智能#算力变现
Meta-Llama-3-8b-instruct: 8B 基础模型的指令调优版
Meta-Llama-3-70b: 70B 基础模型
Meta-Llama-3-70b-instruct: 70B 基础模型的指令调优版

与 Llama 2 相比,Llama 3 最大的变化是采用了新的 Tokenizer,将词汇表大小扩展至 128,256(前版本为 32,000 Token)。这一更大的词汇库能够更高效地编码文本(无论输入还是输出),并有可能提升模型的多语种处理能力。不过,这也导致嵌入层的输入和输出矩阵尺寸增大,这是小型模型参数增加(从 Llama 2 的 7B 增至 Llama 3 的 8B)的主要原因之一。此外,8B 版本的模型现在采用了分组查询注意力(GQA),这是一种效率更高的表达方式,有助于处理更长的上下文。

创建实例

通过该模型创建实例,需要使用16G以上显存GPU,建议使用 3090 或 4090,否则因显存问题无法载入模型。

创建自定义端口

实例创建成功后,点击更多 - 创建自定义端口

输入7860端口(该端口为实例中 text-generation-webui 监听的端口)

端口重置成功后点击自定义端口7860,然后跳转到Llama3模型的web控制台

载入模型并使用

1.选择Model
2.切换模型为Meta-Llama-3-8B-Instruct
3.点击Load来加载模型
4.等待模型加载成功

切换到Chat,然后就可以开始与Meta-Llama-3-8b-instruct模型开始对话了。

llamagpullama 2基础模型token自定义gpu云web上下文ai开发文本数据大模型大语言模型深度学习语言模型webui小型模型预训练云平台数据集
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-15648.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

搭建和配置Stable Diffusion环境,超详细的本地部署教程

上一篇

Stable Diffusion【二次元模型】:超级出色的动漫大模型Animagine XL 3.1介绍

下一篇
  • 复制图片
按住ctrl可打开默认菜单