单个消费级GPU笔记本win电脑测试LLaMA模型

单个消费级GPU笔记本win电脑测试LLaMA模型

    正在检查是否收录...
一言准备中...

1、LLaMa模型代码:

      GitHub - facebookresearch/llama: Inference code for LLaMA models

      不同模型对参数规模要求不同,有7B、13B、30B(33B)和65B四个数据规模。

Model MP 7B 1 13B 2 30B(33B) 4 65B 8

2、环境检查

  (1)、检查CUDA环境是否已安装(没有的话先安装CUDA):

 (2)、检查是否已安装Pytorch(没有的话先安装Pytorch):

3、LLaMa模型下载:

  (1)、7B模型:

      nyanko7/LLaMA-7B at main (huggingface.co)

  (2)、13B模型:

llamapytorchokrgithubfacebookgithuggingfacecodeurl
  • 本文作者:WAP站长网
  • 本文链接: https://wapzz.net/post-2254.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.7W+
9
1
2
WAP站长官方

基于stable diffusion的艺术操作

上一篇

Midjourney参数详解

下一篇
  • 复制图片
按住ctrl可打开默认菜单