使用llama.cpp在本地搭建vicuna 13B语言模型

使用llama.cpp在本地搭建vicuna 13B语言模型

    正在检查是否收录...
一言准备中...

有人做了windows下的脚本放到github上了,直接运行就可以了。我在本机试了一下13B的模型能运行,但生成速度非常慢,回复一个问题基本上要花5分钟以上的时间。我的机器配置 3900X 32G内存。

https://github.com/mps256/vicuna.ps1

githubgitwindows生成速度url
  • 本文作者:WAP站长网
  • 本文链接: https://wapzz.net/post-4141.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.7W+
9
1
2
WAP站长官方

图文教程:stable-diffusion的基本使用教程 txt2img(多图)

上一篇

LLM-LLaMA:使用Huggingface提供的脚本文件,对原始的LLaMA-13B转换为Huggingface的格式

下一篇
  • 复制图片
按住ctrl可打开默认菜单