LangChain+ChatGLM整合LLaMa模型(二)

LangChain+ChatGLM整合LLaMa模型(二)

    正在检查是否收录...

开源大模型语言LLaMa

LLaMa模型GitHub地址 添加LLaMa模型配置 启用LLaMa模型


LangChain+ChatGLM大模型应用落地实践(一)
LLaMa模型GitHub地址
git lfs clone https://huggingface.co/huggyllama/llama-7b 
添加LLaMa模型配置

在Langchain-ChatGLM/configs/model_config.py中llm_model_dict添加

"llama-7b": { "name": "llama-7b", "pretrained_model_name": "/home/user/data/your_path/llama-7b", "local_model_path": "/home/user/data/your_path/llama-7b", "provides": "LLamaLLMChain" } 
启用LLaMa模型

进入Web UI选择LLaMa模型

LLAMA-7B(中文提问当作翻译回答了…看来训练的中文语料不太行,但是英文也算是答对了)

具体为什么LLaMa为什么这样回答,等待后续。

llamacodegit大模型llmgithubchatlangchainidehuggingfaceweb开源大模型大模型应用cloneurl
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-306.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

Stable Diffusion 本地部署

上一篇

基于Amazon SageMaker平台部署Stable Diffusion模型实现——图片识别

下一篇
  • 复制图片
按住ctrl可打开默认菜单