【AI】本地部署可以与文件沟通的GPT:Llama 2 + GPT4All + Chroma

【AI】本地部署可以与文件沟通的GPT:Llama 2 + GPT4All + Chroma

    正在检查是否收录...
一言准备中...

【背景】

还是继续致力于实践可以保护数据隐私的本地化LLM部署。
这次用的是Llama 2 + GPT4All + Chroma实现RAG。

【概念】

基于LangChain模板的各个部分的作用:

Llama2-》语言模型管理 GPT4ALL-》embedding Chroma-》文件内容的向量存储,作为内部知识库,不需要网络就可以存储。

【环境构建】

安装Ollama
在Linux或Windows的WSL下,使用命令:
curl https://ollama.ai/install.sh | sh 
利用Ollama下载一款LLM模型
比如,下载一个llama2 7b chat模型:
ollama pull llama2:7b-chat 
安装LangChain命令行工具CLI:
pip install -U langchain-cli 

llamallama2langchainchromallmgpt4allcligpt4chatgpturl向量存储linuxllama 2知识库内部知识库rag模型管理命令行工具命令行
  • 本文作者:WAP站长网
  • 本文链接: https://wapzz.net/post-15969.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.7W+
9
1
2
WAP站长官方

SD有了这8个插件,stable diffusion才真的是无敌存在!

上一篇

Midjourney 参数详解(MJ参数)

下一篇
  • 复制图片
按住ctrl可打开默认菜单