LLMs之RAG:只需四步骤—基于Ollama后端框架(配置phi3/LLaMA-3模型)结合Dify前端框架(设置知识库文件+向量化存储+应用发布)创建包括实现本地知识库问答/翻译助手等多个应用

LLMs之RAG:只需四步骤—基于Ollama后端框架(配置phi3/LLaMA-3模型)结合Dify前端框架(设置知识库文件+向量化存储+应用发布)创建包括实现本地知识库问答/翻译助手等多个应用

    正在检查是否收录...
一言准备中...

LLMs之RAG:基于Ollama后端框架(配置phi3/LLaMA-3模型)结合Dify前端框架(设置知识库文件+向量化存储+应用发布)创建包括实现本地知识库问答/翻译助手等多个应用

目录

基于Ollama后端框架(配置phi3/LLaMA-3模型)结合Dify前端框架(设置知识库文件+向量化存储+应用发布)创建包括实现本地知识库问答/翻译助手等多个应用

1、配置依赖

1.1、安装Docker和Docker Compose,

1.2、安装并配置Ollama

1.3、打开Dify界面并配置模型

2、创建模型基于RAG的对话应用

2.1、配置模型

2.2、创建知识库并向量化存储

2.3、创建应用并发布

2.4、基于知识库进行对话测试

基于Ollama后端框架(配置phi3/LLaMA-3模型)结合Dify前端框架(设置知识库文件+向量化存储+应用发布)创建包括实现本地知识库问答/翻译助手等多个应用

1、配置依赖

1.1、安装Docker和Docker Compose,

安装

安装Docker和Docker Compose

参考A3、Windows11系统安装→交互式安装即可,一次性安装Docker和Docker Compose

地址:​​​​​​​Docker:Docker的简介、安装、使用方法之详细攻略_docker 知乎-CSDN博客

1.2、安装并配置Ollama

安装并配置Ollama

安装并配置Ollama参考

地址:LLM之Ollama:ollama的简介、安装和使用方法、案例应用之详细攻略_ollama中文说明书-CSDN博客

​​​​​​​地址02:https://yunyaniu.blog.csdn.net/article/details/138235781

1.3、打开Dify界面并配置模型

安装并启动Dify

参考——1、Dify的安装和启动

地址:LLMs之Dify:Dify的简介、安装和使用方法、案例应用之详细攻略-CSDN博客

打开界面

浏览器中访问http://localhost/install并开始初始化过程,设置账号,之后用此账号登录。

地址:http://localhost/install

2、创建模型基于RAG的对话应用

2.1、配置模型

配置模型

模型名称:phi3:latest

容器地址:http://host.docker.internal:11434

2.2、创建知识库并向量化存储

点击知识库→创建知识库→添加PDF资料→保存并处理

2.3、创建应用并发布

创建应用→设置角色→添加知识库资料→并设置提示词→选择大语言模型→依次点击更新→发布→Start Chat即可!

2.4、基于知识库进行对话测试

llama知识库docdocker知识库问答rag翻译助手llmllmslmschat交互式浏览器提示词windowspdf语言模型大语言模型
  • 本文作者:WAP站长网
  • 本文链接: https://wapzz.net/post-15567.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.7W+
9
1
2
WAP站长官方

盘点近一年大火的AI滤镜,聊聊创作爆款AI内容的规律

上一篇

74cms爬虫技术深探与应用分析

下一篇
  • 复制图片
按住ctrl可打开默认菜单