Fastgpt接入Whisper本地模型实现语音输入

Fastgpt接入Whisper本地模型实现语音输入

    正在检查是否收录...

前言

FastGPT 默认使用了 OpenAI 的 LLM 模型和语音识别模型,如果想要私有化部署的话,可以使用openai 开源模型Whisper。参考文章 《openai 开源模型Whisper语音转文本模型下载使用》

开源项目地址 :
兼容openai接口api服务 https://gitee.com/taisan/whisper-api

设置安全凭证(即oneapi中的渠道密钥)

默认值:sk-tarzan
也可以通过环境变量引入:sk-key。有关docker环境变量引入的方法请自寻教程,此处不再赘述。
接入 One API
为 Whisper1添加一个渠道,参数如下:

接入 FastGPT

修改 config.json 配置文件,在 llmModels 中加入 qwen-plus, 在 vectorModels 中加入 M3E 模型, 在 whisperModel中加入 openai的开源模型Whisper :

{ 

总结

### 文章总结
#### 概述
本文提供了关于如何在FastGPT中集成openai的开源语音转文本模型Whisper的指南。文中首先提及了FastGPT默认使用的技术栈,随后详细介绍了如何设置安全凭证、接入One API服务,并最终说明了如何在FastGPT的配置文件中添加Whisper模型。
#### 主要内容
1. **技术背景**:
- FastGPT默认使用了OpenAI的LLM(大型语言模型)和语音识别模型。
- 如需私有化部署,推荐使用OpenAI的开源模型Whisper。
2. **Whisper模型集成**:
- 提供了Whisper模型的开源项目地址,该项目兼容openai接口api服务。
3. **设置安全凭证**:
- 介绍了如何设置安全凭证(即oneapi中的渠道密钥),包括默认值(sk-tarzan)和通过环境变量(sk-key)引入的方式。
4. **接入FastGPT**:
- 修改config.json配置文件,向其中添加特定的模型信息,包括在`llmModels`中加入`qwen-plus`,在`vectorModels`中加入`M3E`模型,以及在`whisperModel`中加入openai的开源模型Whisper。
#### 结论
通过本文的指南,读者可以了解到如何在FastGPT中集成openai的开源语音转文本模型Whisper,包括设置安全凭证和修改配置文件等关键步骤。这为希望在FastGPT中使用最新技术的开发者提供了有价值的参考。 whisperopenaigptapi开源模型llmapi服务语音转文本mmojson开源项目语音识别cto开发者git技术栈docker大型语言模型语言模型doc
  • 本文作者:WAP站长网
  • 本文链接: https://wapzz.net/post-18083.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.8W+
9
1
2
WAP站长官方

第二节:stable diffusion基本界面和操作流程

上一篇

AI绘画变现之MJ制作表情包(附教程)

下一篇
  • 复制图片
按住ctrl可打开默认菜单