重磅!Ollama发布UI界面,告别命令窗口!

重磅!Ollama发布UI界面,告别命令窗口!

    正在检查是否收录...

Ollama 终于提供 UI 界面了,再也不用在命令窗口中使用了,如下图所示:

重磅!Ollama发布UI界面,告别命令窗口!

什么是Ollama?

Ollama 是一个开源的大型语言模型服务工具。它的主要作用是

帮助用户快速在本地运行大模型

,简化了在 Docker 容器内部署和管理大语言模型(LLM)的过程。

PS:Ollama 就是大模型届的“Docker”,

使用它可以低成本使用大模型(无需调用费用),并且因为是本地部署的大模型,所以不会存在数据隐私问题

优点分析

Ollama 优点如下:

  • 易于使用

    :提供了简单的 API 和类似 ChatGPT 的聊天界面,即使是没有经验的用户也能轻松上手,无需开发即可直接与模型进行交互。
  • 轻量级

    :代码简洁,运行时占用资源少,能够在本地高效运行,不需要大量的计算资源。
  • 可扩展

    :支持多种模型架构,并易于添加新模型或更新现有模型,还支持热加载模型文件,无需重新启动即可切换不同的模型,具有较高的灵活性。
  • 预构建模型库

    :包含一系列预先训练好的大型语言模型,可用于各种任务,如文本生成、翻译、问答等,方便在本地运行大型语言模型。

Ollama 官网:https://ollama.com/

下载并安装Ollama

下载地址:https://ollama.com/

重磅!Ollama发布UI界面,告别命令窗口!

下载完成之后,双击安装包,一直下一步安装完成即可。

安装大语言模型

支持大模型列表:https://ollama.com/search

安装并运行 DeepSeek 大模型的命令如下:

ollama run deepseek

等待一段时间 DeepSeek 就安装并启动了。

Ollama调用

Ollama 调用也很简单,通过以下三步就能实现:

  1. 添加本地大模型依赖

<dependency> <groupId>org.springframework.ai</groupId> <artifactId>spring-ai-starter-model-ollama</artifactId> <version>1.0.0</version> </dependency> 
  1. 配置本地大模型

spring: ai: ollama: base-url: http://localhost:11434 chat: model: deepseek-r1:1.5b 
  1. 编写代码进行调用

@Autowired private OllamaChatModel ollamaChatModel; @GetMapping("/chat") public String simpleChat(String msg) { return ollamaChatModel.call(msg); } 

小结

Ollama 作为使用最简单的本地大模型部署工具,因为使用比较简单,所以行业使用率也很高,但你知道 Ollama 有哪些不足吗?欢迎评论区留言讨论。

本文已收录到我的技术小站 www.javacn.site,其中包含的内容有:Spring AI、LangChain4j、Dify、Coze、Spring AI Alibaba、智能体(AI Agent)、MCP、Function Call、RAG、向量数据库、Prompt、多模态、向量数据库、嵌入模型、AI 常见面试问题等内容。

  • 本文作者:WAP站长网
  • 本文链接: https://wapzz.net/post-27485.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.8W+
9
1
2
WAP站长官方

2025年顶级AI模型html游戏设计大比拼,到底谁才是编码王者?

上一篇

用 LangGraph + MCP Server 打造 SpreadJS 智能助手:让 AI 真正懂你的表格需求

下一篇
评论区
内容为空

这一切,似未曾拥有

  • 复制图片
按住ctrl可打开默认菜单