仅一行命令本地 CPU 环境快速上手 Google 开源大模型 Gemma

仅一行命令本地 CPU 环境快速上手 Google 开源大模型 Gemma

    正在检查是否收录...

Google Gemma 是什么?

2月底 Google 发布的 Gemma 相比自家的 Gemini 更加轻量级,不仅可以在笔记本电脑上运行,而且还免费可商用,支持中文,相比其他开源在各个方面都占了上风。科技巨头出品、领先地位、全面对外开放、免费可商用、笔记本就能跑……各种福利标签的加持之下,近乎让全球的 “观众老爷们” 为之雀跃,那么如何快速本地使用呢?

gemma-vs-llama-mistral

只需要简单的一行命令,即可快速在本地运行 Google 开源 Gemma 大模型,还犹豫什么,快速体验一下吧。

步骤 1:安装 Docker

从 Docker 官方网站下载对应平台进行安装,安装完成后,打开 Docker Desktop 以确保其正常运行。注意需要根据 Mac 芯片类型选择对应的版本,新款电脑一般都选择 Apple 芯片,早期的一般选择 Intel 芯片。

从 Mac 应用程序中选择 Docker 图标启动。

步骤 2:一行命令运行 Gemma

一行命令搭建好本地环境(Ollama 和 open-webui ):

$ curl -o docker-compose.yaml https://raw.githubusercontent.com/open-webui/open-webui/main/docker-compose.yaml && docker compose up -d ... ✔ Container ollama Started ✔ Container open-webui Started

如果地址不能访问 raw.githubusercontent.com,可在本地使用以下文本内容创建 docker-compose.yaml 文件,然后运行 docker compose up -d,这里我已经将部分镜像地址进行了替换,尽管如此,仍然建议整个过程要科学上网(我并未在特定网络下进行充分测试):

version: '3.8' services: ollama: volumes: - ollama:/root/.ollama container_name: ollama pull_policy: always tty: true restart: unless-stopped image: ollama/ollama:latest open-webui: build: context: . args: OLLAMA_BASE_URL: '/ollama' dockerfile: Dockerfile image: dwh0403/open-webui:main container_name: open-webui volumes: - open-webui:/app/backend/data depends_on: - ollama ports: - ${OPEN_WEBUI_PORT-3000}:8080 environment: - 'OLLAMA_BASE_URL=http://ollama:11434' - 'WEBUI_SECRET_KEY=' extra_hosts: - host.docker.internal:host-gateway restart: unless-stopped volumes: ollama: {} open-webui: {}

考虑下载速度已经将 docker-compose.yaml 文件中镜像地址 ghcr.io/open-webui/open-webui:main 替换为 dwh0403/open-webui:main

打开浏览器输入 http://127.0.0.1:3000 页面,首次打开没有账号,需要注册一个账号作为管理员。注册后使用账号登录 Web 页面开始下载模型,下载完成后,就可开始我们本地大模型之旅了。

open_webui_login

使用注册后的账号登录进入到整体主页面,这里的主页面和 ChatGPT 的使用页面类似,当前我们还未下载模型,需要通过设置下载支持的模型,支持 Llama 2、Mistral 等多种开源模型。本文中我们以 gemma 为例。

welcome_web

如果机器内存 < 8G,建议 gemma:2b,如果内存 > 16G 可以直接体验一下 gemma:7b,速度上可能略有些慢。

模型

参数

大小

Gemma

2B

1.4 GB

Gemma

7B

4.8 GB

google-gemma-openwebui-setting

模型下载成功后,在主页面选择模型,可将选择模型设置为默认模型使用。

choose_model_and_test_gemma

我的电脑配置为 8G16G,在 gemma:7b 运行过程中的负载情况如下:

running_gemma-7b-cpu-load

running_gemma-7b-mem-load

如果完成测试,想要销毁环境,直接执行一下命令即可。

$ docker compose down

补充资料

Ollama 是什么?

本地安装运行模型我们使用 Ollama 项目。Ollama 是一个发布在 GitHub 上的项目,专为运行、创建和分享大型语言模型而设计。它为开发者和研究者提供了一个集成的平台,可以方便的搭建、训练并分享他们的语言模型。这些模型可以应用于各种语言处理任务,如机器翻译、文本生成、情感分析等。Ollama 的目标是推动大型语言模型的发展,提升模型的性能,同时也为开发者提供了一个分享和学习的社区。在这个社区中,开发者可以分享他们的模型,学习他人的经验,共同推动大型语言模型的发展。

Open-webui 是什么?

open-webui 是一个开源项目,是 LLMs 的用户友好型 WebUI,支持的 LLM 运行程序包括 Ollama 和 OpenAI 兼容的 API。

webllamawebuiemmadockerdocgoogleaml语言模型大型语言模型githubgiturl开发者appmacllm笔记本大模型rfi
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-10267.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

OpenAI副总裁称将永远提供免费ChatGPT版本

上一篇

鲶鱼CMS采集插件:提升内容管理效率的利器

下一篇
  • 复制图片
按住ctrl可打开默认菜单