用ollama和open-webui搭建本地LLM服务
目录
我从事教育相关工作,我需要搭建一个本地的中文大语言模型推理服务,因为经费紧张,没有GPU,而 Ollama 结合 qwen 模型能够在CPU下提供比较不错的反应速度,所以我尝试了通过Docker Compose在本地的Debian服务器上搭建一个基于Ollama和Open-webui的服务.
搭建服务
services:
ollama:
image: ollama/ollama
container_name: ollama
ports:
- "11434:11434"
volumes:
- ollama:/root/.ollama
restart: unless-stopped
open-webui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
ports:
- "8080:8080"
volumes:
- open-webui:/app/backend/data
extra_hosts:
- "host.docker.internal:host-gateway"
restart: unless-stopped
volumes:
ollama:
open-webui:
之后可以通过 docker compose up -d
命令启动服务, http://localhost:8080 可以看到Open-WebUI的服务,第一个注册的用户将会被自动赋予管理员的权限.接下来就可以选择左下角的菜单中的设置添加模型.
添加模型
通过网页添加
所有可用的模型可以在 https://ollama.com/library 这里查看,在拉取模型那里输入名称就可以拉取下来.因为我的需求,我主要选择了 qwen
和 codeqwen
,版本自然比当前通义千问的官网的版本低一些,但对于我的需求来说够用了.
docker命令进入容器内部添加
或者,你也可以通过docker命令进入容器内部用如下命令抓取.
docker exec -it ollama bash
ollama pull qwen:latest
使用
除了基本的问答之外,Open-WebUI 也可以运行提示的代码
还有更多功能正在摸索中…