一、docker部署ollama同时分别运行gemma3:27b bge-m3 deepseek-r1
wptr33 2025-04-07 20:04 23 浏览
正常情况在一个ollama下运行多个大模型,安装了ollama后,执行ollama run gemma3:27b命令即可部署运行gemma3模型,但是像我希望不断测试各种模型,而且希望不同的模型互相隔离,互不干扰,那么使用docker分别运行不同的模型就很方便。
方案设计
- 多容器隔离:为每个模型分配独立的 Docker 容器,隔离资源(端口、存储、GPU)。
- 持久化存储:每个容器绑定独立目录,保存模型文件和配置。
- 端口映射:为每个容器分配不同的外部端口,避免冲突。
- GPU 资源分配(可选):若使用多 GPU,可为不同容器指定不同 GPU。
- 运维脚本:通过脚本或 docker compose 管理容器生命周期。
模型部署
一、方式一
1、创建目录
如我现在要分别部署deepseek-r1:14b,gemma3:27b,还有嵌入模型bge-m3,我现在先创建三个目录:
mkdir -p ~/ollama_instances/{deepseek-r1-14b,gemma3-12b,gemma3-27b,bge-m3}
2、编写 Docker Compose 文件(推荐)
使用 docker-compose.yml 统一管理多个容器
version: '3.8'
services:
deepseek-r1-14b:
image: ollama/ollama
container_name: deepseek-r1-14b
runtime: nvidia # 关键配置
environment:
- NVIDIA_VISIBLE_DEVICES=all # 允许使用所有 GPU
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: 1 # 使用 1 块 GPU
capabilities: [gpu]
ports:
- "11434:11434"
volumes:
- ~/ollama_instances/ deepseek-r1-14b:/root/.ollama
restart: unless-stopped
gemma3-27b:
image: ollama/ollama
container_name: gemma3-27b
runtime: nvidia # 关键配置
environment:
- NVIDIA_VISIBLE_DEVICES=all # 允许使用所有 GPU
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: 1 # 使用 1 块 GPU
capabilities: [gpu]
ports:
- "11435:11434"
volumes:
- ~/ollama_instances/gemma3-27b:/root/.ollama
restart: unless-stopped
bge-m3:
image: ollama/ollama
container_name: ollama-bge-m3
ports:
- "11436:11434"
volumes:
- ~/ollama_instances/bge-m3:/root/.ollama
restart: unless-stopped
或者在deepseek-r1-14/gemma3-27b等目录下分别创建docker-compose.yml文件
3、启用容器
docker compose up -d #启动
docker compose down #停止
4. 为每个容器初始化模型,进入每个容器安装指定模型:
# 为 deepseek-r1-14b 安装模型
docker exec -it ollama-deepseek-r1-14b ollama run deepseek-r1:14b
# 为 gemma3-12b 安装模型
docker exec -it ollama-gemma3-12b ollama run gemma3:12b
# 其他容器同理
5. 验证服务状态
# 查看所有容器状态
docker ps --filter "name=ollama-*"
# 检查某个容器的日志
docker logs ollama-deepseek-r1-14b
# 测试 API 调用(以 deepseek-r1-14b 为例)
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:14b",
"prompt": "Hello"
}'
6.GPU 资源分配(多 GPU 场景)
若有多块 GPU,可指定容器使用特定 GPU:
# 在 docker-compose.yml 中指定 GPU 索引
environment:
- NVIDIA_VISIBLE_DEVICES=0 # 使用第一块 GPU
7.自定义启动脚本,编写 start_models.sh 实现自动化
#!/bin/bash
# 启动所有容器
docker-compose up -d
# 等待容器初始化
sleep 10
# 为每个容器安装模型
docker exec ollama-deepseek-r1-14b ollama pull deepseek-r1:14b
docker exec ollama-gemma3-12b ollama pull gemma3:12b
# 其他模型同理
8.监控与日志
watch -n 1 "docker stats --no-stream ollama-*"
9.集中日志收集
# 查看所有容器的合并日志
docker-compose logs -f
10.安全加固
限制资源使用
# 在 docker-compose.yml 中添加资源限制
deploy:
resources:
limits:
cpus: '2'
memory: 16G
网络隔离
# 创建私有网络
networks:
ollama-net:
driver: bridge
# 为容器分配网络
services:
deepseek-r1-14b:
networks:
- ollama-net
11.模型管理命令
操作 命令
启动单个容器 docker start ollama-deepseek-r1-14b
停止容器 docker stop ollama-gemma3-12b
更新模型 docker exec ollama-bge-m3 ollama pull bge-m3:latest
删除模型数据 rm -rf ~/ollama_instances/gemma3-27b/*
备份模型 tar -czvf ollama_backup.tar.gz ~/ollama_instances
常见问题:
一、unknown or invalid runtime name: nvidia 错误,通常是由于 NVIDIA Container Toolkit 未正确安装或配置导致
1. 安装 NVIDIA Container Toolkit
# 添加官方仓库密钥
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
# 添加仓库源
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
# 更新并安装工具包
sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit
2.配置 Docker 运行时
修改 Docker 配置文件以启用 NVIDIA 运行时:
# 生成或更新 Docker 配置
sudo nvidia-ctk runtime configure --runtime=docker
# 重启 Docker 服务
sudo systemctl restart docker
3.验证运行时配置
检查 Docker 运行时是否包含 nvidia:
docker info | grep -i runtime
4/调整运行命令,不再需要显式指定 --runtime=nvidia,改用 --gpus all 参数:
docker run --rm -it --gpus all nvidia/cuda:12.3.1-base-ubuntu24.04 nvidia-smi
相关推荐
- redis的八种使用场景
-
前言:redis是我们工作开发中,经常要打交道的,下面对redis的使用场景做总结介绍也是对redis举报的功能做梳理。缓存Redis最常见的用途是作为缓存,用于加速应用程序的响应速度。...
- 基于Redis的3种分布式ID生成策略
-
在分布式系统设计中,全局唯一ID是一个基础而关键的组件。随着业务规模扩大和系统架构向微服务演进,传统的单机自增ID已无法满足需求。高并发、高可用的分布式ID生成方案成为构建可靠分布式系统的必要条件。R...
- 基于OpenWrt系统路由器的模式切换与网页设计
-
摘要:目前商用WiFi路由器已应用到多个领域,商家通过给用户提供一个稳定免费WiFi热点达到吸引客户、提升服务的目标。传统路由器自带的Luci界面提供了工厂模式的Web界面,用户可通过该界面配置路...
- 这篇文章教你看明白 nginx-ingress 控制器
-
主机nginx一般nginx做主机反向代理(网关)有以下配置...
- 如何用redis实现注册中心
-
一句话总结使用Redis实现注册中心:服务注册...
- 爱可可老师24小时热门分享(2020.5.10)
-
No1.看自己以前写的代码是种什么体验?No2.DooM-chip!国外网友SylvainLefebvre自制的无CPU、无操作码、无指令计数器...No3.我认为CS学位可以更好,如...
- Apportable:拯救程序员,IOS一秒变安卓
-
摘要:还在为了跨平台使用cocos2d-x吗,拯救objc程序员的奇葩来了,ApportableSDK:FreeAndroidsupportforcocos2d-iPhone。App...
- JAVA实现超买超卖方案汇总,那个最适合你,一篇文章彻底讲透
-
以下是几种Java实现超买超卖问题的核心解决方案及代码示例,针对高并发场景下的库存扣减问题:方案一:Redis原子操作+Lua脚本(推荐)//使用Redis+Lua保证原子性publicbo...
- 3月26日更新 快速施法自动施法可独立设置
-
2016年3月26日DOTA2有一个79.6MB的更新主要是针对自动施法和快速施法的调整本来内容不多不少朋友都有自动施法和快速施法的困扰英文更新日志一些视觉BUG修复就不翻译了主要翻译自动施...
- Redis 是如何提供服务的
-
在刚刚接触Redis的时候,最想要知道的是一个’setnameJhon’命令到达Redis服务器的时候,它是如何返回’OK’的?里面命令处理的流程如何,具体细节怎么样?你一定有问过自己...
- lua _G、_VERSION使用
-
到这里我们已经把lua基础库中的函数介绍完了,除了函数外基础库中还有两个常量,一个是_G,另一个是_VERSION。_G是基础库本身,指向自己,这个变量很有意思,可以无限引用自己,最后得到的还是自己,...
- China's top diplomat to chair third China-Pacific Island countries foreign ministers' meeting
-
BEIJING,May21(Xinhua)--ChineseForeignMinisterWangYi,alsoamemberofthePoliticalBureau...
- 移动工作交流工具Lua推出Insights数据分析产品
-
Lua是一个适用于各种职业人士的移动交流平台,它在今天推出了一项叫做Insights的全新功能。Insights是一个数据平台,客户可以在上面实时看到员工之间的交流情况,并分析这些情况对公司发展的影响...
- Redis 7新武器:用Redis Stack实现向量搜索的极限压测
-
当传统关系型数据库还在为向量相似度搜索的性能挣扎时,Redis7的RedisStack...
- Nginx/OpenResty详解,Nginx Lua编程,重定向与内部子请求
-
重定向与内部子请求Nginx的rewrite指令不仅可以在Nginx内部的server、location之间进行跳转,还可以进行外部链接的重定向。通过ngx_lua模块的Lua函数除了能实现Nginx...
- 一周热门
-
-
因果推断Matching方式实现代码 因果推断模型
-
C# 13 和 .NET 9 全知道 :13 使用 ASP.NET Core 构建网站 (1)
-
git pull命令使用实例 git pull--rebase
-
面试官:git pull是哪两个指令的组合?
-
git 执行pull错误如何撤销 git pull fail
-
git pull 和git fetch 命令分别有什么作用?二者有什么区别?
-
git fetch 和git pull 的异同 git中fetch和pull的区别
-
git pull 之后本地代码被覆盖 解决方案
-
还可以这样玩?Git基本原理及各种骚操作,涨知识了
-
git命令之pull git.pull
-
- 最近发表
- 标签列表
-
- git pull (33)
- git fetch (35)
- mysql insert (35)
- mysql distinct (37)
- concat_ws (36)
- java continue (36)
- jenkins官网 (37)
- mysql 子查询 (37)
- python元组 (33)
- mybatis 分页 (35)
- vba split (37)
- redis watch (34)
- python list sort (37)
- nvarchar2 (34)
- mysql not null (36)
- hmset (35)
- python telnet (35)
- python readlines() 方法 (36)
- munmap (35)
- docker network create (35)
- redis 集合 (37)
- python sftp (37)
- setpriority (34)
- c语言 switch (34)
- git commit (34)