Python应用容器化需用Docker Compose编排多服务(Flask+PostgreSQL+Redis+Nginx),通过docker-compose.yml管理网络、依赖、配置;采用Alpine多阶段构建轻量化镜像;挂载命名卷保障数据持久化;统一stdout日志;设置资源限制与真实依赖的健康检查。
Python 应用容器化不只是把代码塞进一个镜像里,真正落地时往往需要多个服务协同工作——比如 Flask API + PostgreSQL + Redis + Nginx,还要考虑启动顺序、网络互通、配置隔离、资源限制和日志统一。这些靠单个 docker run 无法解决,必须借助 Docker Compose 编排,并配合合理的设计与调优。
Docker Compose 是 Python 多服务项目最实用的编排工具。它用 docker-compose.yml 声明服务拓扑,自动处理网络、卷挂载和依赖顺序。
depends_on 控制启动先后(仅控制容器创建顺序,不保证服务就绪);真正等 DB 可连需在应用层加重试逻辑,例如用 psycopg2.connect(..., connect_timeout=5) 配合循环尝试default 网络),容器名即 DNS 名:Flask 容器里直接用 postgres://db:5432/myapp
environment 或 .env 文件注入,避免硬编码;数据库密码建议用 secrets(Docker Swarm 场景)或环境变量 + docker-compose --env-file
基础镜像选 Alpine + 多阶段构建,能显著减小体积并提升安全性;启动脚本要兼顾开发调试与生产健壮性。
python:3.11-slim 构建依赖,第二阶段用 python:3.11-alpine 运行,pip install --no-cache-dir -r requirements.txt 减少层数__pycache__ 和文档(pip install --no-cache-dir --no-deps --no-compile 后手动清理)entrypoint.sh)检查 $DATABASE_URL 是否合法,预热连接池,再执行 gunicorn --bind :8000 app:app;失败时输出明确错误并退出,便于健康检查识别网络和存储是多容器协作的底层支柱,配置不当会导致连接超时、数据丢失或性能瓶颈。
volumes: [db_data:/var/lib/postgresql/data]),而非绑定宿主机路径,避免权限冲突和 Windows/macOS 共享文件系统性能问题redis:alpine 镜像,默认开启 AOF 持久化,但高写入场景建议关掉(appendonly no)或改用 RDB,避免 I/O 延迟影响 Python 应用响应logging.basicConfig(level=logging.INFO, format="%(message)s")),由 Docker 收集;不要写文件再挂载日志卷,增加复杂度且不利于日志轮转生产环境中不限制资源等于裸奔;没健康检查,Kubernetes 或 Swarm 就无法判断服务是否真“活着”。
docker-compose.yml 中为每个服务设 mem_limit: 512m、cpus: "0.5",防止 Python 内存泄漏拖垮整台宿主机healthcheck:对 Flask 服务,用 curl -f http://localhost:8000/health || exit 1,间隔 30s,超时 5s,失败 3 次后标记为 unhealthy/health 接口,检查数据库连接、Redis ping、关键缓存命中率等真实依赖项,不是只返回 {"status": "ok"}