TA的每日心情 | 开心 2021-12-13 21:45 |
---|
签到天数: 15 天 [LV.4]偶尔看看III
|
在上周六遭遇阿里云容器服务 swarm 版的故障之后,我们决定还是走自建 docker swarm 之路,只要不是阿里云底层的问题,我们相信会找到办法解决或避开自建 docker swarm 不稳定的问题。
以下是我们即将采用的 docker swarm 集群部署优化措施。
1)2 个 overlay 网络合并为 1 个,以减少维护多个 overlay 网络的开销
之前用了 2 个 overlay 网络 cnblogs 与 proxy ,路由容器 docker-flow-proxy 只加入 proxy 网络,所有容器加入 cnblogs 网络,需要路由的容器才加入 proxy 网络。现改为 1 个 overlay 网络,所有容器(包括 docker-flow-proxy)都加入同一个网络。
2)限制每个容器最大可以使用的 CPU 与 内存,以免有应用消耗过多 CPU 或内存而拖垮节点
以下是 docker swarm compose 文件中的配置
- deploy:
- resources:
- limits:
- cpus: "1.5"
- memory: 1.5G
复制代码
3)将 service 的更新顺序由 stop-first 改为 start-first ,以免更新时造成单个容器负载过高
stop-first 是 docker swarm 的默认方式,更新先停止旧容器,然后启动新容器。我们的每个服务部署了 2 个容器,先停止 1 个容器会将负载集中到另外 1 个容器,从而增加容器所在节点的负载。改为 start-first ,先启动新容器,后停止旧容器,可避免这个问题。
- deploy:
- update_config:
- order: start-first
复制代码
4)将 docker-flow-proxy 的 proxy_proxy 服务改为全局部署
proxy_proxy 是访问的入口,所有外部访问请求都由它转发给对应的容器,全局部署(每个节点部署)可以减少跨主机网络通信。
5)使用阿里云弹性网卡,弹性网卡放在同一个专属的 VPC 交换机中,所有节点都绑定弹性网卡,这样每个节点有 2 块网卡,节点之间的 docker swarm 通信走弹性网卡。
- docker swarm init --advertise-addr 弹性网卡IP
复制代码
6)将操作系统由 ubuntu 16.04 换成 centos 7.3
本来没打算进行这个更换,更换是由于 ubuntu 16.04 不直接支持阿里云弹性网卡(需要另外手工配置),之前一直用的是 ubuntu 16.04 跑 docker swarm ,正好借此机会换上 centos 看看效果。 |
|