MySQL主从复制
主从复制原理:
- 小白都能懂的Mysql主从复制原理(原理+实操) - 知乎 (zhihu.com)
- Mysql主从同步时Slave_IO_Running:Connecting ; Slave_SQL_Running:Yes的情况故障排除_slave-sql-running防火墙-CSDN博客
- 创建主服务器容器实例
docker run --name Mysql_master -v /DockerRegistry/mysql-master/logs:/var/log/mysql -v /DockerRegistry/mysql-master/data:/var/lib/mysql -v/DockerRegistry/mysql-master/conf:/etc/mysql/conf.d -v /DockerRegistry/mysql-master/mysql-files:/var/lib/mysql-files -p 3307:3306 -e MYSQL_ROOT_PASSWORD=root -d mysql:8.0.21
# 已开启数量卷备份 备份了数据 日志 配置
- 在配置页面下面新建my.cnf
[mysqld]
## 设置server_id, 同一个局域网中需要唯一
server_id=101
## 指定不需要同步的数据库名称
binlog-ignore-db=mysql
## 开启二进制日志功能
log-bin=mall-mysql-bin
## 设置二进制日志使用内存大小(事务)
binlog_cache_size=1M
## 设置使用的二进制日志格式(mixed,statement,row)
binlog_format=mixed
## 二进制日志过期清理时间。默认值为0,表示不自动清理
expire_logs_days=7
## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断
## 如:1062错误是指一些主键重复,1032错误是因为主从数据库数据不一致
slave_skip_errors=1062
- 重启mysql_master 主机实例
docker restart
- 进入mysql主机,并且授予对应权限
create user 'slave'@'%' identified by '123456';
GRANT REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'slave'@'%';
创建从服务器
docker run --name Mysql_slave -v /DockerRegistry/mysql-slave/logs:/var/log/mysql -v /DockerRegistry/mysql-slave/data:/var/lib/mysql -v /DockerRegistry/mysql-slave/conf:/etc/mysql/conf.d -v /DockerRegistry/mysql-slave/mysql-files:/var/lib/mysql-files -p 3308:3306 -e MYSQL_ROOT_PASSWORD=root -d mysql:8.0.21 # 已开启数量卷备份 备份了数据 日志 配置
配置从mysql的配置文件
[mysqld]
## 设置server_id, 同一个局域网内需要唯一
server_id=102
## 指定不需要同步的数据库名称
binlog-ignore-db=mysql
## 开启二进制日志功能,以备slave作为其它数据库实例的Master时使用
log-bin=mall-mysql-slave1-bin
## 设置二进制日志使用内存大小(事务)
binlog_cache_size=1M
## 设置使用的二进制日志格式(mixed,statement,row)
binlog_format=mixed
## 二进制日志过期清理时间。默认值为0,表示不自动清理
expire_logs_days=7
## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断
## 如:1062错误是指一些主键重复,1032是因为主从数据库数据不一致
slave_skip_errors=1062
## relay_log配置中继日志
relay_log=mall-mysql-relay-bin
## log_slave_updates表示slave将复制事件写进自己的二进制日志
log_slave_updates=1
## slave设置只读(具有super权限的用户除外)
read_only=1
- 进入主mysql中查看mysql同步状态
show master status;
配置从数据库所属的主数据库 重启 从mysql 进入 从mysql
-- 格式: -- change master to master_host='宿主机ip',master_user='主数据库配置的主从复制用户名',master_password='主数据库配置的主从复制用户密码',master_port=宿主机主数据库端口,master_log_file='主数据库主从同步状态的文件名File',master_log_pos=主数据库主从同步状态的Position,master_connect_retry=连接失败重试时间间隔(秒); change master to master_host='192.168.70.138',master_user='slave',master_password='123456',master_port=3307,master_log_file='mall-mysql-bin.000002',master_log_pos=156,master_connect_retry=30;
在从数据库中查看主从同步状态
show slave status /G; -- /G 另一种显示格式 不加\G 是从左到右的表格格式 加\G 是键值对的形式显示数据
在从数据库中开启主从复制
start slave
配置小坑
- 在远程连接中 必须使用防火墙开启指定端口 不安比防火墙无法访问所有端口
- mysql8必须将plugin修改为mysql_native_password
Redis集群配置
- 创建六台redis集群
# --cluster-enabled yes 开启集群模式
# --net host使用宿主机的IP和端口,默认
docker run -d --name redis-node-1 --net host --privileged=true -v /DockerRegistry/redis-cluster/share/redis-node-1:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6381
docker run -d --name redis-node-2 --net host --privileged=true -v /DockerRegistry/redis-cluster/share/redis-node-2:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6382
docker run -d --name redis-node-3 --net host --privileged=true -v /DockerRegistry/redis-cluster/share/redis-node-3:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6383
docker run -d --name redis-node-4 --net host --privileged=true -v /DockerRegistry/redis-cluster/share/redis-node-4:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6384
docker run -d --name redis-node-5 --net host --privileged=true -v /DockerRegistry/redis-cluster/share/redis-node-5:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6385
docker run -d --name redis-node-6 --net host --privileged=true -v /DockerRegistry/redis-cluster/share/redis-node-6:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6386
构建主从关系:
- 进入节点1(或其中任意一个节点):
docker exec -it redis-node-1 /bin/bash
构建主从关系
# 宿主机IP:端口 # --cluster-replicas 1 表示为每个master创建一个slave节点 redis-cli --cluster create 192.168.70.138:6381 192.168.70.138:6382 192.168.70.138:6383 192.168.70.138:6384 192.168.70.138:6385 192.168.70.138:6386 --cluster-replicas 1
查看集群状态redis-cli -p 6381:
redis-cli -p 6381 cluster info cluster nodes
主从容错迁移案例
数据读写存储
当使用
redis-cli
连接redis集群时,需要添加-c
参数,否则可能会出现读写出错。因为根据哈希槽算法中,不同的取余值要在不用的节点中存放(书写),我们在redis中输入的存放命令要先在CRC16中进行映射,获取数值,再将该数据进行16384进行取余,根据获取的取余数值确定应该在哪个redis-master中进行存值。不在指定的主数据库中存值会报错。
查看集群信息
redis-cli --cluster check 192.168.70.138:6381
主从容错切换迁移
停掉 6381 redis 对应的从机变成了主机
恢复6381 6381变为了从机 6384变为了主机
恢复6381的主机地位 停掉6384 一段时间后 再开启6384 6381主机地位恢复
主从的扩容于缩容
主从扩容
新建6387、6388两个节点+新建后启动+查看是否8节点
docker run -d --name redis-node-7 --net host --privileged=true -v /DockerRegistry/redis-cluster/share/redis-node-7:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6387 docker run -d --name redis-node-8 --net host --privileged=true -v /DockerRegistry/redis-cluster/share/redis-node-8:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6388
进入6387容器实例内部
将新增的6387节点(空槽号)作为master节点加入原集群
- 将新增的6387作为master节点加入集群
redis-cli --cluster add-node自己实际lP地址:6387自己实际lP地址:6381 6387就是将要作为master新增节点
6381就是原来集群节点里面的领路人,相当于6387拜拜6381的码头从而找到组织加入集群
redis-cli --cluster add-node 192.168.70.138:6387 192.168.70.138:6381
还未分配槽位
重新分配槽号
redis-cli --cluster reshard 192.168.70.138:6381
- 将新增的6387作为master节点加入集群
检查集群情况 不是从新分配,每个主机匀点给6387
将6388 添加为6387的从主机
redis-cli --cluster add-node 192.168.70.138:6388 192.168.70.138:6387 --cluster-slave --cluster-master-id 1ff3a5d59f77fd8454fc531a1b8867cd2178b65b
组从缩容 删除6387 和 6388
先删除从机
# 1. 检查容器状态,获取6388的节点编号 redis-cli --cluster check 192.168.70.138:6381 # 2.将6388从集群中移除 redis-cli --cluster del-node 192.168.70.138:6388 6388节点编号
对node7重新分配哈希槽:
- 对集群重新分配哈希槽
redis-cli --cluster reshard 192.168.70.138:6381
检查集群状态
redis-cli --cluster check 192.168.70.138:6381
删除主节点 6387
redis-cli --cluster del-node 192.168.70.138:6387
DockerFile
Dockerfile是用来构建Docker镜像的文本文件,是由一条条构建镜像所需的指令和参数构成的脚本
第二种构建镜像的方法
构建三步骤
- 编写DockerFile文件
- docker build命令构建镜像
- docker run 运行镜像
DockerFile内容基础知识
- 每条保留字指令都必须为大写字母且后面至少跟随一个参数
- 指令按照从上到下,顺序执行
#
表示注释- 每条指令都会创建一个新的镜像层并对镜像进行提交
保留字 就是关键字
Docker引擎执行Docker的大致流程:
- docker从基础镜像运行一个容器
- 执行一条指令并对容器做出修改
- 执行类似
docker commit
的操作提交一个新的镜像层 - docker再基于刚提交的镜像运行一个新容器
- 执行Dockerfile中的下一条指令,直到所有指令都执行完成
从应用软件的角度来看,Dockerfile、Docker镜像与Docker容器分别代表软件的三个不同阶段,
- Dockerfile是软件的原材料
- Dockert镜像是软件的交付品
- Docker容器则可以认为是软件镜像的运行态,也即依照镜像运行的容器实例
Dockerfile面向开发,Docker镜像成为交付标准,Docker容器则涉及部署与运维,三者缺一不可,合力充当Docker体系的基石。
dockerfile 保留字
FROM
基础镜像,当前新镜像是基于哪个镜像的,指定一个已经存在的镜像作为模板,第一条必须是from
# FROM 镜像名
FROM hub.c.163.com/library/tomcat
MAINTAINER
镜像维护者的姓名和邮箱地址
# 非必须
MAINTAINER ZhangSan zs@163.com
RUN
容器构建时需要运行的命令。
有两种格式:
- shell格式
# 等同于在终端操作的shell命令
# 格式:RUN <命令行命令>
RUN yum -y install vim
exec格式
# 格式:RUN ["可执行文件" , "参数1", "参数2"] RUN ["./test.php", "dev", "offline"] # 等价于 RUN ./test.php dev offline
RUN
是在docker build
时运行
EXPOSE
当前容器对外暴露出的端口。
# EXPOSE 要暴露的端口
# EXPOSE <port>[/<protocol] ....
EXPOSE 3306 33060
WORKDIR
指定在创建容器后, 终端默认登录进来的工作目录。
ENV CATALINA_HOME /usr/local/tomcat
WORKDIR $CATALINA_HOME
ENV
用来在构建镜像过程中设置环境变量。
这个环境变量可以在后续的任何RUN
指令或其他指令中使用
# 格式 ENV 环境变量名 环境变量值
# 或者 ENV 环境变量名=值
ENV MY_PATH /usr/mytest
# 使用环境变量
WORKDIR $MY_PATH
USER
指定该镜像以什么样的用户去执行,如果不指定,默认是root
。(一般不修改该配置)
# USER <user>[:<group>]
USER patrick
VOLUME
容器数据卷,用于数据保存和持久化工作。类似于 docker run
的-v
参数。
# VOLUME 挂载点
# 挂载点可以是一个路径,也可以是数组(数组中的每一项必须用双引号)
VOLUME /var/lib/mysql
ADD
将宿主机目录下(或远程文件)的文件拷贝进镜像,且会自动处理URL和解压tar压缩包。
COPY
类似ADD
,拷贝文件和目录到镜像中。
将从构建上下文目录中<源路径>
的文件目录复制到新的一层镜像内的<目标路径>
位置。
COPY src dest
COPY ["src", "dest"]
# <src源路径>:源文件或者源目录
# <dest目标路径>:容器内的指定路径,该路径不用事先建好。如果不存在会自动创建
CMD
指定容器启动后要干的事情。
有两种格式:
- shell格式
# CMD <命令>
CMD echo "hello world"
- exec格式
# CMD ["可执行文件", "参数1", "参数2" ...]
CMD ["catalina.sh", "run"]
参数列表格式
# CMD ["参数1", "参数2" ....],与ENTRYPOINT指令配合使用
Dockerfile中如果出现多个
CMD
指令,只有最后一个生效。CMD
会被docker run
之后的参数替换。例如,对于tomcat镜像,执行以下命令会有不同的效果:
# 因为tomcat的Dockerfile中指定了 CMD ["catalina.sh", "run"] # 所以直接docker run 时,容器启动后会自动执行 catalina.sh run docker run -it -p 8080:8080 tomcat # 指定容器启动后执行 /bin/bash # 此时指定的/bin/bash会覆盖掉Dockerfile中指定的 CMD ["catalina.sh", "run"] docker run -it -p 8080:8080 tomcat /bin/bash
CMD
是在docker run
时运行,而RUN
是在docker build
时运行。
ENTRYPOINT
用来指定一个容器启动时要运行的命令。
类似于CMD
命令,但是ENTRYPOINT
不会被docker run
后面的命令覆盖,这些命令参数会被当做参数送给ENTRYPOINT
指令指定的程序。
ENTRYPOINT
可以和CMD
一起用,一般是可变参数才会使用CMD
,这里的CMD
等于是在给ENTRYPOINT
传参。
当指定了ENTRYPOINT
后,CMD
的含义就发生了变化,不再是直接运行期命令,而是将CMD
的内容作为参数传递给ENTRYPOINT
指令,它们两个组合会变成 <ENTRYPOINT> "<CMD>"
。
例如:
FROM nginx
ENTRYPOINT ["nginx", "-c"] # 定参
CMD ["/etc/nginx/nginx.conf"] # 变参
对于此Dockerfile,构建成镜像 nginx:test
后,如果执行;
docker run nginx test
,则容器启动后,会执行nginx -c /etc/nginx/nginx.conf
docker run nginx:test /app/nginx/new.conf
,则容器启动后,会执行nginx -c /app/nginx/new.conf
dockerfile案例演示
创建centos具有vim ifconfig java8的镜像
FROM centos:7
MAINTAINER zzyy<zzyybs@126.com>
ENV MYPATH /usr/local
WORKDIR $MYPATH
#安装vim编辑器
RUN yum -y install vim
#安装1 fconfig命令查看网络IP
RUN yum -y install net-tools
#安装java8及lib库
RUN yum -y install glibc.i686
RUN mkdir /usr/local/java
#ADD是相对路径jar,把jdk8u171-1inux.x64.tar.gz添加到容器中,安装包必须要和Dockerfile文件在同一位置
ADD jdk-8u181-linux-x64.tar.gz /usr/local/java/
#配置java环境变量
ENV JAVA_HOME /usr/local/java/jdk1.8.0_181
ENV JRE HOME $JAVA_HOME/jre
ENV CLASSPATH $JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib:$CLASSPATH
ENV PATH $JAVA_HOME/bin:$PATH
EXPOSE 80
CMD echo $MYPATH
CMD echo "success--------------ok"
CMD /bin/bash
执行命令 docker build
docker build -t centosjava8:1.5 .
显示vim安装失败的话 先将centos版本号变为7 同时 写为 FROM centos:7 ,并且重启 vm即可
虚悬镜像
仓库名和镜像名都是none的镜像的,俗称dangling image
FROM centos:7
CMD echo 'action success '
# 构建时候没有镜像名、tag
docker build .
列出docker中的虚悬镜像:
docker image ls -f dangling=true
虚悬镜像一般是因为一些错误而出现的,没有存在价值,可以删除:
# 删除所有的虚悬镜像
docker image prune
.
发布微服务项目到Docker容器
- 将项目jar包发送到 服务器上面
- 编写dockerfile文件
FROM java:8
MAINTAINER hcj
# 在主机 /var/lib/docker目录下创建一个临时文件,并链接到容器的 /tmp
VOLUME /tmp2
# 将jar包添加到容器中,并命名为 springboot_docker.jar
ADD SpringBoot-Demo_1-1.0-SNAPSHOT.jar /springboot_docker.jar
# 运行jar包
RUN bash -c 'touch /springboot_docker.jar'
ENTRYPOINT ["java", "-jar", "/springboot_docker.jar"]
# SpringBoot项目配置的端口号为8080,需要将8080暴露出去
EXPOSE 8080
- 运行docker容器
docker build -t hcj_jar:1.3 .
- 启动容器:
docker run -p8081:8080 --name springbootjar b16d189b87be
Docker 网络
docker安装并启动服务后,会在宿主机中添加一个虚拟网卡。
在Docker服务启动前,使用 ifconfig
或 ip addr
查看网卡信息:
ens33
或eth0
:本机网卡lo
:本机回环网络网卡计算机以回环地址发送的消息,并不会由链路层送走,而是被本机网络层捕获。
可能有
virbr0
(CentOS安装时如果选择的有相关虚拟化服务,就会多一个以网桥连接的私网地址的virbr0
网卡,作用是为连接虚拟网卡提供NAT访问外网的功能。如果要移除该服务,可以使用yum remove libvirt-libs.x86_64
)
使用 systemctl start docker
启动Docker服务后,会多出一个 docker0
网卡。
作用:
容器间的互联和通信以及端口映射
容器IP变动时候可以通过服务名直接网络通信而不受到影响
Docker容器的网络隔离,是通过Linux内核特性 namespace
和 cgroup
实现的。
docker 网络模式命令
查看Docker网络模式:
docker network ls
如果没有修改过docker network,则默认有3个网络模式:
bridge
host
none
添加Docker网络:
docker network add xxx
删除Docker网络:
docker network rm xxx
查看网络元数据:
docker network inspect xxx
删除所有无效的网络:
docker network prune
常见的Docker 网络模式
Docker 的网络模式:
网络模式 | 简介 | 使用方式 |
---|---|---|
bridge | 为每一个容器分配、设置IP等,并将容器连接到一个docker0 虚拟网桥,默认为该模式 |
--network bridge |
host | 容器将不会虚拟出自己的网卡、配置自己的IP等,而是使用宿主机的IP和端口 | --network host |
none | 容器有独立的 Network namespace,但并没有对齐进行任何网络设置,如分配 veth pari 和 网桥连接、IP等 |
--network none |
container | 新创建的容器不会创建自己的网卡和配置自己的IP,而是和一个指定的容器共享IP、端口范围等 | --network container:NAME或者容器ID |
none网络模式是一种特殊的模式,它将容器与宿主机隔离开来,不提供任何网络能力。
在none网络模式下,容器将无法访问外部网络,也无法被外部网络访问到。这种模式适用于某些特殊场景,比如需要在容器内运行一些独立的、与网络无关的应用程序。
查看某个容器的网络模式:
# 通过inspect获取容器信息,最后20行即为容器的网络模式信息
docker inspect 容器ID | tail -n 20
bridge 网络模式
外界通过宿主机端口访问后,再交由底层NAT进行转发到docker容器网络中。
docker0
Docker 服务默认会创建一个docker0
网桥(其上有一个docker0
内部接口),该桥接网络的名称为 docker0
,它在内核层连通了其他的物理或虚拟网卡,这就将所有容器和本地主机都放到同一个物理网络
。
Docker默认指定了docker0
接口的IP地址和子网掩码,让主机和容器之间可以通过网桥互相通信。
查看bridge
网络的详细信息,并通过grep
获取名称:
docker network inspect bridge | grep name
可以看到其名称为docker0
。
bridge
Docker使用Linux桥接,在宿主机虚拟一个Docker
容器网桥(docker0
),Docker启动一个容器时会根据Docker
网桥的网段分配给容器一个IP地址,称为Container-IP
,同时Docker网桥是每个容器的默认网关。因为在同一个宿主机内的容器接入同一个网桥,这样容器之间就能够通过容器的Container-IP
直接通信。
docker run
的时候,没有指定--network
的话,默认使用的网桥模式就是bridge
,使用的就是docker0
。在宿主机ifconfig
就可以看到docker0
和自己create
的network
。
网桥docker0
创建一对对等虚拟设备接口,一个叫veth
,另一个叫eth0
,成对匹配:
整个宿主机的网桥模式都是docker0
,类似一个交换机有一堆接口,每个接口叫 veth
,在本地主机和容器内分别创建一个虚拟接口,并让他们彼此联通(这样一对接口叫做 veth pair
)。
每个容器实例内部也有一块网卡,容器内的网卡接口叫做eth0
。
docker0
上面的每个veth
匹配某个容器实例内部的eth0
,两两配对,一一匹配。
例如:
宿主机
ip addr
# 每个veth都有个编号:vethXXXXXX
# @符号后面对应就是容器内的eth0网卡编号9
docker容器
ip addr
# 容器内的网卡为 eth0
# @符号后面就是宿主机上对应的veth网卡的编号10
.
host 网络模式
直接使用宿主机的 IP 地址与外界进行通信,不再需要额外进行 NAT 转换。
容器将不会获得一个独立的 Network Namespace,而是和宿主机共用一个 Network space。
容器将不会虚拟出自己的网卡,而是直接使用宿主机的 IP 和端口。
如果在 docker run
命令中同时使用了 --network host
和 -p
端口映射,例如:
docker run -p 8082:8080 --network host tomcat
那么会出现一个警告:
WARNING: Published ports are discarded when using host network mode
因为此时已经使用了host
模式,本身就是直接使用的宿主机的IP和端口,此时的-p
端口映射就没有了意义,也不会生效,端口号还是会以主机端口号为主。p
正确做法是:不再进行-p
端口映射,或者改用bridge
模式
none模式
禁用网络功能。
在none
模式下,并不为docker容器进行任何网络配置。进入容器内,使用 ip addr
查看网卡信息,只能看到 lo
(本地回环网络127.0.0.1
网卡)。
docker run -p 8082:8080 --network host tomcat
container 模式
新建的容器和已经存在的一个容器共享网络IP配置,而不是和宿主机共享。
新创建的容器不会创建自己的网卡、IP,而是和一个指定的容器共享IP、端口范围。两个容器除了网络共享,其他的如文件系统、进程列表依然是隔离的。
docker run -it --name alpine1 alpine /bin/sh
# 指定和 alpine1 容器共享网络
docker run -it --name alpine2 --network container:alpine1 alpine
Alpine Linux是一款独立的、非商业的通用Linux发行版,专为追求安全性、简单性和资源效率的用户而设计。可能很多人没听说过这个Liux发行版本,但是经常用Docker的朋友可能都用过,因为他小,简单,安全而著称,所以作为基础镜像是非常好的一个选择,可谓是麻雀虽小但五脏俱全,镜像非常小巧,不到6M的大小,所以特别适合容器打包I
此时使用 ip addr
查看两台容器的网络,会发现两台容器的eth0
网卡内的IP等信息完全相同。
如果关掉了alpine1
容器,因为alpine2
的网络使用的alpine1
共享网络,所以关掉alpin1
后,alpine2
的eth0
网卡也随之消失了。
自定义网络
容器间的互联和通信以及端口映射。
容器 IP 变动时候可以通过服务名直接网络通信而不受影响。(类似Eureka,通过服务名直接互相通信,而不是写死IP地址)。
docker中还有一个 --link
进行容器网络互联,但是已经被标记为过时的,可能会在将来的版本中移除这个功能。推荐使用自定义网络替换link。
在自定义网络中,可以使用Docker的DNS功能来为容器提供名称解析服务。当一个容器需要访问另一个容器时,它可以通过容器的名称或服务名来获取对方的IP地址,从而实现主机名和IP地址的对应关系。
自定义桥接网络(自定义网络默认使用的是桥接网络 bridge
):
- 新建自定义网络
docker network create hcj_network
查看网络列表
docker network ls
创建容器时 加入我们指定的自定义网络
docker run -it --name alpine1 --network hcj_networke alpine docker run -it --name alpine2 --network hcj_networke alpine
进入容器 使用ping命令测试连接alpine2容器名字
Docker-compose容器编排
Docker-Compose
是 Docker 官方的开源项目,负责实现对Docker容器集群的快速编排。
Docker-Compose
可以管理多个Docker容器组成一个应用。需要定义一个yaml格式的配置文件 docker-compose.yml
,配置好多个容器之间的调用关系,然后只需要一个命令就能同时启动/关闭这些容器。
Docker建议我们每个容器中只运行一个服务,因为Docker容器本身占用资源极少,所以最好是将每个服务单独的分割开来。但是如果我们需要同时部署多个服务,每个服务单独构建镜像构建容器就会比较麻烦。所以 Docker 官方推出了 docker-compose
多服务部署的工具。
Compose允许用户通过一个单独的 docker-compose.yml
模板文件来定义一组相关联的应用容器为一个项目(project
)。可以很容易的用一个配置文件定义一个多容器的应用,然后使用一条指令安装这个应用的所有依赖,完成构建。
新版docker自带compose
docker compose version
# Docker Compose version v2.21.0
compose核心概念
- 一个文件 docker-compose.yml
- 两要素
- 服务:一个个应用容器实例
- 工程:一组关联的应用容器组成的一个完整业务单元,在docker-compose.yml文件中定义。
compose常见命令
使用compose编排服务器
编排application.yml文件
version: "3" # 配置各个容器服务 services: micr_yinglibao_api: image: micr-api-1.0.0 container_name: micr-api # 容器名称,如果不指定,会生成一个服务名加上前缀的容器名 volumes: - /DockerRegistry/yinglibao/api:/data networks: - springboot_yinglibao micr_yinglibao_commo: image: micr-common-1.0.0 container_name: micr-common # 容器名称,如果不指定,会生成一个服务名加上前缀的容器名 volumes: - /DockerRegistry/yinglibao/common:/data networks: - springboot_yinglibao micr_yinglibao_dataservice: image: micr-dataservice-0.0.1-SNAPSHOT container_name: micr-dataservice # 容器名称,如果不指定,会生成一个服务名加上前缀的容器名 volumes: - /DockerRegistry/yinglibao/dataservice:/data networks: - springboot_yinglibao ports: - "8086:8086" micr_yinglibao_web: image: mirc-web-0.0.1-SNAPSHOT container_name: micr-web # 容器名称,如果不指定,会生成一个服务名加上前缀的容器名 volumes: - /DockerRegistry/yinglibao/web:/data networks: - springboot_yinglibao ports: - "8088:8088" micr_yinglibao_pay: image: micr-pay-0.0.1-SNAPSHOT container_name: micr-pay # 容器名称,如果不指定,会生成一个服务名加上前缀的容器名 volumes: - /DockerRegistry/yinglibao/pay:/data networks: - springboot_yinglibao ports: - "9000:9000" micr_yinglibao_task: image: micr-task-0.0.1-SNAPSHOT container_name: micr-task # 容器名称,如果不指定,会生成一个服务名加上前缀的容器名 volumes: - /DockerRegistry/yinglibao/task:/data networks: - springboot_yinglibao ports: - "8087:8087" #redis: # image: redis:6.0.8 # ports: # - "6379:6379" # volumes: # - /app/redis/redis.conf:/etc/redis/redis.conf # - /app/redis/data:data # networks: # - springboot_network # command: redis-server /etc/redis/redis.conf # mysql: # image: mysql: # environment: # MYSQL_ROOT_PASSWORD: 'root' # MYSQL_ALLOW_EMPTY_PASSWORD: 'no' # MYSQL_DATABASE: 'yinglibao # MYSQL_USER: 'springboot' # MYSQL_PASSWORD: 'springboot' # ports: # - "3306:3306" # volumes: # - /app/mysql/db:/var/lib/mysql # - /app/mysql/conf/my.cnf:/etc/my.cnf # - /app/mysql/init:/docker-entrypoint-initdb.d # networks: # - springboot_network # command: --default-authentication-plugin=mysql_native_password # 解决外部无法访问 networks: # 创建 springboot_network 网桥网络 springboot_yinglibao:
编写完成
docker-compose.yml
后,进行语法检查:
# 进行语法检查
docker compose config -q
- 编写DockerFile 将jar包封装到Docker镜像中
FROM java:8
MAINTAINER hcj
# 在主机 /var/lib/docker目录下创建一个临时文件,并链接到容器的 /tmp
VOLUME /tmp2
# 将jar包添加到容器中,并命名为 springboot_docker.jar
ADD micr-api-1.0.0.jar /micr-api-1.0.0.jar
# 运行jar包
RUN bash -c 'touch micr-api-1.0.0.jar'
ENTRYPOINT ["java", "-jar", "/micr-api-1.0.0.jar"]
# SpringBoot项目配置的端口号为8080,需要将8080暴露出去
EXPOSE 8080
FROM java:8
MAINTAINER hcj
# 在主机 /var/lib/docker目录下创建一个临时文件,并链接到容器的 /tmp
VOLUME /tmp2
# 将jar包添加到容器中,并命名为 springboot_docker.jar
ADD micr-common-1.0.0.jar /micr-common-1.0.0.jar
# 运行jar包
RUN bash -c 'touch micr-common-1.0.0.jar'
ENTRYPOINT ["java", "-jar", "micr-common-1.0.0.jar"]
# SpringBoot项目配置的端口号为8080,需要将8080暴露出去
EXPOSE 8080
FROM java:8
MAINTAINER hcj
# 在主机 /var/lib/docker目录下创建一个临时文件,并链接到容器的 /tmp
VOLUME /tmp2
# 将jar包添加到容器中,并命名为 springboot_docker.jar
ADD micr-dataservice-0.0.1-SNAPSHOT.jar /micr-dataservice-0.0.1-SNAPSHOT.jar
# 运行jar包
RUN bash -c 'touch micr-dataservice-0.0.1-SNAPSHOT.jar'
ENTRYPOINT ["java", "-jar", "/micr-dataservice-0.0.1-SNAPSHOT.jar"]
# SpringBoot项目配置的端口号为8080,需要将8080暴露出去
EXPOSE 8086
FROM java:8
MAINTAINER hcj
# 在主机 /var/lib/docker目录下创建一个临时文件,并链接到容器的 /tmp
VOLUME /tmp2
# 将jar包添加到容器中,并命名为 springboot_docker.jar
ADD mirc-web-0.0.1-SNAPSHOT.jar /mirc-web-0.0.1-SNAPSHOT.jar
# 运行jar包
RUN bash -c 'touch mirc-web-0.0.1-SNAPSHOT.jar'
ENTRYPOINT ["java", "-jar", "/mirc-web-0.0.1-SNAPSHOT.jar"]
# SpringBoot项目配置的端口号为8080,需要将8080暴露出去
EXPOSE 8088
FROM java:8
MAINTAINER hcj
# 在主机 /var/lib/docker目录下创建一个临时文件,并链接到容器的 /tmp
VOLUME /tmp2
# 将jar包添加到容器中,并命名为 springboot_docker.jar
ADD micr-task-0.0.1-SNAPSHOT.jar /micr-task-0.0.1-SNAPSHOT.jar
# 运行jar包
RUN bash -c 'touch micr-task-0.0.1-SNAPSHOT.jar'
ENTRYPOINT ["java", "-jar", "/micr-task-0.0.1-SNAPSHOT.jar"]
# SpringBoot项目配置的端口号为8080,需要将8080暴露出去
EXPOSE 8087
FROM java:8
MAINTAINER hcj
# 在主机 /var/lib/docker目录下创建一个临时文件,并链接到容器的 /tmp
VOLUME /tmp2
# 将jar包添加到容器中,并命名为 springboot_docker.jar
ADD micr-pay-0.0.1-SNAPSHOT.jar micr-pay-0.0.1-SNAPSHOT.jar
# 运行jar包
RUN bash -c 'touch micr-pay-0.0.1-SNAPSHOT.jar'
ENTRYPOINT ["java", "-jar", "/micr-pay-0.0.1-SNAPSHOT.jar"]
# SpringBoot项目配置的端口号为8080,需要将8080暴露出去
EXPOSE 9000
- 运行docker容器
docker build -t hcj_yinglibao:1.3 .
- 如果语法检查没有任何问题,进行创建、启动:
docker compose up -d
Docker轻量级可视化工具Portainer
一款轻量级的应用,提供了图形化界面,用于方便的管理Docker环境,包括单机环境和集群环境
Portainer分为开源社区版(CE版)和商用版(BE版/EE版)。
# 旧版镜像地址为portainer/portainer,从2022年1月标记为过期
# 新版镜像地址为portainer/portainer-ce
# --restart=always 如果Docker引擎重启了,那么这个容器实例也会在Docker引擎重启后重启,类似开机自启
docker run -d -p 8000:8000 -p 9000:9000 --name portainer --restart=always -v/var/run/docker.sock:/var/run/docker.sock -v portainer_data:/data portainer/portainer-ce
启动之后,便可以在浏览器中进行访问:http://192.168.70.138:9000
首次进来时,需要创建 admin 的用户名(默认admin
)、密码(必须满足校验规则,例如portainer.io123
)。
选择 local
管理本地docker,即可看到本地Docker的详细信息,包括其中的镜像(images)、容器(containers)、网络(networks)、容器卷(volumes)、compose编排(stacks)等等。
Docker容器监控之 CAdvisor+InfluxDB+Granfana
简称CIG
通过docker stats命令可以很方便的看到当前宿主机上所有容器的CPU,内存以及网络流量等数据,。
但是,docker stats统计结果只能是当前宿主机的全部容器,数据资料是实时的没有地方存储、没有健康指标过线预警等功能
CAdvisor(监控收集) + InfluxDB(存储数据) + Granfana(展示图表),合称 CIG
。
CAdvisor
CAdvisor是一个容器资源监控工具,包括容器的内存、CPU、网络IO、磁盘IO等监控,同时提供了一个Web页面用于查看容器的实时运行状态。
CAdvisor默认存储2分钟的数据,而且只是针对单物理机。不过CAdvisor提供了很多数据集成接口,支持 InfluxDB、Redis、Kafka、Elasticsearch等集成,可以加上对应配置将监控数据发往这些数据库存储起来。
CAdvisor主要功能:
展示Host和容器两个层次的监控数据
展示历史变化数据
InfluxDB
InfluxDB是用Go语言编写的一个开源分布式时序、事件和指标数据库,无需外部依赖。
CAdvisor默认只在本机保存2分钟的数据,为了持久化存储数据和统一收集展示监控数据,需要将数据存储到InfluxDB中。InfluxDB是一个时序数据库,专门用于存储时序相关数据,很适合存储 CAdvisor 的数据。而且 CAdvisor本身已经提供了InfluxDB的集成方法,在启动容器时指定配置即可。
InfluxDB主要功能:
基于时间序列,支持与时间有关的相关函数(如最大、最小、求和等)
可度量性,可以实时对大量数据进行计算
基于事件,支持任意的事件数据
Granfana
Grafana是一个开源的数据监控分析可视化平台,支持多种数据源配置(支持的数据源包括InfluxDB、MySQL、Elasticsearch、OpenTSDB、Graphite等)和丰富的插件及模板功能,支持图表权限控制和报警。
Granfana主要功能:
灵活丰富的图形化选项
可以混合多种风格
支持白天和夜间模式
多个数据源
- 安装部署
version: '3.1'
volumes:
grafana_data: {}
services:
influxdb:
# tutum/influxdb 相比influxdb多了web可视化视图。但是该镜像已被标记为已过时
image: tutum/influxdb:0.9
restart: always
environment:
- PRE_CREATE_DB=cadvisor
ports:
- "8083:8083" # 数据库web可视化页面端口
- "8086:8086" # 数据库端口
volumes:
- ./data/influxdb:/data
cadvisor:
image: google/cadvisor:v0.32.0
links:
- influxdb:influxsrv
command:
- -storage_driver=influxdb
- -storage_driver_db=cadvisor
- -storage_driver_host=influxsrv:8086
restart: always
ports:
- "8080:8080"
volumes:
- /:/rootfs:ro
- /var/run:/var/run:rw
- /sys:/sys:ro
- /var/lib/docker/:/var/lib/docker:ro
grafana:
image: grafana/grafana:8.5.2
user: '104'
restart: always
links:
- influxdb:influxsrv
ports:
- "3000:3000"
volumes:
- grafana_data:/var/lib/grafana
environment:
- HTTP_USER=admin
- HTTP_PASS=admin
- INFLUXDB_HOST=influxsrv
- INFLUXDB_PORT=8086
- 检查语法
docker compose config -q
- 执行yml
docker compose up -d