Docker-高阶

Docker笔记

MySQL主从复制

主从复制原理

  1. 创建主服务器容器实例
docker run --name Mysql_master -v /DockerRegistry/mysql-master/logs:/var/log/mysql -v /DockerRegistry/mysql-master/data:/var/lib/mysql -v/DockerRegistry/mysql-master/conf:/etc/mysql/conf.d -v /DockerRegistry/mysql-master/mysql-files:/var/lib/mysql-files -p 3307:3306 -e MYSQL_ROOT_PASSWORD=root   -d mysql:8.0.21

# 已开启数量卷备份   备份了数据  日志  配置
  1. 在配置页面下面新建my.cnf
[mysqld]
## 设置server_id, 同一个局域网中需要唯一
server_id=101
## 指定不需要同步的数据库名称
binlog-ignore-db=mysql
## 开启二进制日志功能
log-bin=mall-mysql-bin
## 设置二进制日志使用内存大小(事务)
binlog_cache_size=1M
## 设置使用的二进制日志格式(mixed,statement,row)
binlog_format=mixed
## 二进制日志过期清理时间。默认值为0,表示不自动清理
expire_logs_days=7
## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断
## 如:1062错误是指一些主键重复,1032错误是因为主从数据库数据不一致
slave_skip_errors=1062
  1. 重启mysql_master 主机实例
docker restart
  1. 进入mysql主机,并且授予对应权限
create user 'slave'@'%' identified by '123456';
GRANT REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'slave'@'%';
  1. 创建从服务器

    docker run --name Mysql_slave -v /DockerRegistry/mysql-slave/logs:/var/log/mysql -v /DockerRegistry/mysql-slave/data:/var/lib/mysql -v /DockerRegistry/mysql-slave/conf:/etc/mysql/conf.d -v /DockerRegistry/mysql-slave/mysql-files:/var/lib/mysql-files  -p 3308:3306 -e MYSQL_ROOT_PASSWORD=root -d mysql:8.0.21
    
    # 已开启数量卷备份   备份了数据  日志  配置
  2. 配置从mysql的配置文件

[mysqld]
## 设置server_id, 同一个局域网内需要唯一
server_id=102
## 指定不需要同步的数据库名称
binlog-ignore-db=mysql
## 开启二进制日志功能,以备slave作为其它数据库实例的Master时使用
log-bin=mall-mysql-slave1-bin
## 设置二进制日志使用内存大小(事务)
binlog_cache_size=1M
## 设置使用的二进制日志格式(mixed,statement,row)
binlog_format=mixed
## 二进制日志过期清理时间。默认值为0,表示不自动清理
expire_logs_days=7
## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断
## 如:1062错误是指一些主键重复,1032是因为主从数据库数据不一致
slave_skip_errors=1062
## relay_log配置中继日志
relay_log=mall-mysql-relay-bin
## log_slave_updates表示slave将复制事件写进自己的二进制日志
log_slave_updates=1
## slave设置只读(具有super权限的用户除外)
read_only=1
  1. 进入主mysql中查看mysql同步状态
show master status;

  1. 配置从数据库所属的主数据库 重启 从mysql 进入 从mysql

    -- 格式:
    -- change master to master_host='宿主机ip',master_user='主数据库配置的主从复制用户名',master_password='主数据库配置的主从复制用户密码',master_port=宿主机主数据库端口,master_log_file='主数据库主从同步状态的文件名File',master_log_pos=主数据库主从同步状态的Position,master_connect_retry=连接失败重试时间间隔(秒);
    
    change master to master_host='192.168.70.138',master_user='slave',master_password='123456',master_port=3307,master_log_file='mall-mysql-bin.000002',master_log_pos=156,master_connect_retry=30;
  2. 在从数据库中查看主从同步状态

    show slave status /G;
    -- /G 另一种显示格式      不加\G 是从左到右的表格格式   加\G 是键值对的形式显示数据

  3. 在从数据库中开启主从复制

    start slave

配置小坑

  1. 在远程连接中 必须使用防火墙开启指定端口 不安比防火墙无法访问所有端口
  2. mysql8必须将plugin修改为mysql_native_password

Redis集群配置

  1. 创建六台redis集群
# --cluster-enabled yes   开启集群模式
# --net host使用宿主机的IP和端口,默认

docker run -d --name redis-node-1 --net host --privileged=true -v /DockerRegistry/redis-cluster/share/redis-node-1:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6381
docker run -d --name redis-node-2 --net host --privileged=true -v /DockerRegistry/redis-cluster/share/redis-node-2:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6382
docker run -d --name redis-node-3 --net host --privileged=true -v /DockerRegistry/redis-cluster/share/redis-node-3:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6383
docker run -d --name redis-node-4 --net host --privileged=true -v /DockerRegistry/redis-cluster/share/redis-node-4:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6384
docker run -d --name redis-node-5 --net host --privileged=true -v /DockerRegistry/redis-cluster/share/redis-node-5:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6385
docker run -d --name redis-node-6 --net host --privileged=true -v /DockerRegistry/redis-cluster/share/redis-node-6:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6386
  1. 构建主从关系:

    1. 进入节点1(或其中任意一个节点):
    docker exec -it redis-node-1 /bin/bash
    1. 构建主从关系

      # 宿主机IP:端口   
      # --cluster-replicas 1 表示为每个master创建一个slave节点
      redis-cli --cluster create 192.168.70.138:6381 192.168.70.138:6382 192.168.70.138:6383 192.168.70.138:6384 192.168.70.138:6385 192.168.70.138:6386 --cluster-replicas 1

    2. 查看集群状态redis-cli -p 6381:

      redis-cli -p 6381
      cluster info
      cluster nodes

  2. 主从容错迁移案例

    1. 数据读写存储

      • 当使用 redis-cli连接redis集群时,需要添加 -c参数,否则可能会出现读写出错。

        因为根据哈希槽算法中,不同的取余值要在不用的节点中存放(书写),我们在redis中输入的存放命令要先在CRC16中进行映射,获取数值,再将该数据进行16384进行取余,根据获取的取余数值确定应该在哪个redis-master中进行存值。不在指定的主数据库中存值会报错。

      • 查看集群信息

        redis-cli --cluster check 192.168.70.138:6381

    2. 主从容错切换迁移

      • 停掉 6381 redis 对应的从机变成了主机

      • 恢复6381 6381变为了从机 6384变为了主机

      • 恢复6381的主机地位 停掉6384 一段时间后 再开启6384 6381主机地位恢复

  3. 主从的扩容于缩容

    • 主从扩容

      • 新建6387、6388两个节点+新建后启动+查看是否8节点

        docker run -d --name redis-node-7 --net host --privileged=true -v /DockerRegistry/redis-cluster/share/redis-node-7:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6387
        docker run -d --name redis-node-8 --net host --privileged=true -v /DockerRegistry/redis-cluster/share/redis-node-8:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6388
      • 进入6387容器实例内部

      • 将新增的6387节点(空槽号)作为master节点加入原集群

        • 将新增的6387作为master节点加入集群
          redis-cli --cluster add-node自己实际lP地址:6387自己实际lP地址:6381 6387就是将要作为master新增节点
          6381就是原来集群节点里面的领路人,相当于6387拜拜6381的码头从而找到组织加入集群
        redis-cli --cluster add-node 192.168.70.138:6387 192.168.70.138:6381

        还未分配槽位

        重新分配槽号

        redis-cli --cluster reshard 192.168.70.138:6381

      • 检查集群情况 不是从新分配,每个主机匀点给6387

      • 将6388 添加为6387的从主机

        redis-cli --cluster add-node 192.168.70.138:6388 192.168.70.138:6387 --cluster-slave --cluster-master-id 1ff3a5d59f77fd8454fc531a1b8867cd2178b65b

    • 组从缩容 删除6387 和 6388

      • 先删除从机

        # 1. 检查容器状态,获取6388的节点编号 
        redis-cli --cluster check 192.168.70.138:6381
        # 2.将6388从集群中移除  
        redis-cli --cluster del-node 192.168.70.138:6388 6388节点编号

      • 对node7重新分配哈希槽:

        1. 对集群重新分配哈希槽
        redis-cli --cluster reshard 192.168.70.138:6381

        1. 检查集群状态

          redis-cli --cluster check 192.168.70.138:6381

        2. 删除主节点 6387

          redis-cli --cluster del-node 192.168.70.138:6387

DockerFile

独立于docker容器和镜像之外

Dockerfile是用来构建Docker镜像的文本文件,是由一条条构建镜像所需的指令和参数构成的脚本

第二种构建镜像的方法

构建三步骤

  1. 编写DockerFile文件
  2. docker build命令构建镜像
  3. docker run 运行镜像

DockerFile内容基础知识

  • 每条保留字指令都必须为大写字母且后面至少跟随一个参数
  • 指令按照从上到下,顺序执行
  • #表示注释
  • 每条指令都会创建一个新的镜像层并对镜像进行提交

保留字 就是关键字

Docker引擎执行Docker的大致流程:

  1. docker从基础镜像运行一个容器
  2. 执行一条指令并对容器做出修改
  3. 执行类似docker commit的操作提交一个新的镜像层
  4. docker再基于刚提交的镜像运行一个新容器
  5. 执行Dockerfile中的下一条指令,直到所有指令都执行完成

从应用软件的角度来看,Dockerfile、Docker镜像与Docker容器分别代表软件的三个不同阶段,

  • Dockerfile是软件的原材料
  • Dockert镜像是软件的交付品
  • Docker容器则可以认为是软件镜像的运行态,也即依照镜像运行的容器实例

Dockerfile面向开发,Docker镜像成为交付标准,Docker容器则涉及部署与运维,三者缺一不可,合力充当Docker体系的基石。

dockerfile 保留字

FROM

基础镜像,当前新镜像是基于哪个镜像的,指定一个已经存在的镜像作为模板,第一条必须是from

# FROM 镜像名
FROM hub.c.163.com/library/tomcat
MAINTAINER

镜像维护者的姓名和邮箱地址

# 非必须
MAINTAINER ZhangSan zs@163.com
RUN

容器构建时需要运行的命令。

有两种格式:

  • shell格式
# 等同于在终端操作的shell命令
# 格式:RUN <命令行命令>
RUN yum -y install vim
  • exec格式

    # 格式:RUN ["可执行文件" , "参数1", "参数2"]
    RUN ["./test.php", "dev", "offline"]  # 等价于 RUN ./test.php dev offline

    RUN是在docker build时运行

EXPOSE

当前容器对外暴露出的端口。

# EXPOSE 要暴露的端口
# EXPOSE <port>[/<protocol] ....
EXPOSE 3306 33060
WORKDIR

指定在创建容器后, 终端默认登录进来的工作目录。

ENV CATALINA_HOME /usr/local/tomcat
WORKDIR $CATALINA_HOME
ENV

用来在构建镜像过程中设置环境变量。

这个环境变量可以在后续的任何RUN指令或其他指令中使用

# 格式 ENV 环境变量名 环境变量值
# 或者 ENV 环境变量名=值
ENV MY_PATH /usr/mytest

# 使用环境变量
WORKDIR $MY_PATH
USER

指定该镜像以什么样的用户去执行,如果不指定,默认是root。(一般不修改该配置)

# USER <user>[:<group>]
USER patrick
VOLUME

容器数据卷,用于数据保存和持久化工作。类似于 docker run-v参数。

# VOLUME 挂载点
# 挂载点可以是一个路径,也可以是数组(数组中的每一项必须用双引号)
VOLUME /var/lib/mysql
ADD

将宿主机目录下(或远程文件)的文件拷贝进镜像,且会自动处理URL和解压tar压缩包。

COPY

类似ADD,拷贝文件和目录到镜像中。

将从构建上下文目录中<源路径>的文件目录复制到新的一层镜像内的<目标路径>位置。

COPY src dest
COPY ["src", "dest"]
# <src源路径>:源文件或者源目录
# <dest目标路径>:容器内的指定路径,该路径不用事先建好。如果不存在会自动创建
CMD

指定容器启动后要干的事情。

有两种格式:

  • shell格式
# CMD <命令>
CMD echo "hello world"
  • exec格式
# CMD ["可执行文件", "参数1", "参数2" ...]
CMD ["catalina.sh", "run"]
  • 参数列表格式

    # CMD ["参数1", "参数2" ....],与ENTRYPOINT指令配合使用

    Dockerfile中如果出现多个CMD指令,只有最后一个生效。CMD会被docker run之后的参数替换。

    例如,对于tomcat镜像,执行以下命令会有不同的效果:

    # 因为tomcat的Dockerfile中指定了 CMD ["catalina.sh", "run"]
    # 所以直接docker run 时,容器启动后会自动执行 catalina.sh run
    docker run -it -p 8080:8080 tomcat
    
    # 指定容器启动后执行 /bin/bash
    # 此时指定的/bin/bash会覆盖掉Dockerfile中指定的 CMD ["catalina.sh", "run"]
    docker run -it -p 8080:8080 tomcat /bin/bash

    CMD是在docker run时运行,而 RUN是在docker build时运行。

ENTRYPOINT

用来指定一个容器启动时要运行的命令。

类似于CMD命令,但是ENTRYPOINT不会被docker run后面的命令覆盖,这些命令参数会被当做参数送给ENTRYPOINT指令指定的程序。

ENTRYPOINT可以和CMD一起用,一般是可变参数才会使用CMD,这里的CMD等于是在给ENTRYPOINT传参。

当指定了ENTRYPOINT后,CMD的含义就发生了变化,不再是直接运行期命令,而是将CMD的内容作为参数传递给ENTRYPOINT指令,它们两个组合会变成 <ENTRYPOINT> "<CMD>"

例如:

FROM nginx

ENTRYPOINT ["nginx", "-c"]  # 定参
CMD ["/etc/nginx/nginx.conf"] # 变参

对于此Dockerfile,构建成镜像 nginx:test后,如果执行;

  • docker run nginx test,则容器启动后,会执行 nginx -c /etc/nginx/nginx.conf

  • docker run nginx:test /app/nginx/new.conf,则容器启动后,会执行 nginx -c /app/nginx/new.conf

dockerfile案例演示

创建centos具有vim ifconfig java8的镜像

FROM centos:7
MAINTAINER zzyy<zzyybs@126.com>
ENV MYPATH /usr/local 
WORKDIR $MYPATH

#安装vim编辑器
RUN yum -y install vim
#安装1 fconfig命令查看网络IP 
RUN yum -y install net-tools
#安装java8及lib库
RUN yum -y install glibc.i686
RUN mkdir /usr/local/java
#ADD是相对路径jar,把jdk8u171-1inux.x64.tar.gz添加到容器中,安装包必须要和Dockerfile文件在同一位置
ADD jdk-8u181-linux-x64.tar.gz /usr/local/java/
#配置java环境变量
ENV JAVA_HOME /usr/local/java/jdk1.8.0_181
ENV JRE HOME $JAVA_HOME/jre 
ENV CLASSPATH $JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib:$CLASSPATH 
ENV PATH $JAVA_HOME/bin:$PATH 
EXPOSE 80
CMD echo $MYPATH
CMD echo "success--------------ok"
CMD /bin/bash

执行命令 docker build

docker build -t centosjava8:1.5 .

显示vim安装失败的话 先将centos版本号变为7 同时 写为 FROM centos:7 ,并且重启 vm即可

虚悬镜像

仓库名和镜像名都是none的镜像的,俗称dangling image

FROM centos:7
CMD echo 'action success '
# 构建时候没有镜像名、tag
docker build .

列出docker中的虚悬镜像:

docker image ls -f dangling=true

虚悬镜像一般是因为一些错误而出现的,没有存在价值,可以删除:

# 删除所有的虚悬镜像
docker image prune

.

发布微服务项目到Docker容器

  1. 将项目jar包发送到 服务器上面
  2. 编写dockerfile文件
FROM java:8
MAINTAINER hcj

# 在主机 /var/lib/docker目录下创建一个临时文件,并链接到容器的 /tmp
VOLUME /tmp2

# 将jar包添加到容器中,并命名为 springboot_docker.jar
ADD SpringBoot-Demo_1-1.0-SNAPSHOT.jar /springboot_docker.jar
# 运行jar包
RUN bash -c 'touch /springboot_docker.jar'
ENTRYPOINT ["java", "-jar", "/springboot_docker.jar"]

# SpringBoot项目配置的端口号为8080,需要将8080暴露出去
EXPOSE 8080
  1. 运行docker容器
docker build -t hcj_jar:1.3 .
  1. 启动容器:
docker run -p8081:8080 --name springbootjar b16d189b87be

Docker 网络

docker安装并启动服务后,会在宿主机中添加一个虚拟网卡。

在Docker服务启动前,使用 ifconfigip addr 查看网卡信息:

  • ens33eth0:本机网卡

  • lo:本机回环网络网卡

    计算机以回环地址发送的消息,并不会由链路层送走,而是被本机网络层捕获。

  • 可能有virbr0(CentOS安装时如果选择的有相关虚拟化服务,就会多一个以网桥连接的私网地址的virbr0网卡,作用是为连接虚拟网卡提供NAT访问外网的功能。如果要移除该服务,可以使用 yum remove libvirt-libs.x86_64

使用 systemctl start docker启动Docker服务后,会多出一个 docker0 网卡。

作用:

  • 容器间的互联和通信以及端口映射

  • 容器IP变动时候可以通过服务名直接网络通信而不受到影响

Docker容器的网络隔离,是通过Linux内核特性 namespacecgroup 实现的。

docker 网络模式命令

查看Docker网络模式:

docker network ls

如果没有修改过docker network,则默认有3个网络模式:

  • bridge

  • host

  • none

添加Docker网络:

docker network add xxx

删除Docker网络:

docker network rm xxx

查看网络元数据:

docker network inspect xxx

删除所有无效的网络:

docker network prune

常见的Docker 网络模式

Docker 的网络模式:

网络模式 简介 使用方式
bridge 为每一个容器分配、设置IP等,并将容器连接到一个docker0虚拟网桥,默认为该模式 --network bridge
host 容器将不会虚拟出自己的网卡、配置自己的IP等,而是使用宿主机的IP和端口 --network host
none 容器有独立的 Network namespace,但并没有对齐进行任何网络设置,如分配 veth pari 和 网桥连接、IP等 --network none
container 新创建的容器不会创建自己的网卡和配置自己的IP,而是和一个指定的容器共享IP、端口范围等 --network container:NAME或者容器ID

none网络模式是一种特殊的模式,它将容器与宿主机隔离开来,不提供任何网络能力。

在none网络模式下,容器将无法访问外部网络,也无法被外部网络访问到。这种模式适用于某些特殊场景,比如需要在容器内运行一些独立的、与网络无关的应用程序。

docker 网络 none_mob64ca12f4d1ad的技术博客_51CTO博客

查看某个容器的网络模式:

# 通过inspect获取容器信息,最后20行即为容器的网络模式信息
docker inspect 容器ID | tail -n 20
bridge 网络模式

外界通过宿主机端口访问后,再交由底层NAT进行转发到docker容器网络中。

docker0

Docker 服务默认会创建一个docker0网桥(其上有一个docker0内部接口),该桥接网络的名称为 docker0,它在内核层连通了其他的物理或虚拟网卡,这就将所有容器和本地主机都放到同一个物理网络

Docker默认指定了docker0接口的IP地址和子网掩码,让主机和容器之间可以通过网桥互相通信。

查看bridge网络的详细信息,并通过grep获取名称:

docker network inspect bridge | grep name

可以看到其名称为docker0

bridge

Docker使用Linux桥接,在宿主机虚拟一个Docker容器网桥(docker0),Docker启动一个容器时会根据Docker网桥的网段分配给容器一个IP地址,称为Container-IP,同时Docker网桥是每个容器的默认网关。因为在同一个宿主机内的容器接入同一个网桥,这样容器之间就能够通过容器的Container-IP直接通信。

docker run的时候,没有指定--network的话,默认使用的网桥模式就是bridge,使用的就是docker0。在宿主机ifconfig就可以看到docker0和自己createnetwork

网桥docker0创建一对对等虚拟设备接口,一个叫veth,另一个叫eth0,成对匹配:

整个宿主机的网桥模式都是docker0,类似一个交换机有一堆接口,每个接口叫 veth,在本地主机和容器内分别创建一个虚拟接口,并让他们彼此联通(这样一对接口叫做 veth pair)。

每个容器实例内部也有一块网卡,容器内的网卡接口叫做eth0

docker0上面的每个veth匹配某个容器实例内部的eth0,两两配对,一一匹配。

例如:

宿主机

ip addr
# 每个veth都有个编号:vethXXXXXX
# @符号后面对应就是容器内的eth0网卡编号9

docker容器

ip addr
# 容器内的网卡为 eth0
# @符号后面就是宿主机上对应的veth网卡的编号10

.

host 网络模式

直接使用宿主机的 IP 地址与外界进行通信,不再需要额外进行 NAT 转换。

容器将不会获得一个独立的 Network Namespace,而是和宿主机共用一个 Network space。

容器将不会虚拟出自己的网卡,而是直接使用宿主机的 IP 和端口。

如果在 docker run 命令中同时使用了 --network host-p端口映射,例如:

docker run -p 8082:8080 --network host tomcat

那么会出现一个警告:

WARNING: Published ports are discarded when using host network mode

因为此时已经使用了host模式,本身就是直接使用的宿主机的IP和端口,此时的-p端口映射就没有了意义,也不会生效,端口号还是会以主机端口号为主。p

正确做法是:不再进行-p端口映射,或者改用bridge模式

none模式

禁用网络功能。

none模式下,并不为docker容器进行任何网络配置。进入容器内,使用 ip addr查看网卡信息,只能看到 lo(本地回环网络127.0.0.1网卡)。

docker run -p 8082:8080 --network host tomcat
container 模式

新建的容器和已经存在的一个容器共享网络IP配置,而不是和宿主机共享。

新创建的容器不会创建自己的网卡、IP,而是和一个指定的容器共享IP、端口范围。两个容器除了网络共享,其他的如文件系统、进程列表依然是隔离的。

docker run -it --name alpine1 alpine /bin/sh

# 指定和 alpine1 容器共享网络
docker run -it --name alpine2 --network container:alpine1 alpine

Alpine Linux是一款独立的、非商业的通用Linux发行版,专为追求安全性、简单性和资源效率的用户而设计。可能很多人没听说过这个Liux发行版本,但是经常用Docker的朋友可能都用过,因为他小,简单,安全而著称,所以作为基础镜像是非常好的一个选择,可谓是麻雀虽小但五脏俱全,镜像非常小巧,不到6M的大小,所以特别适合容器打包I

此时使用 ip addr查看两台容器的网络,会发现两台容器的eth0网卡内的IP等信息完全相同。

如果关掉了alpine1容器,因为alpine2的网络使用的alpine1共享网络,所以关掉alpin1后,alpine2eth0网卡也随之消失了。

自定义网络

容器间的互联和通信以及端口映射。

容器 IP 变动时候可以通过服务名直接网络通信而不受影响。(类似Eureka,通过服务名直接互相通信,而不是写死IP地址)。

docker中还有一个 --link 进行容器网络互联,但是已经被标记为过时的,可能会在将来的版本中移除这个功能。推荐使用自定义网络替换link。

在自定义网络中,可以使用Docker的DNS功能来为容器提供名称解析服务。当一个容器需要访问另一个容器时,它可以通过容器的名称或服务名来获取对方的IP地址,从而实现主机名和IP地址的对应关系。

自定义桥接网络(自定义网络默认使用的是桥接网络 bridge):

  1. 新建自定义网络
docker network create hcj_network
  1. 查看网络列表

    docker network ls
  2. 创建容器时 加入我们指定的自定义网络

    docker run -it --name alpine1 --network hcj_networke alpine
    docker run -it --name alpine2 --network hcj_networke alpine
  3. 进入容器 使用ping命令测试连接alpine2容器名字

Docker-compose容器编排

Docker-Compose 是 Docker 官方的开源项目,负责实现对Docker容器集群的快速编排。

Docker-Compose可以管理多个Docker容器组成一个应用。需要定义一个yaml格式的配置文件 docker-compose.yml,配置好多个容器之间的调用关系,然后只需要一个命令就能同时启动/关闭这些容器。

Docker建议我们每个容器中只运行一个服务,因为Docker容器本身占用资源极少,所以最好是将每个服务单独的分割开来。但是如果我们需要同时部署多个服务,每个服务单独构建镜像构建容器就会比较麻烦。所以 Docker 官方推出了 docker-compose 多服务部署的工具。

Compose允许用户通过一个单独的 docker-compose.yml 模板文件来定义一组相关联的应用容器为一个项目(project)。可以很容易的用一个配置文件定义一个多容器的应用,然后使用一条指令安装这个应用的所有依赖,完成构建

新版docker自带compose

docker compose version  
# Docker Compose version v2.21.0

compose核心概念

  • 一个文件 docker-compose.yml
  • 两要素
    • 服务:一个个应用容器实例
    • 工程:一组关联的应用容器组成的一个完整业务单元,在docker-compose.yml文件中定义。

compose常见命令

使用compose编排服务器

  1. 编排application.yml文件

    version: "3"
    
    # 配置各个容器服务
    services:
      micr_yinglibao_api:
        image: micr-api-1.0.0
        container_name: micr-api  # 容器名称,如果不指定,会生成一个服务名加上前缀的容器名
        volumes:
          - /DockerRegistry/yinglibao/api:/data
        networks:
          - springboot_yinglibao
          
      micr_yinglibao_commo:  
        image: micr-common-1.0.0
        container_name: micr-common  # 容器名称,如果不指定,会生成一个服务名加上前缀的容器名
        volumes:
          - /DockerRegistry/yinglibao/common:/data
        networks:
          - springboot_yinglibao 
          
      micr_yinglibao_dataservice:      
        image: micr-dataservice-0.0.1-SNAPSHOT
        container_name: micr-dataservice  # 容器名称,如果不指定,会生成一个服务名加上前缀的容器名
        volumes:
          - /DockerRegistry/yinglibao/dataservice:/data
        networks:
          - springboot_yinglibao 
        ports: 
          - "8086:8086"
    
      micr_yinglibao_web:      
        image: mirc-web-0.0.1-SNAPSHOT
        container_name: micr-web  # 容器名称,如果不指定,会生成一个服务名加上前缀的容器名
        volumes:
          - /DockerRegistry/yinglibao/web:/data
        networks:
          - springboot_yinglibao 
        ports: 
          - "8088:8088"
    
      micr_yinglibao_pay:      
        image: micr-pay-0.0.1-SNAPSHOT
        container_name: micr-pay  # 容器名称,如果不指定,会生成一个服务名加上前缀的容器名
        volumes:
          - /DockerRegistry/yinglibao/pay:/data
        networks:
          - springboot_yinglibao 
        ports: 
          - "9000:9000"
    
      micr_yinglibao_task:      
        image: micr-task-0.0.1-SNAPSHOT
        container_name: micr-task  # 容器名称,如果不指定,会生成一个服务名加上前缀的容器名
        volumes:
          - /DockerRegistry/yinglibao/task:/data
        networks:
          - springboot_yinglibao 
        ports: 
          - "8087:8087"
    
         
    #redis:
    #   image: redis:6.0.8
    #   ports:
    #     - "6379:6379"
    #   volumes:
    #     - /app/redis/redis.conf:/etc/redis/redis.conf
    #     - /app/redis/data:data
    #   networks:
    #     - springboot_network
    #   command: redis-server /etc/redis/redis.conf
    
    # mysql:
    #   image: mysql:
    #   environment:
    #     MYSQL_ROOT_PASSWORD: 'root'
    #     MYSQL_ALLOW_EMPTY_PASSWORD: 'no'
    #     MYSQL_DATABASE: 'yinglibao
    #     MYSQL_USER: 'springboot'
    #     MYSQL_PASSWORD: 'springboot'
    #   ports:
    #     - "3306:3306"
    #   volumes:
    #     - /app/mysql/db:/var/lib/mysql
    #     - /app/mysql/conf/my.cnf:/etc/my.cnf
    #     - /app/mysql/init:/docker-entrypoint-initdb.d
    #   networks:
    #     - springboot_network
    #   command: --default-authentication-plugin=mysql_native_password # 解决外部无法访问
    
    networks:
      # 创建 springboot_network 网桥网络
      springboot_yinglibao:
    
  2. 编写完成docker-compose.yml后,进行语法检查:

# 进行语法检查
docker compose config -q
  1. 编写DockerFile 将jar包封装到Docker镜像中
FROM java:8
MAINTAINER hcj

# 在主机 /var/lib/docker目录下创建一个临时文件,并链接到容器的 /tmp
VOLUME /tmp2

# 将jar包添加到容器中,并命名为 springboot_docker.jar
ADD micr-api-1.0.0.jar /micr-api-1.0.0.jar
# 运行jar包
RUN bash -c 'touch micr-api-1.0.0.jar'
ENTRYPOINT ["java", "-jar", "/micr-api-1.0.0.jar"]

# SpringBoot项目配置的端口号为8080,需要将8080暴露出去
EXPOSE 8080


FROM java:8
MAINTAINER hcj

# 在主机 /var/lib/docker目录下创建一个临时文件,并链接到容器的 /tmp
VOLUME /tmp2

# 将jar包添加到容器中,并命名为 springboot_docker.jar
ADD micr-common-1.0.0.jar /micr-common-1.0.0.jar
# 运行jar包
RUN bash -c 'touch micr-common-1.0.0.jar'
ENTRYPOINT ["java", "-jar", "micr-common-1.0.0.jar"]

# SpringBoot项目配置的端口号为8080,需要将8080暴露出去
EXPOSE 8080



FROM java:8
MAINTAINER hcj

# 在主机 /var/lib/docker目录下创建一个临时文件,并链接到容器的 /tmp
VOLUME /tmp2

# 将jar包添加到容器中,并命名为 springboot_docker.jar
ADD micr-dataservice-0.0.1-SNAPSHOT.jar /micr-dataservice-0.0.1-SNAPSHOT.jar
# 运行jar包
RUN bash -c 'touch micr-dataservice-0.0.1-SNAPSHOT.jar'
ENTRYPOINT ["java", "-jar", "/micr-dataservice-0.0.1-SNAPSHOT.jar"]

# SpringBoot项目配置的端口号为8080,需要将8080暴露出去
EXPOSE 8086

FROM java:8
MAINTAINER hcj

# 在主机 /var/lib/docker目录下创建一个临时文件,并链接到容器的 /tmp
VOLUME /tmp2

# 将jar包添加到容器中,并命名为 springboot_docker.jar
ADD mirc-web-0.0.1-SNAPSHOT.jar /mirc-web-0.0.1-SNAPSHOT.jar
# 运行jar包
RUN bash -c 'touch mirc-web-0.0.1-SNAPSHOT.jar'
ENTRYPOINT ["java", "-jar", "/mirc-web-0.0.1-SNAPSHOT.jar"]

# SpringBoot项目配置的端口号为8080,需要将8080暴露出去
EXPOSE 8088

FROM java:8
MAINTAINER hcj

# 在主机 /var/lib/docker目录下创建一个临时文件,并链接到容器的 /tmp
VOLUME /tmp2

# 将jar包添加到容器中,并命名为 springboot_docker.jar
ADD micr-task-0.0.1-SNAPSHOT.jar /micr-task-0.0.1-SNAPSHOT.jar
# 运行jar包
RUN bash -c 'touch micr-task-0.0.1-SNAPSHOT.jar'
ENTRYPOINT ["java", "-jar", "/micr-task-0.0.1-SNAPSHOT.jar"]

# SpringBoot项目配置的端口号为8080,需要将8080暴露出去
EXPOSE 8087

FROM java:8
MAINTAINER hcj

# 在主机 /var/lib/docker目录下创建一个临时文件,并链接到容器的 /tmp
VOLUME /tmp2

# 将jar包添加到容器中,并命名为 springboot_docker.jar
ADD micr-pay-0.0.1-SNAPSHOT.jar micr-pay-0.0.1-SNAPSHOT.jar
# 运行jar包
RUN bash -c 'touch micr-pay-0.0.1-SNAPSHOT.jar'
ENTRYPOINT ["java", "-jar", "/micr-pay-0.0.1-SNAPSHOT.jar"]

# SpringBoot项目配置的端口号为8080,需要将8080暴露出去
EXPOSE 9000

  1. 运行docker容器
docker build -t hcj_yinglibao:1.3 .
  1. 如果语法检查没有任何问题,进行创建、启动:
docker compose up -d

Docker轻量级可视化工具Portainer

一款轻量级的应用,提供了图形化界面,用于方便的管理Docker环境,包括单机环境和集群环境

Portainer分为开源社区版(CE版)和商用版(BE版/EE版)。

# 旧版镜像地址为portainer/portainer,从2022年1月标记为过期
# 新版镜像地址为portainer/portainer-ce

# --restart=always 如果Docker引擎重启了,那么这个容器实例也会在Docker引擎重启后重启,类似开机自启
docker run -d -p 8000:8000 -p 9000:9000 --name portainer --restart=always -v/var/run/docker.sock:/var/run/docker.sock -v portainer_data:/data portainer/portainer-ce

启动之后,便可以在浏览器中进行访问:http://192.168.70.138:9000

首次进来时,需要创建 admin 的用户名(默认admin)、密码(必须满足校验规则,例如portainer.io123)。

选择 local管理本地docker,即可看到本地Docker的详细信息,包括其中的镜像(images)、容器(containers)、网络(networks)、容器卷(volumes)、compose编排(stacks)等等。

Docker容器监控之 CAdvisor+InfluxDB+Granfana

简称CIG

通过docker stats命令可以很方便的看到当前宿主机上所有容器的CPU,内存以及网络流量等数据,。
但是,docker stats统计结果只能是当前宿主机的全部容器,数据资料是实时的没有地方存储、没有健康指标过线预警等功能

CAdvisor(监控收集) + InfluxDB(存储数据) + Granfana(展示图表),合称 CIG

CAdvisor

CAdvisor是一个容器资源监控工具,包括容器的内存、CPU、网络IO、磁盘IO等监控,同时提供了一个Web页面用于查看容器的实时运行状态。

CAdvisor默认存储2分钟的数据,而且只是针对单物理机。不过CAdvisor提供了很多数据集成接口,支持 InfluxDB、Redis、Kafka、Elasticsearch等集成,可以加上对应配置将监控数据发往这些数据库存储起来。

CAdvisor主要功能:

  • 展示Host和容器两个层次的监控数据

  • 展示历史变化数据

InfluxDB

InfluxDB是用Go语言编写的一个开源分布式时序、事件和指标数据库,无需外部依赖。

CAdvisor默认只在本机保存2分钟的数据,为了持久化存储数据和统一收集展示监控数据,需要将数据存储到InfluxDB中。InfluxDB是一个时序数据库,专门用于存储时序相关数据,很适合存储 CAdvisor 的数据。而且 CAdvisor本身已经提供了InfluxDB的集成方法,在启动容器时指定配置即可。

InfluxDB主要功能:

  • 基于时间序列,支持与时间有关的相关函数(如最大、最小、求和等)

  • 可度量性,可以实时对大量数据进行计算

  • 基于事件,支持任意的事件数据

Granfana

Grafana是一个开源的数据监控分析可视化平台,支持多种数据源配置(支持的数据源包括InfluxDB、MySQL、Elasticsearch、OpenTSDB、Graphite等)和丰富的插件及模板功能,支持图表权限控制和报警。

Granfana主要功能:

  • 灵活丰富的图形化选项

  • 可以混合多种风格

  • 支持白天和夜间模式

  • 多个数据源

  1. 安装部署
version: '3.1'

volumes:
  grafana_data: {}

services:
  influxdb:
	# tutum/influxdb 相比influxdb多了web可视化视图。但是该镜像已被标记为已过时
    image: tutum/influxdb:0.9
    restart: always
    environment:
      - PRE_CREATE_DB=cadvisor
    ports:
      - "8083:8083"         # 数据库web可视化页面端口
      - "8086:8086"         # 数据库端口
    volumes:
      - ./data/influxdb:/data

  cadvisor:
    image: google/cadvisor:v0.32.0
    links:
      - influxdb:influxsrv
    command:
      - -storage_driver=influxdb
      - -storage_driver_db=cadvisor
      - -storage_driver_host=influxsrv:8086
    restart: always
    ports:
      - "8080:8080"
    volumes:
      - /:/rootfs:ro
      - /var/run:/var/run:rw
      - /sys:/sys:ro
      - /var/lib/docker/:/var/lib/docker:ro

  grafana:
    image: grafana/grafana:8.5.2
    user: '104'
    restart: always
    links:
      - influxdb:influxsrv
    ports:
      - "3000:3000"
    volumes:
      - grafana_data:/var/lib/grafana
    environment:
      - HTTP_USER=admin
      - HTTP_PASS=admin
      - INFLUXDB_HOST=influxsrv
      - INFLUXDB_PORT=8086
  1. 检查语法
docker compose config -q
  1. 执行yml
docker compose up -d