docker集群的详解以及超详细搭建

文章目录

  • 一、问题引入
    • 1. 多容器位于同一主机
    • 2. 多容器位于不同主机
  • 二、介绍
  • 三、特性
  • 四、概念
    • 1. 节点nodes
    • 2. 服务(service)和任务(task)
    • 3. 负载均衡
  • 五、docker网络
    • 1. overlay网络
  • 六、docker集群搭建
    • 1. 环境介绍
    • 2. 创建集群
    • 3. 集群网络
    • 4. 加入工作节点
  • 七、部署可视化界面portainer
    • 1. 部署单机模式
    • 2. 部署集群模式
  • 八、部署一个容器集群
    • 1. 拉取镜像
    • 2. 创建网络
    • 3. 创建服务
    • 4. 进入portainer查看busybox集群
    • 5. 不同节点间容器的通信
    • 6. 集群扩展

一、问题引入

在我们日常学习或开发过程中,如果我们的服务均采用docker容器的方式运行,比如提供后端接口服务的容器containerA和提供数据存取服务的容器containerB,如下图所示,不同的docker容器拥有各自的ip地址和端口号。

在这里插入图片描述

1. 多容器位于同一主机

本文假定一台主机只有一个docker进程。在这种情况下,容器AcontainerA和容器BcontainerB被同一个docker进程管理,容器之间的通信就可以通过目标容器ip+port进行直接访问,如下图所示

在这里插入图片描述

当容器AcontainerA需要和容器BcontainerB进行通信时,只需要在容器AcontainerA中通过172.18.0.2:3306即可完成通信。这种通信方式为同主机容器到容器的通信

这种方式有个较明显的缺点就是将容器限制在一台主机了。如果要求将容器分布在不同的主机,那这个方法就行不通了。

下面来看看将容器分布在不同的主机如何操作。

2. 多容器位于不同主机

但是在企业级项目部署中往往存在多个主机协同提供服务的情况。例如,我们的后端接口服务容器containerA位于主机AhostA中,数据存储容器containerB位于主机BhostB中,在这种情况下,我们为了方便省事,往往会将数据存储容器containerB的端口号(比如mysql的3306)映射到主机BhostB3306端口,当位于主机AhostA的后端接口服务容器containerA需要对数据进行操作时,通过主机A的ip:port对其数据存储容器containerB进行访问。如下图所示

在这里插入图片描述

在该示意图中,容器A要想与容器B通信,需要容器B将端口映射到宿主机hostB中,当连接主机B的3306端口时,根据映射规则,将访问请求转发到容器B中。这种通信方式为跨主机容器到主机再到容器的通信

这种方式虽然做到了将容器分布在不同的主机,但是仍暴露出一个缺点,目标容器的端口不得不挂载到宿主机对应端口,且目标容器宿主机的端口也不得不对外开放,万一该端口被不法分子扫描到进行攻击,那就GG了。

针对以上两个方式所暴露出的缺点,当我们既希望将容器分布在不同的主机,又希望不暴露宿主机端口而是直接通过容器的ip:port进行通信,docker官方推荐我们考虑一下集群环境

二、介绍

Swam是Docker引擎内置(原生)的集群管理和编排工具。Docker Swarm是Docker官方三剑客项目之一,提供 Docker容器集群服务,是Docker官方对容器云生态进行支持的核心方案。使用它,用户可以将多个Docker主机封装为单个大型的虚拟Docker主机,快速打造一套容器云平台。Swarm mode内置kv存储功能,提供了众多的新特性,比如:具有容错能力的去中心化设计内置服务发现负载均衡路由网格动态伸缩滚动更新安全传输等。使得Docker原生的 Swam集群具备与Mesos ,Kubernetes竞争的实力。

一个集群由多个Docker主机组成,这些主机以集群模式运行,充当管理者(管理成员资格和委托)和工作者(运行群服务)。一个给定的Docker主机可以是一个管理者manager、一个工作者worker,或者同时扮演这两个角色。创建服务时,您需要定义其最佳状态(副本数量、可用的网络和存储资源、服务对外开放的端口等)。Docker致力于保持这种理想状态。例如,如果一个工作节点变得不可用,Docker会将该节点的任务调度到其他节点上。任务是一个运行的容器,它是群服务的一部分,由群管理器管理,而不是一个独立的容器。

与独立容器相比,swarm服务的一个关键优势是,您可以修改服务的配置,包括它所连接的网络和卷,而无需手动重启服务。Docker将更新配置,停止使用过期配置的服务任务,并创建与所需配置匹配的新任务。

当Docker在swarm模式下运行时,您仍然可以在任何参与集群的Docker主机上运行独立的容器和swarm服务。独立容器和集群服务之间的一个关键区别是只有集群管理器可以管理集群,而独立容器可以在任何守护进程上启动。Docker守护进程可以作为管理人员、工作人员或两者参与到一个群体中。

三、特性

docker集群模式swarm mode为我们提供了非常丰富的特性来满足不同的场景需求。

  • 与Docker引擎集成的集群管理

    使用Docker Engine CLI创建一组Docker引擎,可以在其中部署应用程序服务。不需要额外的编排软件来创建或管理一个群体。这不就是打算和k8s杠一杠呢?

  • 去中心化设计

    Docker引擎在运行时处理任何专门化,而不是在部署时处理节点角色之间的差异。我们可以使用Docker引擎部署两种类型的节点,管理器和工作器。这意味着我们可以从单个磁盘映像构建整个swarm。

  • 声明式服务模型

    Docker引擎使用一种声明性的方法,让我们自定义应用程序堆栈中各种服务的期望状态。例如,我们可能会描述一个由带有消息队列服务的web前端服务和数据库后端组成的应用程序。

  • 动态伸缩

    对于每个服务,我们可以声明想要运行的任务数量。当扩大或缩小规模时,swarm manager会通过添加或删除任务来自动适应,以保持所需的状态。swarm manager节点持续监控集群状态,并协调实际状态和期望状态之间的任何差异。例如,如果我们设置一个服务来运行一个容器的10个副本,并且托管其中两个副本的工作机崩溃,管理器将创建两个新副本来替换崩溃的副本。群组管理器将新的副本分配给正在运行且可用的worker。

  • 多主机网络

    我们可以为服务指定叠加网络。当初始化或更新应用程序时,群管理器自动分配地址给覆盖网络上的容器。

  • 服务发现

    集群管理器节点为集群中的每个服务分配一个唯一的DNS名称和负载平衡运行容器。可以通过嵌入在swarm中的DNS服务器查询swarm中运行的每一个容器。

  • 负载均衡

    可以向外部负载平衡器公开服务端口。在内部,swarm允许我们指定如何在节点之间分发服务容器。

  • 安全传输

    群中的每个节点强制执行TLS相互认证和加密,以确保自身和所有其他节点之间的通信安全。我们可以选择使用自签名根证书或来自自定义根CA的证书。

  • 滚动更新

    在部署时,我们可以增量地将服务更新应用到节点。swarm manager允许您控制不同节点集的服务部署之间的延迟。如果出现任何问题,可以回滚到服务的前一个版本。

四、概念

在搭建docker集群之前,我们需要了解几个概念:节点(node)服务(service)任务(task)负载均衡(loadbalance)

1. 节点nodes

每个节点node都是docker集群中的每一个docker实例,当然也可以理解为运行docker进程的物理机。在集群中的所有节点中,又分为管理节点工作节点

  • 管理节点

    管理节点用于对docker集群的管理,对集群的操作命令都需要在管理节点中执行(例外:工作节点退出集群时需要在工作节点中执行退出命令),一个docker集群可以具有多个管理节点,在众多管理节点中通过raft协议选举出唯一一个leader节点

  • 工作节点

    工作节点接收并执行来自管理节点分发的任务(task),默认地,管理节点也可以同时具有工作节点的功能。

2. 服务(service)和任务(task)

服务是对任务的定义,而任务执行于管理节点或工作节点。服务是docker集群的中心结构,也是用户与swarm交互的主要介质。

  • 服务

    docker集群中的服务类似于微服务系统中的服务,一个服务是一个或多个实例的集合。而在docker集群中,一个服务我们可以理解为多个提供相同服务的docker容器的集合。

    在创建一个服务时,我们可以指定该服务使用的docker镜像,以及该服务能够创建的docker实例的副本数量。

    如在一个docker集群中,主机A中有两个容器:mysqlA和redisA,主机B中有两个容器:mysqlB和redisB,那么主机A中的mysqlA和主机B中的mysqlB属于同一个服务,主机A中的redisA和主机B中的redisB属于同一个服务,并且由管理节点实现对服务的管理(如同微服务系统中的注册中心),如下图所示

    在这里插入图片描述

  • 任务

    任务就是当我们需要调用集群中某一个服务时,管理节点从其管理的服务集合中找到该服务所对应的docker容器实例,然后向该实例指派一个任务,使其提供相应的服务。一旦任务被分配到某一个节点,则不允许再对其进行修改。

3. 负载均衡

当我们需要调用某一个服务时,管理节点自动对该服务所对应的节点进行负载均衡调用。例如微服务系统中服务注册中心的负载均衡机制。

五、docker网络

介绍完docker集群的概念,我们需要考虑一下在docker集群中,由于是多主机架构,那么什么样的网络驱动能使跨主机的容器相互通信呢?docker给我们提供的网络驱动有:bridgehostoverlaynoneipvlanmacvlan

  • bridge

    默认的网络驱动。适用于同一主机中docker容器之间的通信。

  • host

    移除docker容器与宿主机之间的网络隔离,直接使用宿主机的网络。

  • overlay

    该网络驱动允许多个主机之间的docker容器相互通信。

  • none

    脱机独立运行docker容器,无法与其他容器以及主机之间通信。

  • ipvlan

    把对ipv4和ipv6的ip地址的控制权完全交给我们。

  • macvlan

    允许我们对docker容器分配物理地址,使docker容器具有物理机表现。

在docker集群中我们使用overlay网络实现多主机内容器之间的相互通信。

1. overlay网络

overlay网络驱动在多个Docker主机之间创建分布式网络。这个网络位于(覆盖)特定于主机的网络之上,允许连接到它的容器(包括集群服务容器)在启用加密(TLS)时安全地通信。Docker透明地处理往返于正确的Docker守护进程主机和正确的目的地容器的每个分组的路由。

六、docker集群搭建

1. 环境介绍

  • 两台linux虚拟机

    操作系统主机名主机ipdocker版本
    CentOS7host10(管理节点)192.168.10.10v24.0.7
    CentOS7host20(工作节点)192.168.10.20v24.0.7
    CentOS7host30(工作节点)192.168.10.30v24.0.7

    docker版本必须大于v1.12.0,docker的集群模式是从该版本开始的,该版本发行于2016.07.28,现在都已经2023年了,我们直接安装最新版,还能避免许多bug。

  • 端口开放(或关闭防火墙

    2377/tcp:用于集群管理通信。

    7946/tcp、7946/udp:集群中各节点之间的通信。

    4789/udp:overlay网络使用。

    开放端口的命令如下

    # --permanent表示永久生效
    [root@host10 ~] firewall-cmd --zone=public --add-port=2377/tcp --permanent
    success
    [root@host10 ~] firewall-cmd --zone=public --add-port=7946/tcp --permanent
    success
    [root@host10 ~] firewall-cmd --zone=public --add-port=7946/udp --permanent
    success
    [root@host10 ~] firewall-cmd --zone=public --add-port=4789/udp --permanent
    success
    # 重新加载防火墙配置
    [root@host10 ~] firewall-cmd --reload
    success
    

    查看端口是否开放成功

    # 查看已开放的端口列表
    [root@host10 ~] firewall-cmd --zone=public --list-ports
    2377/tcp 7946/tcp 7946/udp 4789/udp
    

    关闭防火墙

    # 关闭防火墙
    [root@host10 ~] systemctl stop firewalld 
    # 开机禁用防火墙
    [root@host10 ~] systemctl disable firewalld 
    

2. 创建集群

在管理节点host10创建集群,使用以下命令

[root@host10 ~] docker swarm init --advertise-addr 192.168.10.10
# 输出
Swarm initialized: current node (0cibl244fqcmh7k6x8a3kwkfp) is now a manager.

To add a worker to this swarm, run the following command:

    docker swarm join --token SWMTKN-1-0glmg3n472i4bbpxrynjw0z0uoa7lnxagcfcgnwg40dd3mu4ga-eazqx6idqvn954nfpumn2vob0 192.168.10.10:2377

To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.

--advertise-addr用于配置一个ip地址,集群中其他节点使用此ip地址与管理节点实现通信。

创建集群的节点默认为管理节点。

另外,在输出中包含以下命令,用于其他工作节点加入该集群

docker swarm join --token SWMTKN-1-0glmg3n472i4bbpxrynjw0z0uoa7lnxagcfcgnwg40dd3mu4ga-eazqx6idqvn954nfpumn2vob0 192.168.10.10:2377

如果需要加入管理节点,则使用下面命令

docker swarm join-token manager --token SWMTKN-1-0glmg3n472i4bbpxrynjw0z0uoa7lnxagcfcgnwg40dd3mu4ga-eazqx6idqvn954nfpumn2vob0 192.168.10.10:2377

注意:该token有效期为24小时。如果该token已过期,则可以使用下面命令重新获取

[root@host10 ~] docker swarm join-token worker

To add a worker to this swarm, run the following command:

    docker swarm join --token SWMTKN-1-0glmg3n472i4bbpxrynjw0z0uoa7lnxagcfcgnwg40dd3mu4ga-eazqx6idqvn954nfpumn2vob0 192.168.10.10:2377

使用docker info查看当前集群的详细信息

[root@host10 ~] docker info

Client: Docker Engine - Community
 Version:    24.0.7
 Context:    default
 Debug Mode: false
 Plugins:
  buildx: Docker Buildx (Docker Inc.)
    Version:  v0.11.2
    Path:     /usr/libexec/docker/cli-plugins/docker-buildx
  compose: Docker Compose (Docker Inc.)
    Version:  v2.21.0
    Path:     /usr/libexec/docker/cli-plugins/docker-compose

Server:
 Containers: 0
  Running: 0
  Paused: 0
  Stopped: 0
 Images: 4
 Server Version: 24.0.7
 Storage Driver: overlay2
  ......
 Swarm: active
  NodeID: 0cibl244fqcmh7k6x8a3kwkfp
  ......
  Raft:
   ......
  Dispatcher:
   Heartbeat Period: 5 seconds
  ......
很长很长

使用docker node ls查看当前集群中的各个节点信息

[root@host10 ~] docker node ls

ID                            HOSTNAME   STATUS    AVAILABILITY   MANAGER STATUS   ENGINE VERSION
0cibl244fqcmh7k6x8a3kwkfp *   host10     Ready     Active         Leader           24.0.7

其中,*表示当前位于此节点中。

3. 集群网络

当我们在管理节点使用docker swarm init初始化一个docker集群时,docker默认会创建两个网络:

  • overlay驱动的网络,名称为ingress,该网络用于处理集群中各个服务之间的控制与数据传输。当我们创建服务service时,如果没有指定自定义的overlay网络,则默认使用ingress网络。
  • bridge驱动的网络,名称为docker_gwbridge,该网络用于维持集群中各个节点之间的连接。
[root@host10 docker-scripts]# docker network ls
NETWORK ID     NAME              DRIVER    SCOPE
2d3e81dc418a   bridge            bridge    local
5675307b8b8d   docker_gwbridge   bridge    local
496c4eb3bb51   host              host      local
j4lsm97dkovz   ingress           overlay   swarm
69df9100d962   myBridge          bridge    local
e72b30a2ea15   none              null      local

4. 加入工作节点

我们把host20和host30作为工作节点,加入到该集群。复制上面的命令,分别到到host20和host30两台主机中中执行

[root@host20 ~] docker swarm join --token SWMTKN-1-0glmg3n472i4bbpxrynjw0z0uoa7lnxagcfcgnwg40dd3mu4ga-eazqx6idqvn954nfpumn2vob0 192.168.10.10:2377

This node joined a swarm as a worker.

[root@host30 ~] docker swarm join --token SWMTKN-1-0glmg3n472i4bbpxrynjw0z0uoa7lnxagcfcgnwg40dd3mu4ga-eazqx6idqvn954nfpumn2vob0 192.168.10.10:2377

This node joined a swarm as a worker.

恭喜,工作节点已加入到集群。


此时如果我们在host20节点中使用docker node ls查看当前集群中的各个节点信息,则会出现下面信息

[root@host20 ~] docker node ls

Error response from daemon: This node is not a swarm manager. Worker nodes can not be used to view or modify cluster state. Please run this command on a manager node or promote the current node to a manager.

说明该命令只允许在管理节点中使用。我们在host10(管理节点)中再次执行此命令

[root@host10 docker-scripts] docker node ls
ID                            HOSTNAME   STATUS    AVAILABILITY   MANAGER STATUS   ENGINE VERSION
0cibl244fqcmh7k6x8a3kwkfp *   host10     Ready     Active         Leader           24.0.7
wfw312mxlolm6e8xgdwp6kndy     host20     Ready     Active                          24.0.7
rctru4fdjrv6y7gsh6i3ek2lp     host30     Ready     Active                          24.0.7

七、部署可视化界面portainer

现在集群已经搭建好了,下面我们使用portainer实现docker的可视化界面。

1. 部署单机模式

我们可以将portainer部署在docker集群的管理节点中,此时,portainer可以通过管理节点的docker进程实现对docker集群的可视化。

  • 管理节点拉取portainer的镜像

    docker pull portainer/portainer-ce:latest
    
  • 将portainer镜像运行为容器

    docker run \
        -p 8000:8000 \
        -p 9443:9443 \
        -v /var/run/docker.sock:/var/run/docker.sock \
        -v portainer_data:/data \
        --name my-portainer \
        -d \
        --privileged=true \
        --restart=always \
        portainer/portainer-ce:latest
    

    --privileged=true用于赋予该容器root权限。

  • 在浏览器访问https://192.168.10.10:9443,进入portainer创建页面。

    在这里插入图片描述

  • 创建用户以后,进入添加环境页面。有些朋友在这个页面没有Get Started选项,只有Add Environments选项。

    在这里插入图片描述

  • 点击Add Environments选项,添加一个docker环境。

    我们选择Standalone单机模式的docker环境,点击下方按钮对该环境配置。

    在这里插入图片描述

  • 配置环境。

    配置环境的方式有多种,通过AgentAPISocketEdge Agent Standard四种方式。我们以Socket方式为例,将该环境命名为host10-standard

    注意,该方式要求我们在运行portainer容器时添加挂载卷:-v /var/run/docker.sock:/var/run/docker.sock

    在这里插入图片描述

  • 环境配置完成后,点击portainer首页,就可以在环境列表中看到我们刚才添加的环境host1-standalone了。

    在这里插入图片描述

  • 点击该环境,查看其详细信息

    在这里插入图片描述

  • 点击Go to cluster visualizer查看docker集群

    在这里插入图片描述

2. 部署集群模式

portainer提供了以集群方式运行的能力,既然我们已经搭建好了具有三个节点的docker集群,那么我们尝试一下portainer的集群部署。

  • 管理节点下载部署文件

    curl -L https://downloads.portainer.io/ce2-19/portainer-agent-stack.yml -o portainer-agent-stack.yml
    

    该文件内容如下,主要就是根据镜像创建服务,以及挂载卷、网络配置、端口配置、副本配置等信息。

    version: '3.2'
    
    services:
      agent:
        image: portainer/agent:2.19.3
        volumes:
          - /var/run/docker.sock:/var/run/docker.sock
          - /var/lib/docker/volumes:/var/lib/docker/volumes
        networks:
          - agent_network
        deploy:
          mode: global
          placement:
            constraints: [node.platform.os == linux]
    
      portainer:
        image: portainer/portainer-ce:2.19.3
        command: -H tcp://tasks.agent:9001 --tlsskipverify
        ports:
          - "9443:9443"
          - "9000:9000"
          - "8000:8000"
        volumes:
          - portainer_data:/data
        networks:
          - agent_network
        deploy:
          mode: replicated
          replicas: 1
          placement:
            constraints: [node.role == manager]
    
    networks:
      agent_network:
        driver: overlay
        attachable: true
    
    volumes:
      portainer_data:
    

    但是我们需要对该文件内容中agent部分增加一个端口挂载的配置,否则在后面创建环境时会因为连接失败而无法创建环境

    services:
      agent:
        image: portainer/agent:2.19.3
        volumes:
          - /var/run/docker.sock:/var/run/docker.sock
          - /var/lib/docker/volumes:/var/lib/docker/volumes
        ports:
          - "9001:9001"
        networks:
          - agent_network
        deploy:
          mode: global
          placement:
            constraints: [node.platform.os == linux]
    
  • 管理节点部署portainer集群

    [root@host10 portainer]# docker stack deploy -c portainer-agent-stack.yml portainer
    
    Creating network portainer_agent_network
    Creating service portainer_agent
    Creating service portainer_portainer
    

    可以看到,创建了一个网络portainer_agent_network、两个服务portainer_agentportainer_portainer

  • 任意节点查看网络,创建了一个overlay驱动的网络portainer_agent_network该网络会在集群中各个节点创建

    [root@host10 portainer]# docker network ls
    
    NETWORK ID     NAME                      DRIVER    SCOPE
    2d3e81dc418a   bridge                    bridge    local
    5675307b8b8d   docker_gwbridge           bridge    local
    496c4eb3bb51   host                      host      local
    j4lsm97dkovz   ingress                   overlay   swarm
    69df9100d962   myBridge                  bridge    local
    e72b30a2ea15   none                      null      local
    54cnuprrj5e4   portainer_agent_network   overlay   swarm
    
  • 管理节点查看服务。

    [root@host10 portainer]# docker service ls
    
    ID             NAME                  MODE         REPLICAS   IMAGE                           PORTS
    mrjnxf734cki   portainer_agent       global       3/3        portainer/agent:2.19.3          
    tfgkmlb6rwwk   portainer_portainer   replicated   1/1        portainer/portainer-ce:2.19.3   *:8000->8000/tcp, *:9000->9000/tcp, *:9443->9443/tcp
    
  • 管理节点查看容器。

    [root@host10 portainer]# docker ps
    
    CONTAINER ID   IMAGE                           COMMAND                   CREATED         STATUS         PORTS                          NAMES
    d6d497046594   portainer/agent:2.19.3          "./agent"                 4 minutes ago   Up 4 minutes                                  portainer_agent.0cibl244fqcmh7k6x8a3kwkfp.k3f1gkysdu64718ml6zm5cuzg
    
    8742edf0f3b7   portainer/portainer-ce:2.19.3   "/portainer -H tcp:/…"   4 minutes ago   Up 4 minutes   8000/tcp, 9000/tcp, 9443/tcp   portainer_portainer.1.otjp9rsp17v8f4l6u2ma1mg7a
    
  • 工作节点查看容器。与管理节点不同的是,工作节点只创建了portainer/agent容器,它是由管理节点在集群中创建的副本容器。

    [root@host20 ~]# docker ps
    
    CONTAINER ID   IMAGE                    COMMAND     CREATED         STATUS         PORTS     NAMES
    0e090ff0133d   portainer/agent:2.19.3   "./agent"   5 minutes ago   Up 5 minutes             portainer_agent.wfw312mxlolm6e8xgdwp6kndy.iputjhsv1q8yudkv6i760e694
    
  • 在浏览器访问https://192.168.10.10:9443,进入portainer页面。

    部署单击模式不同的是,在选择环境类型时,我们应选择集群模式如下图所示

    在这里插入图片描述

  • 配置环境。

    这次我们选择通过Agent的方式配置环境的连接。

    在这里插入图片描述

  • 完成配置后,在环境列表可以看到我们创建的portainer集群环境。

    在这里插入图片描述

  • 点击进入该环境,查看详细信息

    在这里插入图片描述

  • 进入集群页面,可以看到,我们在管理节点上部署的portainer容器根据服务的副本配置,在工作节点上也建立了相同的portainer容器副本。

    在这里插入图片描述

八、部署一个容器集群

我们以创建busybox镜像的容器为例,创建docker容器集群。

1. 拉取镜像

管理节点中使用以下命令拉取镜像

docker pull busybox

2. 创建网络

管理节点中创建一个overlay驱动的网络

[root@host10 ~]# docker network create -d overlay --attachable busybox_overlay_network
zjwmzvwlf4fgisos37i5876s9

注意,在集群环境中创建overlay驱动网络时,一定要添加参数--attachable为了集群容器或单机容器与运行在其他节点中的容器建立通信

3. 创建服务

管理节点中创建服务

docker service create -td --name busybox_service --network busybox_overlay_network --replicas=2 busybox
  • --replicas=2表示需要创建两个busybox容器的副本
  • --network busybox_overlay_network表示使用我们在上面创建的网络

4. 进入portainer查看busybox集群

在这里插入图片描述

在容器列表页面可以看到busybox容器的集群,可以看到,两个busybox容器分别位于host20host30节点,ip地址分别为10.0.3.22410.0.3.225

在这里插入图片描述

5. 不同节点间容器的通信

对于busybox容器集群的情况如下

主机容器ip地址
host2010.0.3.225
host3010.0.3.224

下面我们进入host20主机的busybox容器,去ping位于host30主机中的busybox容器,可以ping通,反之相同。

在这里插入图片描述

6. 集群扩展

上面我们创建busybox容器集群时,设置其副本数量为2--replicas=2,现在我们通过portainer对副本数量进行修改为3。

在这里插入图片描述

现在再看一下集群页面,可以发现busybox容器已扩展到三个节点,如下图所示

在这里插入图片描述

到这里docker集群的入门搭建过程就结束了。



纸上得来终觉浅,绝知此事要躬行。

————————我是万万岁,我们下期再见————————

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/204613.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

建设中国版MBA在线教育网站,群硕为Quantic敲开中国大门

2024考研即将拉开序幕,一个令人胆寒的问题出现在问答社区热榜—— 从现实来看,学历贬值已经成为一种全球现象。在卷学历的也不仅是大学生,还有很多职场人士,渴望通过获得MBA学位成为精英人才、商业领袖。 Quantic是交互式MBA线上…

热部署怎么部署

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 前言操作流程:在这里插入图片描述 ![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/a832d83c091742eda9d9325931a89df4.png) 这里的跟上面的…

【自动化测试】pytest 用例执行中print日志实时输出

author: jwensh date: 20231130 pycharm 中 pytest 用例执行中 print 日志 standout 实时命令行输出 使用场景 在进行 websocket 接口进行测试的时候,希望有一个 case 是一直执行并接受接口返回的数据 def on_message(ws, message):message json.loads(message)…

Liunx配置Tomcat自启动

Liunx配置Tomcat自启动 Tomcat安装配置Tomcat开机启动 Tomcat安装 下载tomcat软件安装包,上传软件包到Liunx服务器。 解压软件包到opt目录下 tar -xvf apache-tomcat-9.0.76.tar.gz -c /opt配置Tomcat开机启动 (1)修改Tomcat bin目录下的ca…

有”亿“点强,抖音的服务器带宽是如何应对亿人同时刷屏的?

在当今这个“网络横行”的时代,刷短视频已然成为许多人日常生活的一部分。 当我们在刷短视频的时候,尽管家里的网速并不慢,但短视频播放的卡顿却让人难以忍受,有时候真的让人想扔掉手机。 那么,为什么会出现这种情况…

Elk+Filebeat+Kafka实现日志收集

ElkFilebeatKafka实现日志收集(本机nginx) 部署Zookeeper 1.实验组件 #准备3台服务器做Zookeeper集群 20.0.0.10 20.0.0.20 20.0.0.30 2.安装前准备 #关闭防火墙 systemctl stop firewalld systemctl disable firewalld setenforce 0#安装JDK yum install -y java-1.8.0-o…

【LeetCode】每日一题 2023_11_29 无限集中的最小数字(哈希/堆)

文章目录 刷题前唠嗑题目:无限集中的最小数字题目描述代码与解题思路偷看大佬题解 结语 刷题前唠嗑 LeetCode?启动!!! 今天的题目也比较的简单,因为数据量不大,所以什么做法都能过的去 题目&a…

Ruoyi-Vue或者Ruoyi-Cloud登录进去之后的第一个页面如何修改(即如何去掉首页或者如何修改首页)

其实大家如果看过最近的码云上的issues 就能知道这个问题的答案了。 我这里给出一下链接:https://gitee.com/y_project/RuoYi-Vue/issues/I60JIY 开始 第一步,把router/index.js里面关于首页的路由给注释掉或者删除掉,如图: 第…

plt创建指定色系

1、创建不连续色系 import matplotlib.pyplot as plt from matplotlib.colors import ListedColormap# 定义颜色的RGB值 colors [(0.2, 0.4, 0.6), # 蓝色(0.8, 0.1, 0.3), # 红色(0.5, 0.7, 0.2),(0.3,0.5,0.8)] # 绿色# 创建色系 cmap ListedColormap(colors)# 绘制…

化妆品大卖!年轻女孩26天狂赚7000万!

有个年轻的女孩,我们暂且称之为小美。小美经营着一个美丽的小程序商城,里面销售着各种各样的化妆品、日用百货和小家电。这些产品并非什么稀有品牌,但价格比其他地方要优惠一些,更重要的是,购买产品还能赚到钱。 让我们…

微信小程序 - 开发版、体验版、正式版共享本地缓存

问题描述 最近突然发现一个大问题啊,小程序切换版本环境的时候发现数据被污染了,瞬间就怀疑不同环境版本的小程序本地缓存是否共享的?! 果然是! 解决方案 我们可能马上想到解决方案就是:给每一个环境版本…

人工智能“排头兵”,探访福州多地 AI 智算实践

生成式 AI 在 2023 年再次引爆 IT 技术发展,福建作为数字中国的重要策源地,也是国家数字经济创新发展试验区,在人工智能方面拥有良好的产业基础和人才优势,同时近期出台的《福建省促进人工智能产业发展十条措施》,为福…

【UE】简单的警觉系统

效果 步骤 1. 新建一个空白工程,添加第三人称游戏内容包 2. 打开第三人称角色蓝图“BP_ThirdPersonCharacter” 选中弹簧臂组件,将目标臂长度设置为600,z轴方向的插槽偏移设置为100 3. 将“BP_ThirdPersonCharacter”移入场景,该…

[CustomMessages] section

[CustomMessages] section用来定义自定义的一些{cm:}常量. 一个定义和使用的例子。 [CustomMessages] CreateDesktopIconCreate a &desktop icon[Tasks] Name: desktopicon; Description: "{cm:CreateDesktopIcon}"CustomMessages是支持带参数的,从…

U-GAT-IT 使用指南

U-GAT-IT 使用指南 网络结构优化目标 论文地址:https://arxiv.org/pdf/1907.10830.pdf 项目代码:https://github.com/taki0112/UGATIT U-GAT-IT 和 Pix2Pix 的区别: U-GAT-IT:主要应用于图像风格转换、图像翻译和图像增强等任务…

应用场景丨社区建筑结构健康监测系统

随着社区的快速发展,社区建筑的结构安全与健康问题日益受到广泛关注。考虑到社区建筑的特点,如人口密集、结构复杂等,建筑结构健康监测系统的应用显得尤为重要。 社区建筑结构健康监测系统的效果 1. 结构安全性提升:通过实时监测…

跨境电商成拼多多高质量增长奇兵

不曾想到,拼多多增长仍如此迅猛。 11月28日,拼多多发布第三季度财报,数据显示,营收688.404亿元,同比增长94%,超过市场预估的548.7亿元;实现美国通用会计准则口径净利润155.37亿元,同…

java系列:什么是SSH?什么是SSM?SSH框架和SSM框架的区别

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 什么是SSH?什么是SSM?SSH框架和SSM框架的区别 前言一、什么是SSH?1.1 Struts2具体工作流程:Struts2的缺点: 1.2 Sp…

Linux系统部署Tale个人博客并发布到公网访问

文章目录 前言1. Tale网站搭建1.1 检查本地环境1.2 部署Tale个人博客系统1.3 启动Tale服务1.4 访问博客地址 2. Linux安装Cpolar内网穿透3. 创建Tale博客公网地址4. 使用公网地址访问Tale 前言 今天给大家带来一款基于 Java 语言的轻量级博客开源项目——Tale,Tale…

Pinia仓库统一管理

pinia独立维护 在src/stores文件夹下创建index.js文件,将main.js中关于pinia的语句放到index.js中 index.js文件内容: import { createPinia } from pinia import piniaPluginPersistedstate from pinia-plugin-persistedstate const pinia createPi…