Docker-consule 服务发现与注册

consul服务更新和服务发现
什么是服务注册与发现
服务注册与发现是微服务架构中不可或缺的重要组件。起初服务都是单节点的,不保障高可用性,也不考虑服务的压力承载,服务之间调用单纯的通过接口访问。直到后来出现了多个节点的分布式架构,起初的解决手段是在服务前端负载均衡,这样前端必须要知道所有后端服务的网络位置,并配置在配置文件中。这里就会有几个问题:
●如果需要调用后端服务A-N,就需要配置N个服务的网络位置,配置很麻烦
●后端服务的网络位置变化,都需要改变每个调用者的配置

既然有这些问题,那么服务注册与发现就是解决这些问题的。后端服务A-N可以把当前自己的网络位置注册到服务发现模块,服务发现就以K-V的方式记录下来,K一般是服务名,V就是IP:PORT。服务发现模块定时的进行健康检查,轮询查看这些后端服务能不能访问的了。前端在调用后端服务A-N的时候,就跑去服务发现模块问下它们的网络位置,然后再调用它们的服务。这样的方式就可以解决上面的问题了,前端完全不需要记录这些后端服务的网络位置,前端和后端完全解耦!

 什么是consul
consul是google开源的一个使用go语言开发的服务管理软件。支持多数据中心、分布式高可用的、服务发现和配置共享。采用Raft算法,用来保证服务的高可用。内置了服务注册与发现框架、分布一致性协议实现、健康检查、Key/Value存储、多数据中心方案,不再需要依赖其他工具(比如ZooKeeper等)。服务部署简单,只有一个可运行的二进制的包。每个节点都需要运行agent,他有两种运行模式server 和 client。 每个数据中心官方建议需要3或5个server节点以保证数据安全,同时保证server-leader的选举能够正确的进行。

在client模式下,所有注册到当前节点的服务会被转发到server节点,本身是不持久化这些信息。
在server模式下,功能和client模式相似,唯一不同的是,它会把所有的信息持久化到本地,这样遇到故障,信息是可以被保留的。
server-leader是所有server节点的老大,它和其它server节点不同的是,它需要负责同步注册的信息给其它的server节点,同时也要负责各个节点的健康监测。

consul提供的一些关键特性:
服务注册与发现:consul通过DNS或者HTTP接口使服务注册和服务发现变的很容易,一些外部服务,例如saas提供的也可以一样注册。
健康检查:健康检测使consul可以快速的告警在集群中的操作。和服务发现的集成,可以防止服务转发到故障的服务上面。
Key/Value存储:一个用来存储动态配置的系统。提供简单的HTTP接口,可以在任何地方操作。
多数据中心:无需复杂的配置,即可支持任意数量的区域。
安装consul是用于服务注册,也就是容器本身的一些信息注册到consul里面,其他程序可以通过consul获取注册的相关服务信息,这就是服务注册与发现。

consul 部署
consul服务器            192.168.146.20        运行consul服务、nginx服务、consul-template守护进程
registrator服务器        192.168.146.30        运行registrator容器、运行nginx容器
 

consul服务器 
建立 Consul 服务
mkdir /opt/consul
#上传软件包并解压
cd /opt/consul
unzip consul_0.9.2_linux_amd64.zip
#解压完就是一个可执行文件
mv consul /usr/local/bin/


//设置代理,在后台启动 consul 服务端
consul agent \
-server \
-bootstrap \
-ui \
-data-dir=/var/lib/consul-data \
-bind=192.168.146.20 \
-client=0.0.0.0 \
-node=consul-server01 &> /var/log/consul.log &


-server: 以server身份启动。默认是client。
-bootstrap :用来控制一个server是否在bootstrap模式,在一个数据中心中只能有一个server处于bootstrap模式,当一个server处于 bootstrap模式时,可以自己选举为 server-leader。
-bootstrap-expect=2 :集群要求的最少server数量,当低于这个数量,集群即失效。
-ui :指定开启 UI 界面,这样可以通过 http://localhost:8500/ui 这样的地址访问 consul 自带的 web UI 界面。
-data-dir :指定数据存储目录。
-bind :指定用来在集群内部的通讯地址,集群内的所有节点到此地址都必须是可达的,默认是0.0.0.0。
-client :指定 consul 绑定在哪个 client 地址上,这个地址提供 HTTP、DNS、RPC 等服务,默认是 127.0.0.1。
-node :节点在集群中的名称,在一个集群中必须是唯一的,默认是该节点的主机名。
-datacenter :指定数据中心名称,默认是dc1。
netstat -natp | grep consul
 
启动consul后默认会监听5个端口:
8300:replication、leader farwarding的端口
8301:lan cossip的端口
8302:wan gossip的端口
8500:web ui界面的端口
8600:使用dns协议查看节点信息的端口


 查看集群信息
#查看members状态
consul members
Node             Address              Status  Type    Build  Protocol  DC
consul-server01  192.168.146.20:8301  alive   server  0.9.2  2         dc1


查看集群状态
[root@localhost consul]# consul operator raft list-peers
Node             ID                   Address              State   Voter  RaftProtocol
consul-server01  192.168.146.20:8300  192.168.146.20:8300  leader  true   2
 
[root@localhost consul]# consul info | grep leader
    leader = true
    leader_addr = 192.168.146.20:8300


 通过 http api 获取集群信息
curl 127.0.0.1:8500/v1/status/peers             #查看集群server成员
curl 127.0.0.1:8500/v1/status/leader            #集群 server-leader
curl 127.0.0.1:8500/v1/catalog/services            #注册的所有服务
curl 127.0.0.1:8500/v1/catalog/nginx            #查看 nginx 服务信息
curl 127.0.0.1:8500/v1/catalog/nodes            #集群节点详细信息


 registrator服务器
//容器服务自动加入 Nginx 集群


 安装 Gliderlabs/Registrator
Gliderlabs/Registrator 可检查容器运行状态自动注册,还可注销 docker 容器的服务到服务配置中心。目前支持 Consul、Etcd 和 SkyDNS2。
 
docker run -d \
--name=registrator \
--net=host \
-v /var/run/docker.sock:/tmp/docker.sock \
--restart=always \
gliderlabs/registrator:latest \
--ip=192.168.146.30 \
consul://192.168.146.20:8500


-v /var/run/docker.sock:/tmp/docker.sock :
把宿主机的Docker守护进程(Docker daemon)默认监听的Unix域套接字挂载到容器中。
--restart=always :设置在容器退出时总是重启容器。
--ip :刚才把network指定了host模式,所以我们指定ip为宿主机的ip。
consul :指定consul服务器的IP和端口。
测试服务发现功能是否正常
docker run -itd -p:83:80 --name test-01 -h test01 nginx
docker run -itd -p:84:80 --name test-02 -h test02 nginx
docker run -itd -p:88:80 --name test-03 -h test03 httpd
docker run -itd -p:89:80 --name test-04 -h test04 httpd            
    #-h:设置容器主机名
验证 http 和 nginx 服务是否注册到 consul
浏览器中,输入 http://192.168.146.20:8500,在 Web 页面中“单击 NODES”,
然后单击“consurl-server01”,会出现 5 个服务。


 

//在consul服务器使用curl测试连接服务器
curl 127.0.0.1:8500/v1/catalog/services 
{"consul":[],"httpd":[],"nginx":[]}


consul-template 
Consul-Template是基于Consul的自动替换配置文件的应用。
Consul-Template是一个守护进程,用于实时查询Consul集群信息,
并更新文件系统上任意数量的指定模板,生成配置文件。更新完成以后,
可以选择运行 shell 命令执行更新操作,重新加载 Nginx。
 
Consul-Template可以查询Consul中的服务目录、Key、Key-values 等。
这种强大的抽象功能和查询语言模板可以使 Consul-Template 特别适合动态的创建配置文件。
例如:创建Apache/Nginx Proxy Balancers 、 Haproxy Backends等。
准备 template nginx 模板文件
//在consul服务器上操作
vim /opt/consul/nginx.ctmpl
#定义nginx upstream一个简单模板
upstream http_backend {
  {{range service "nginx"}}
   server {{.Address}}:{{.Port}};
   {{end}}
}
 
#定义一个server,监听8000端口,反向代理到upstream
server {
    listen 8000;
    server_name localhost 192.168.146.20;
    access_log /var/log/nginx/kgc.com-access.log;    #修改日志路径
    index index.html index.php;
    location / {
        proxy_set_header HOST $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header Client-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_pass http://http_backend;
    }
}


 编译安装nginx
yum -y install pcre-devel zlib-devel gcc gcc-c++ make
useradd -M -s /sbin/nologin nginx
tar zxvf nginx-1.12.0.tar.gz -C /opt/
cd /opt/nginx-1.12.0/
./configure --prefix=/usr/local/nginx --user=nginx --group=nginx && make && make install
 
ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin/
配置 nginx
vim /usr/local/nginx/conf/nginx.conf
......
http {
     include       mime.types;
     include  vhost/*.conf;                       #添加虚拟主机目录
     default_type  application/octet-stream;
......


//创建虚拟主机目录
mkdir /usr/local/nginx/conf/vhost
 
//创建日志文件目录
mkdir /var/log/nginx
 
//启动nginx
nginx


 配置并启动 template
#上传并解压
[root@localhost opt]# unzip consul-template_0.19.3_linux_amd64.zip 
Archive:  consul-template_0.19.3_linux_amd64.zip
  inflating: consul-template   
#解压完就是一个可执行文件
[root@localhost opt]# mv consul-template /usr/local/bin/


//在前台启动 template 服务,启动后不要按 ctrl+c 中止 consul-template 进程。
consul-template --consul-addr 192.168.146.20:8500 \
--template "/opt/consul/nginx.ctmpl:/usr/local/nginx/conf/vhost/kgc.conf:/usr/local/nginx/sbin/nginx -s reload" \
--log-level=info


//另外打开一个终端查看生成配置文件
cat /usr/local/nginx/conf/vhost/kgc.conf
 
upstream http_backend {
  
   server 192.168.146.30:83;
   
   server 192.168.146.30:84;
   
}
 
#定义一个server,监听8000端口,反向代理到upstream
server {
    listen 8000;
    server_name localhost 192.168.146.20;
    access_log /var/log/nginx/kgc.com-access.log;                            #修改日志路径
    index index.html index.php;
    location / {
        proxy_set_header HOST $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header Client-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_pass http://http_backend;
    }
}

访问 template-nginx 
docker ps -a
CONTAINER ID   IMAGE                           COMMAND                  CREATED          STATUS          PORTS                               NAMES
7abad2e0e8bd   httpd                           "httpd-foreground"       39 minutes ago   Up 39 minutes   0.0.0.0:89->80/tcp, :::89->80/tcp   test-04
8feb3873ebc2   httpd                           "httpd-foreground"       39 minutes ago   Up 39 minutes   0.0.0.0:88->80/tcp, :::88->80/tcp   test-03
cfdf0051d561   nginx                           "/docker-entrypoint.…"   39 minutes ago   Up 39 minutes   0.0.0.0:84->80/tcp, :::84->80/tcp   test-02
3f7d9953df9c   nginx                           "/docker-entrypoint.…"   39 minutes ago   Up 39 minutes   0.0.0.0:83->80/tcp, :::83->80/tcp   test-01
87fb40eeb6b7   gliderlabs/registrator:latest   "/bin/registrator --…"   44 minutes ago   Up 44 minutes                                       registrator
 
 
docker exec -it 3f7d9953df9c bash
echo "this is test1 web" > /usr/share/nginx/html/index.html
 
docker exec -it cfdf0051d561 bash
echo "this is test2 web" > /usr/share/nginx/html/index.html
 
 
浏览器访问:http://192.168.146.20:8000/ ,并不断刷新。

测试
#再次在registrator开两个容器
docker run -itd -p:85:80 --name test-05 -h test05 nginx
docker run -itd -p:86:80 --name test-06 -h test06 nginx
 
#consul端再次查看文件,两个容器自动添加进来了
#定义nginx upstream一个简单模板
cat /usr/local/nginx/conf/vhost/kgc.conf
upstream http_backend {
  
   server 192.168.146.30:83;
   
   server 192.168.146.30:84;
   
   server 192.168.146.30:85;
   
   server 192.168.146.30:86;
   
}
 
#定义一个server,监听8000端口,反向代理到upstream
server {
    listen 8000;
    server_name localhost 192.168.146.20;
    access_log /var/log/nginx/kgc.com-access.log;                            #修改日志路径
    index index.html index.php;
    location / {
        proxy_set_header HOST $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header Client-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_pass http://http_backend;
    }
}

 consul 多节点
//添加一台已有docker环境的服务器192.168.146.40/24加入已有的群集中
consul agent \
-server \
-ui \
-data-dir=/var/lib/consul-data \
-bind=192.168.146.40 \
-client=0.0.0.0 \
-node=consul-server02 \
-enable-script-checks=true  \
-datacenter=dc1  \
-join 192.168.146.20 &> /var/log/consul.log &
 
------------------------------------------------------------------------
-enable-script-checks=true :设置检查服务为可用
-datacenter : 数据中心名称
-join :加入到已有的集群中
------------------------------------------------------------------------
 
consul members
Node             Address             Status  Type    Build  Protocol  DC
consul-server01  192.168.146.20:8301  alive   server  0.9.2  2         dc1
consul-server02  192.168.146.40:8301  alive   server  0.9.2  2         dc1
 
consul operator raft list-peers
Node             ID                  Address             State     Voter  RaftProtocol
consul-server01  192.168.146.20:8300  192.168.146.20:8300  leader    true   2
consul-server02  192.168.146.40:8300  192.168.146.40:8300  follower  true   2

docker consul 容器的自动发现与注册 重点总结

什么叫做微服务(容器)注册与发现。

是一种分布式管理系统,定位服务的方法。

在传统架构中,应用程序之间直连到已知的服务,设备提供的网络:ip地址,基于tcp/ip:端口

由于现代微服务部署,服务的动态性,数量增加了,传统的基于ip+端口的形式已经不太适用。

服务注册以及发现:微服务的位置信息(ip+端口+健康状态)统一注册到一个中心化的服务注册表当中。

可以允许其他服务动态的查询和发现这些服务。

服务注册:当一个服务启动时,会把自己的元数据(IP 端口 服务名称 健康状态)注册到服务注册表当中。

这个注册表的服务(cousul、zookeeper)。也可以在云平台部署。

服务发现:其他服务需要和这个服务通信时,只需要向注册表查询服务位置信息(ip+端口),这样的话可以直接在服务注册表中,直接获取我想要的信息,不需要到静态配置去查看了。

服务注册与发现的优点:

1、动态性,可以在运行时动态添加和移除服务,不需要额外的人工操作和配置。

2、弹性:一旦某个服务不可用,服务注册表可以及时更新,通知其他服务避免请求的失败。

3、可扩展:可以适应不断变化的服务数量。

4、服务方调用时,透明性,前端和后端实现解耦。(解耦:降低两个组件之间的相互依赖关系)

服务注册与发现机制和其他工具配合使用,负载均衡,健康检查,配置管理(一键同步)。

微服务架构中非常重要的组件。

cousul:

consul是HashiCrop公司开发的一套工具,主要用于实现服务发现与注册,配置管理,分布式的系统协调。

consul的主要特点:

1、服务发现与自动注册(核心),位置信息(ip+端口+服务名称)

2、健康检查,服务注册到cousul,一并加入系统的还有它的健康状态,定期发送一个心跳检查,如果服务挂了,cousul会自动移除。

3、分布式锁:cousul提供了一个分布式锁的功能,协调多个节点之间的操作,防止竞争条件和数据冲突。

  1、每一个服务的发现和注册都是一个会话  session

  创建锁:微服务1在注册到cousul的时候,cousul会和这个服务的会话创建一个锁,锁用来标识具体的服务器。会话和锁之间相关联。

  获取锁:微服务2,建立会话,获取锁,如果申请的锁没有被使用,客户端成功获取,如果已经存在,表示已有其他的服务在占用,会给你分配一个新的锁(KV 存储)

  释放锁:任务完成或者服务断开了连接,会把锁释放,删除会话和锁之间的关系。删除与锁关联的键。实现资源的释放。

4、KV存储:key-value分布式的键值对存储系统,存储配置的信息,锁,特性。应用程序可以使用consul的键值对信息来动态的获取配置信息。

5、多数据中心支持:consul可以在多个地域进行部署,可以实现数据中心之间的发现和注册功能。

6、DNS和HTTP API:Consul支持DNS接口,通过域名解析定位服务的位置。http api:通过API应用接口,可以调用consul的信息。服务信息,健康检查等等

7、事件通知,如有关键信息可以随时获取通知。

consul和服务发现部署:

consul服务器:docker1 192.168.233.40  consul  docker-ce  nginx-二进制部署  consul-template(自动发现和自动配置)

registrator服务器:docker2 192.168.233.50 运行注册机制和微服务(容器)

consul服务器:多节点  docker3  192.168.233.60(加入到consul的集群中)

consul agent \
-server \
-bootstrap \
-ui \
-data-dir=/var/lib/consul-data \
-bind=20.0.0.180 \
-client=0.0.0.0 \
-node=consul-server01 &> /var/log/consul.log &

consul agent:开启监听服务

-server:指定集群当中的服务器节点,consul的RAFT算法实现分布式结构中节点的一致性。(只有一台服务器时)集群当中的成员,直接成为集群的leader,后续加入的服务器都是follower。

-bootstrap:表示该节点是引导节点,引导选举过程,以及为后续加入的server做引导,加入集群。

-ui:启动图形化界面

-data-dir=/var/lib/consul-data:consul存储数据的路径

-bind=20.0.0.180:服务端绑定的ip地址,节点当中通信。

-client=0.0.0.0:客户端的地址,表示所有主机都可以和server建立通信。(生产中是指定的服务器。)

-node=consul-server01:指定consul节点的名称,在集群当中consul节点的名称都是唯一的,不可以重复。

&> /var/log/consul.log:混合重定向输出到consul.log

&:后台运行

[root@master01 consul]# netstat -antp | grep consul
tcp        0      0 20.0.0.180:8300         0.0.0.0:*               LISTEN      44903/consul        
tcp        0      0 20.0.0.180:8301         0.0.0.0:*               LISTEN      44903/consul        
tcp        0      0 20.0.0.180:8302         0.0.0.0:*               LISTEN      44903/consul        
tcp6       0      0 :::8500                 :::*                    LISTEN      44903/consul        
tcp6       0      0 :::8600                 :::*                    LISTEN      44903/consul        
 

启动consul后默认会监听5个端口

8300:faft协议的端口,保持分布式集群的一致性,端口处理复制和领导者选举

8301:LAN Gossip的端口,局域网内部进行节点的通信和信息传播的协议。(了解)

8302:Wan Gossip的端口,广域网内的节点的通信和信息传播的协议(了解)

8500:web ui的端口,用来访问consul的图形化界面

8600:DNS解析的端口。

查看集群的信息

consul members

查看集群的状态

consul operator raft list-peers

查看集群的server成员

curl 127.0.0.1:8500/v1/status/peers

查看集群的领导者

curl 127.0.0.1:8500/v1/status/leader

查看已经被集群发现和注册的服务

curl 127.0.0.1:8500/v1/catalog/services

查看集群节点的详细信息

curl 127.0.0.1:8500/v1/catalog/nodes

客户端执行:

docker run -d \
--name=registrator \
--net=host \
-v /var/run/docker.sock:/tmp/docker.sock \
--restart=always \
gliderlabs/registrator:latest \
--ip=20.0.0.181 \
consul://20.0.0.180:8500

-v /var/run/docker.sock:/tmp/docker.sock

docker.sock的是守护进程的套接字文件,把它映射到容器当中,registrator容器可以监听docker的所有事件,并且完成自动注册服务。

-ip=20.0.0.181:注册在consul的ip地址。

consul://20.0.0.180:8500:所有发现的服务都会注册到指定的server节点。

拉取两个服务,浏览器访问一下

停止一个服务,实时更新,httpd消失

再重新启动,httpd恢复

consul-template:

是HashCrop公司开发的一个工具,用于consul集成,自动更新配置文件,实现配置管理的自动化。

作用:

1、动态的自动更新。consul-template监控consul当中key-value的存储键值对,键值对发送变化,会自动更新配置文件,无需重启服务。

2、支持多种后端的模版:nginx配置,ETCD(k8s)等等

实现consul-template的功能

自动化更新配置文件

1. 准备 template nginx 模板文件

vim nginx.ctmpl(后缀名必须为ctmpl)

upstream test1 {
  {{range service "nginx"}}
   server {{.Address}}:{{.Port}};
   {{end}}

}

在这个配置当中: {{range service "nginx"}}:test1的反向代理的方法会遍历由consul注册的所有服务名称为nginx的服务

server {{.Address}}:{{.Port}};:将发现和注册的nginx服务的ip地址和端口,添加到test1的upstream的方法当中

#定义一个server,监听8000端口,反向代理到upstream
server {
    listen 8000;
    server_name localhost 192.168.233.40;
    access_log /var/log/nginx/kgc.com-access.log;    #修改日志路径
    index index.html index.php;

location / {
        proxy_set_header HOST $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header Client-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_pass http://http_backend;
    }
}

2. 编译安装nginx

yum -y install pcre-devel zlib-devel gcc gcc-c++ make

useradd -M -s /sbin/nologin nginx
tar zxvf nginx-1.22.0.tar.gz -C /opt/
cd /opt/nginx-1.22.0/
./configure --prefix=/usr/local/nginx --user=nginx --group=nginx && make -j 4 && make install

ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin/

3. 配置 nginx

vim nginx.conf

http {
     include       mime.types;
     include  vhost/*.conf;                       #添加虚拟主机目录
     default_type  application/octet-stream;
......

}

//创建虚拟主机目录
mkdir /usr/local/nginx/conf/vhost

//创建日志文件目录
mkdir /var/log/nginx

//启动nginx
nginx

4. 配置并启动 template

unzip consul-template_0.19.3_linux_amd64.zip -d /opt/
cd /opt/
mv consul-template /usr/local/bin/

现在我们创建一个nginx 83端口试试自动发现功能

//在前台启动 template 服务,启动后不要按 ctrl+c 中止 consul-template 进程。

consul-template --consul-addr 192.168.233.40:8500 \

--template "/opt/consul/nginx.ctmpl:/usr/local/nginx/conf/vhost/kgc.conf:/usr/local/nginx/sbin/nginx -s reload" \

--log-level=info

consul-template --consul-addr 192.168.233.40:8500 指定consul的地址,告诉consul-template从server节点获取数据

--template "/opt/consul/nginx.ctmpl:/usr/local/nginx/conf/vhost/test.conf:/usr/local/nginx/sbin/nginx -s reload"

第一个部分

/opt/consul/nginx.ctmpl:配置文件大小的模版的位置

第二个部分:

/usr/local/nginx/vhost/test.conf

给与模版生产配置文件的位置

第三个部分:

/usr/local/nginx/sbin/nginx -s reload

只要集群中服务发生变化,可以随时更新到配置文件当中。

--log-level=info:设置consul-template的日志级别为info。

consul是一个中间件(起一个中间件的作用):nginx通过consul-template获取模版,做反向代理,consul-template 再通过--consul的主机来获取注册服务的ip和端口

然后nginx调用发现的服务来实现负载均衡

已发现81、83 nginx

负载均衡测试:

consul的多节点

//添加一台已有docker环境的服务器192.168.233.60/24加入已有的群集中
consul agent \
-server \
-ui \
-data-dir=/var/lib/consul-data \
-bind=20.0.0.182 \
-client=0.0.0.0 \
-node=consul-server02 \
-enable-script-checks=true  \
-datacenter=dc1  \
-join 20.0.0.180 &> /var/log/consul.log &

-enable-script-checks=true:设置检查服务为可用,他也可以发现原集群当中的服务

-datacenter=dc1:加入到180的数据中心

-join 192.168.233.180 加入到已有的集群当中去。

想同步,在docker2(客户端)上也装一个发现的机制即可

运行完成之后就同步完成了

查看集群状态:

脱离集群:在docker3输入leave命令

总结:

docker-consul的核心就是发现,微服务,可以动态的管理

docker-consul:查,看,元数据:ip  端口  健康状态  服务名

consul-template:自动化管理配置文件的工具,(作用是)获取consul当中注册的服务信息,可以自动的添加到配置文件当中,及时生效,无需重启服务

consul多节点:一旦选举出了leader,后续的服务都是follow,server的名称不能重复,唯一,但是可以在一个数据中心。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/248655.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

数据库基础(实体,管理系统,日志,数据类型,键与约束)

基本概念 数据(Data): 数据是描述事物的信息,可以是数字、文字、图像、音频等形式。数据库中存储的就是这些数据,这些数据可以是具体的实体(如一个人的信息),也可以是抽象的概念&…

HTTP 503错误:服务不可用,原因及解决方案

在Web开发中,HTTP状态码是用于表示Web服务器响应的各种状态。其中,HTTP 503错误表示服务不可用,这意味着服务器暂时无法处理请求。这个错误通常是由于服务器过载、维护或其他原因导致的。 原因: 服务器过载:当服务器…

产品入门第五讲:Axure交互和情境

目录 一.Axure交互和情境的介绍 1.交互介绍 概念 常见的Axure交互设计技巧 2.情境介绍 概念 常见的Axure情境设计技巧: 二.实例展示 1.ERP登录页到主页的跳转 2.ERP的菜单跳转到各个页面 📚📚 🏅我是默,一个…

HarmonyOS 应用开发 —— ArkTS 可复用代码块梳理

目录 ArkTS 复用代码块弹窗提醒网络请求消息通知如何给任意组件添加 multiState?如何给 ListItem 添加删除按钮, ArkTS 复用代码块 记录一下自己这几天学习成果,我发官方文档很全,都是有时候查找起来不是很容易,因此总…

Golang学习之路一开山篇

Golang学习之路一开山篇 初识 Golang 我第一次接触 Golang 是在2016年, 当时在深圳工作, 项目需要用Golang, 当时在犹豫要不要学还是走, 毕竟Java开发搞了很多年了, 说放弃还是有难度的, 其实也不是放弃Java, 说不定其他项目还是要使用Java. 在领导的再三劝说下, 开启了Golan…

vue中哪些数组的方法可以做到响应式

Vue2 中为什么直接通过数组的索引修改元素是不会触发视图更新 vue2 为什么不直接监听数组 Vue2 对于数组提供了一些变异方法 重写数组方法源码分析 定义拦截器将拦截器挂载到数组上面收集依赖 扩展:理解Vue2如何解决数组和对象的响应式问题 对复杂对象的处理 复杂对…

2023,真人漫改走上IP高地

你能接受自己的纸片人老公/老婆变成了真人吗? 无论大家能不能接受,真人漫改都已经成为了影视行业的新趋势,而阅文集团收购腾讯动漫的举措,无疑是为漫改剧添了一把火。 在阅文宣布以6亿人民币的价格收购腾讯动漫旗下的相关业务以…

scipy.signal.hilbert和scipy.fftpack.hilbert的区别

提示:分析scipy.signal.hilbert和scipy.fftpack.hilbert在应用的区别 一、代码 import matplotlib import matplotlib.pyplot as plt import numpy as np from pyhht import EMD from scipy.signal import hilbert import tftb.processing from scipy import signa…

【Linux】Redis 数据库安装教程(Ubuntu 22.04)

前言 Redis是一个开源的内存数据库,它可以用作键值存储、缓存和消息代理。它支持各种数据结构,包括字符串、哈希、列表、集合、有序集合等。Redis通常被用于构建高性能、可扩展的应用程序,特别是那些需要快速访问数据和实时数据处理的应用场…

Windows 11上边两个空格导致我多熬了1个多小时

将图中的文件路径复制,然后到文件管理器里边去搜索。 发现找不到,可是明明就在这里啊。 我百思不得其解,还以为是IDEA出了问题,我只能是重新启动项目,结果还是告诉我找不到文件。 要是同一个目录下已经有一个名为a…

Gateway No servers available for service

springCloud集成网关测试报错找不到服务,如下 造成这种错误可能是下面两种原因 1、nacos注册的服务不在一个命名空间内,导致找不到服务503 spring cloud:nacos:discovery:server-addr: 127.0.0.1:8848config:server-addr: 127.0.0.1:8848file-extensio…

如何测试和挑选 2024 年最佳 Mac 数据恢复软件

数据是无价的。有些具有货币价值,例如您的银行帐户详细信息或官方文件。其他的则具有情感价值且不可替代,例如家庭照片。所有这些都存储在您的硬盘中,任何事情都可能出错。它可能会遇到技术错误,例如恶意软件攻击或驱动器故障&…

WeChatMsg: 导出微信聊天记录 | 开源日报 No.108

Mozilla-Ocho/llamafile Stars: 3.5k License: NOASSERTION llamafile 是一个开源项目,旨在通过将 lama.cpp 与 Cosmopolitan Libc 结合成一个框架,将 LLM (Large Language Models) 的复杂性折叠到单个文件可执行程序中,并使其能够在大多数…

Axure动态面板的应用与ERP系统登录界面、主页左侧菜单栏、公告栏的绘制

目录 一、动态面板 1.1 简介 1.2 使用动态面板的原因 二、动态面板之轮播图实现案例 2.1 完成步骤 2.2 最终效果 三、动态面版之多方式登录案例 四、动态面板之后台主界面左侧菜单栏 五、ERP登录界面 六、ERP主界面菜单栏 七、ERP公告栏 八、登录页面跳转公告栏 一…

数据结构 | Log-Structured Merge Tree (LSM Tree)

今天介绍LSM Tree这个数据结构,严格意义上来说,他并不像他的名字一样是一棵树型的数据结构,而更多是一种设计思想。 LSM Tree最先在1996年被提出,后来被广泛运用于现代NoSQL(非关系型数据库)系统中&#xf…

25 redis 中 cluster 集群的工作模式

前言 我们这里首先来看 redis 这边实现比较复杂的 cluster集群模式 整个 cluster集群 中会包含多对 MasterSlave 的组合, 然后这多对 MasterSlave 来分解 16384 个 slot 然后 客户端这边 set, get 的时候, 先根据 key 计算对应存储的 slot, 然后 服务器这边响应 MOVED 目标…

Python自动化测试如何自动生成测试用例?

汽车软件开发自动化测试攻略 随着软件开发在造车行业中占有越来越重要的地位,敏捷开发的思想在造车领域中也逐渐地被重视起来,随之而来的是整车厂对自动化测试需求越来越强烈。本文结合北汇在自动化测试方面的丰富经验,简单介绍一下实施自动…

VR虚拟仿真技术应用到外事警察岗位技能培训的场景及优势

VR治安民警常态化工作实战教学演练是一种利用VR虚拟现实制作和web3d开发技术进行治安民警培训和实战演练的新型教学模式。相较于传统的培训方式,VR治安民警常态化工作实战教学演练具有以下优点: VR实战是一种完全虚拟的实战训练方式,他可以根…

娱乐新拐点:TikTok如何改变我们的日常生活?

在数字时代的浪潮中,社交媒体平台不断涌现,其中TikTok以其独特的短视频内容在全球范围内掀起了一场娱乐革命。本文将深入探讨TikTok如何改变我们的日常生活,从社交互动、文化传播到个人创意表达,逐步改写了娱乐的新篇章。 短视频潮…

k8s节点not ready

开发小伙伴反应,发布应用失败。检查后发现有个虚拟机挂掉了 启动后先重启服务:(一般是自启动,自动拉起pod服务) service docker restart docker ps |grep kube-apiserver|grep -v pause|awk ‘{print $1}’|xargs -i …