一、statefullsets控制器概述
1,举例
假如,我们有一个deployment资源,创建了3个nginx的副本,对于nginx来讲,它是不区分启动或者关闭的先后顺序的,也就是“没有特殊状态”的一个服务,也成“无状态服务”,3个副本,谁先启动、谁后启动都没有关系,它只是用来web服务分发使用的一个工具而已;
那么反之,有没有需要有启动顺序、关闭顺序这样的“有状态服务”呐?答案肯定是有啊;
【访问顺序问题】,再假如,再企业当中,的MySQL主从数据库架构中,假设是2主1从数据架构,架构本身是区分master和slave角色的,在构建主从关系的时候,master必须先启动,不然slave没办法加入到主从架构中,所以需要有相同副本服务启动的先后顺序;
【副本独立的存储问题】,我们知道,MySQL是不能多服务共享数据目录的,所以在拉去多副本的“有状态服务”时,存储独立化就成了问题,也就是说,一个pod副本对应一个单独的存储目录。
【固定的访问地址问题】,还拿MySQL做举例,我们需要对有状态服务,有固定寻址的能力,我们知道,pod删除重新拉取后,ip就会发生变化,那么对于mysql服务来说,副本的每个pod都需要有精准的、不变的唯一标识,不然主从架构等问题,一旦重新新启动pod,就会彻底摧毁架构,也就是说pod副本删除重新拉取后,能够精准的找到对应原来的服务;
2,总结:
对于同一个deployment或者其他资源创建的pod副本,我们在使用“有状态服务”的副本pod时,有着三个需求:
1,副本启动、停止要求有顺序;
2,每个副本需要有独立的存储目录空间;
3,副本重新拉起,能够有方式在其改变ip的情况下还能精准的找到对应副本;
那么以上,也是statefulsets控制器能够解决的问题;
二、启停顺序与headless网络唯一标识
1,创建一个“无头”svc资源
· 编辑无头服务svc资源清单
无头svc服务,就是没有ClusterIP的svc资源;
[root@k8s231 statefulsets]# cat headless.yaml
apiVersion: v1
kind: Service
metadata:
name: xinjizhiwa-headless
spec:
ports:
- port: 80
name: web
# 将clusterIP字段设置为None表示为一个无头服务headless,即svc将不会分配VIP。
clusterIP: None
selector:
k8s: xinjizhiwa
· 创建无头svc服务
[root@k8s231 statefulsets]# kubectl apply -f headless.yaml
2,创建statefullsets使用无头服务
· 编辑statefulsets资源清单
声明使用无头svc
[root@k8s231 statefulsets]# vim staefulsets.yaml
apiVersion: apps/v1
kind: StatefulSet
metadata:
name: xinjizhiwa-web
spec:
selector:
matchLabels:
k8s: xinjizhiwa
#声明无头服务的service;
serviceName: xinjizhiwa-headless
replicas: 3
template:
metadata:
labels:
k8s: xinjizhiwa
spec:
containers:
- name: c1
image: nginx:1.20.1-alpine
· 创建statefulsets资源
[root@k8s231 statefulsets]# kubectl apply -f staefulsets.yaml
3,验证无头服务机启停顺序
· 查看pod
发现破的名称,是按照statefulsets资源的名称加上数字顺序排列生成的;
[root@k8s231 statefulsets]# kubectl get pods -o wide
· 查看无头svc
[root@k8s231 statefulsets]# kubectl get svc
· 创建一个用来测试【pod网络唯一标识 】的pod容器
[root@k8s231 statefulsets]# kubectl run -it dns-test --rm --image=alpine:latest -- sh
/ #
/ # for i in `seq 0 2`;do ping xinjizhiwa-web-${i}.xinjizhiwa-headless.default.svc.xinjizhiwa.com -c3;done
网路唯一标识:
【pod的名称】.【无头服务的名称】.【名称空间】.【svc】.【集群DNS域名】
拓展:这个就是集群DNS域名的所在位置,可以通过这里来查看;
[root@k8s231 deploy]# vim /var/lib/kubelet/config.yaml
.......
clusterDNS:
- 10.200.0.10
clusterDomain: xinjizhiwa.com
· 删除pod重新拉起,在ping唯一标识,测试结果
[root@k8s231 deploy]# kubectl delete pods --all
删除pod,等待重新拉取
· 结论
通过ping唯一标识,ping通后,删除pod,在ping唯一标识还可以ping通,查看pod的ip已经重新拉起后改变了,可还是ping通了,就证明,唯一标识成功;
三、StatefulSets副本独立存储
1,创建一个无头服务
[root@k8s231 vol]# vim headless.yaml
apiVersion: v1
kind: Service
metadata:
name: xjzw-headless
spec:
ports:
- port: 80
name: web
clusterIP: None
selector:
k8s: xjzw
[root@k8s231 vol]# kubectl apply -f headless.yaml
查看无头svc
[root@k8s231 vol]# kubectl get svc
2,创建StatefulSets资源
声明独立存储
[root@k8s231 vol]# cat statefulset.yaml
apiVersion: apps/v1
kind: StatefulSet
metadata:
name: xjzw-web
spec:
selector:
matchLabels:
k8s: xjzw
serviceName: xjzw-headless
replicas: 3
#声明创建pvc;存储卷卷申请模板,会为每个Pod去创建唯一的pvc并与之关联哟!
volumeClaimTemplates:
- metadata:
name: data
spec:
accessModes: [ "ReadWriteOnce" ]
# 声明咱们自定义的动态存储类,即storageclass动态存储资源。
storageClassName: "managed-nfs-storage"
resources:
requests:
storage: 2Gi
template:
metadata:
labels:
k8s: xjzw
spec:
containers:
- name: nginx
image: nginx:1.20.1-alpine
volumeMounts:
- name: data
mountPath: /usr/share/nginx/html
[root@k8s231 vol]# kubectl apply -f statefulset.yaml
查看statefulsets资源
[root@k8s231 vol]# kubectl get statefulsets
NAME READY AGE
xinjizhiwa-web 3/3 55m
xjzw-web 3/3 17s
3,验证是否有独立存储
查看nfs挂载地址,可以看到,创建出来三个存储地址,证明3个副本都有自己的独立存储空间了;
[root@k8s231 vol]# kubectl exec -it xjzw-web-0 -- sh
/ # echo 111111111 > /usr/share/nginx/html/index.html
/ # exit
[root@k8s231 vol]# kubectl exec -it xjzw-web-1 -- sh
/ # echo 222222222 > /usr/share/nginx/html/index.html
/ # exit
[root@k8s231 vol]# kubectl exec -it xjzw-web-2 -- sh
/ # echo 333333333 > /usr/share/nginx/html/index.html
/ # exit
证明三个pod副本的存储是相互独立的
至此,咱们的statefulset资源学习完毕;
四、总结:
1,唯一的pod副本网络标识,重启pod时ip改变也不影响访问;
2,启停顺序,安转数字排序;
3,个副本通过声明存储卷申请模板,独立存储;