一、DemonSet的介绍
1、什么是DemonSet
DaemonSet 控制器是用来保证在所有节点上运行一个 Pod 的副本当有节点加入集群时, 也会为他们新增一个 Pod。 当有节点从集群移除时,这些 Pod 也会被回收。删除 DaemonSet 将会删除它创建的所有 Pod。
简而言之:
pod不会因为node的故障的转移而转移,pod固定在指定的node的work节点中
DemonSet跟Deployment的不同是,Deployment是可以在不同的node进行故障漂移
2、DemonSet的典型用法
- 在每个节点上运行集群存储守护进程,如:Gluster、Ceph在每个节点上运行日志收集守护进程,如:fluentd、FilebeatLogstash
- 在每个节点上运行监控守护进程,如: Prometheus NodeExporter
- 在每个节点上运行网络插件为Pod提供网络服务,如: flannel、calico
3、DemonSet的编写
DaemonSet 是标准的API资源类型,它在spec字段中嵌套字段有selector、tempalte,与Deployment用法基本相同,但DaemonSet 不管理 Replicas,因为 DaemonSet不是基于期望的副本数,而是基于节点数量来控制Pod数量
4、DemonSet的使用示例
apiVersion: apps/v1
kind: DaemonSet
metadata:
name: nginx-ds
namespace: default
spec:
selector:
matchLabels:
app: nginx-ds
template:
metadata:
labels:
app: nginx-ds
spec:
containers:
- name: nginx-ds
image: nginx:1.16
ports:
- name: http
containerPort: 80
livenessProbe:
tcpSocket:
port: 80
initialDelaySeconds: 5
livenessProbe: # 就绪 监听80端口,如果80不存在则重启
httpGet:
path: '/'
port: 80
scheme: HTTP
initialDelaySeconds: 5
查看和删除,daemonset还会在现在的node创建pod
5、Daemonset采用节点标签进行部署
- 实验一:
给DamonSet只做节点标签,node打了标签的才会创建pod
apiVersion: apps/v1
kind: DaemonSet
metadata:
name: nginx-ds
namespace: default
spec:
selector:
matchLabels:
app: nginx-ds
template:
metadata:
labels:
app: nginx-ds
spec:
nodeSelector: #节点标签选择器
type: ssd #节点标签,在node上打的标签
containers:
- name: nginx-ds
image: nginx:1.16
ports:
- name: http
containerPort: 80
livenessProbe:
tcpSocket:
port: 80
initialDelaySeconds: 5
livenessProbe: # 就绪 监听80端口,如果80不存在则重启
httpGet:
path: '/'
port: 80
scheme: HTTP
initialDelaySeconds: 5
- 从查看结果看,并没有进行创建,因为没有node服务标签选择器的要求
- 查看节点标签
kubectl get node --show-labels
- 给节点打标签
kubectl label nodes node1 type=ssd
- 查看标签
kubectl get node --show-labels | grep node1
kubectl describe node node1 ##查看labels字段
kubectl describe node node1 | grep -A 5 Labels
kubectl label nodes node1 node2 type=ssd ## 连续给两个节点进行打标签
- 查看pod创建结果
kubectl get pod -o wide ## 查看pod创建在node节点中,符合场景要求
kubectl get daemonset -o wide
- 删除label标签
方法一:
kubectl label nodes node1 type-
6、DaemonSet示例二 DaemonSet部署node_exporter
1.为每个节点都运行一份 Node_exporter,采集当前节点的信息:
apiVersion: apps/v1
kind: DaemonSet
metadata:
name: node-exports
namespace: default
spec:
selector:
matchLabels:
app: node-exporter
template:
metadata:
labels:
app: node-exporter
spec:
hostNetwork: true ##共享主机网络
hostPID: true ##获取主机的PID
containers:
- name: prometheus-node-exporter
image: prom/node-exporter:v0.18.0
ports:
- name: node-ex-http
containerPort: 9100
hostPort: 9100
##存活探测和就绪探测
livenessProbe:
tcpSocket:
port: node-ex-http ##存活探测,探测port的name其实就是探测端口9100
initialDelaySeconds: 5 ##存活探测时间为5秒
readinessProbe:
httpGet:
path: '/metrics' ## 就绪探针,这是一个固定的接口
port: node-ex-http ## 就绪探针探测port的name其实就是探测端口9100
initialDelaySeconds: 5 ## 就绪探针时间为5秒
- 查看相关信息
kubectl get daemonsets ##查看daemonset创建的响应信息
kubectl describe daemonsets.apps node-exports ## 查看daemonset详情信息
kubectl get pod -o wide
- 测试
curl -s 192.168.1.201:9100/metrics | grep load15 ## 15分钟的负载信息
也可以使用浏览器进行访问,访问默认的9100端口
7、DaemonSet的更新策略
DaemonSet也支持更新策略,它支持 OnDeLete 和 RollingUpdate两种
- 0nDeLete: 是在相应节点的Pod资源被删除后重建为新版本,从而允许用户手动编排更新过程。
- RollingUpdate: 滚动更新,工作逻辑和Deployment滚动更新类似;
1、DaemonSet的更新策略——RollingUpdate
apiVersion: apps/v1
kind: DaemonSet
metadata:
name: node-exports
namespace: default
spec:
minReadySeconds: 10 ## 更新时间,默认是0秒
revisionHistoryLimit: 20 ## 回滚次数
updateStrategy: ## 更新策略
rollingUpdate:
type: RollingUpdate ##更新策略为RollingUpdate
rollingUpdate: ## RollingUpdate的策略
maxUnavailable: 1 ## 一次更新的pod数量
selector:
matchLabels:
app: node-exporter
template:
metadata:
labels:
app: node-exporter
spec:
hostNetwork: true ##共享主机网络
hostPID: true ##获取主机的PID
containers:
- name: prometheus-node-exporter
image: prom/node-exporter:v0.18.1
ports:
- name: node-ex-http
containerPort: 9100
hostPort: 9100
##存活探测和就绪探测
livenessProbe:
tcpSocket:
port: node-ex-http ##存活探测,探测port的name其实就是探测端口9100
initialDelaySeconds: 5 ##存活探测时间为5秒
readinessProbe:
httpGet:
path: '/metrics' ## 就绪探针,这是一个固定的接口
port: node-ex-http ## 就绪探针探测port的name其实就是探测端口9100
initialDelaySeconds: 5 ## 就绪探针时间为5秒
安装默认的 RollingUpdate 策略,node-exports-ds 资源将采用一次更新一个Pod对象,待新建Pod的对象就绪后,在更新下一个Pod对象,直到全部完成。
2、DaemonSet的更新策略——OnDelete
-
1、将此前创建的node-expoter中的pod模板镜像更新为 prom/node-exporter:v1.3.1,由于升级版本跨度过大,无法确保升级过程中的稳定性,我们就不得不使用 0nDeLete 策略来替换默认的RollingUpdate 策略
-
2.由于 0nDelete 并非自动完成升级,它需要管理员手动删除Pod,然后重新拉起新的Pod,才能完成更新。 (对于升级有着先后顺序的软件
这种方法就非常的有用;) -
OnDelete的使用类型
kubectl explain daemonset.spec.updateStrategy.type
apiVersion: apps/v1
kind: DaemonSet
metadata:
name: node-exports
namespace: default
spec:
minReadySeconds: 10 ## 更新时间,默认是0秒
revisionHistoryLimit: 20 ## 回滚次数
updateStrategy: ## 更新策略
rollingUpdate:
type: OnDelete ##更新策略为OnDelet
selector:
matchLabels:
app: node-exporter
template:
metadata:
labels:
app: node-exporter
spec:
hostNetwork: true ##共享主机网络
hostPID: true ##获取主机的PID
containers:
- name: prometheus-node-exporter
image: prom/node-exporter:v1.3.1
ports:
- name: node-ex-http
containerPort: 9100
hostPort: 9100
##存活探测和就绪探测
livenessProbe:
tcpSocket:
port: node-ex-http ##存活探测,探测port的name其实就是探测端口9100
initialDelaySeconds: 5 ##存活探测时间为5秒
readinessProbe:
httpGet:
path: '/metrics' ## 就绪探针,这是一个固定的接口
port: node-ex-http ## 就绪探针探测port的name其实就是探测端口9100
initialDelaySeconds: 5 ## 就绪探针时间为5秒
- 发现应用yaml文件后,image并没有发生变化
- 通过删除pod 重新创建,会重新自动建立新的镜像的pod
- 相关命令
kubectl get pod -l app=node-exporter ## 根据标签进行相关pod的查看
kubectl get pod <pod-ID> -o yaml | grep image ## 查看pod的镜像
kubectl delete daemonset -l app=node-exporter ##根据标签进行pod删除