kubernetes二进制多master部署

文章目录

    • 一、master02 节点部署(在上期博客部署完成的情况下)
      • 1、准备master02节点需要的文件
      • 2、修改配置文件kube-apiserver中的IP
      • 3、启动各服务并设置开机自启
      • 4、查看node节点状态
    • 二、负载均衡部署
      • 1、配置load balancer集群双机热备负载均衡
        • 1.1 准备nginx编译安装脚本
        • 1.2 修改nginx配置文件
        • 1.3 启动nginx服务
      • 2、部署keepalived服务
        • 2.1 修改keepalive配置文件
        • 2.2 创建nginx状态检查脚本
        • 2.3 启动keepalive服务
      • 3、修改node节点上的配置文件
      • 4、查看连接状态
    • 三、部署 Dashboard
      • 1、Dashboard 介绍
      • 2、部署Dashboard
        • 部署多master集群架构过程

一、master02 节点部署(在上期博客部署完成的情况下)

image-20240515192524741

  • master02环境准备,详细过程参考上一期博客环境准备
服务器主机名IP地址主要组件/说明
master01节点+etcd01节点master01192.168.10.11kube-apiserver、kube-controller-manager、kube-schedular etcd
master02节点master02192.168.10.20kube-apiserver、kube-controller-manager、kube-schedular
node01节点+etcd02节点node01192.168.10.12kubelet、kube-proxy、docker、calico
node02节点+etcd03节点node02192.168.10.13kubelet、kube-proxy、docker、calico
nginx01节点nginx01192.168.10.14keepalived负载均衡(主)
nginx02节点nginx02192.168.10.15keepalived负载均衡(备)
#添加主机映射
vim /etc/hosts
192.168.10.11 master01
192.168.10.20 master02
192.168.10.12 node01
192.168.10.13 node02

image-20240515134751218

image-20240515134905587

1、准备master02节点需要的文件

  • 从 master01 节点上拷贝证书文件、各master组件的配置文件和服务管理文件到 master02 节点
scp -r /opt/etcd/ @192.168.10.20:/opt/
#拷贝etcd服务需要的文件到新的master02节点

scp -r /opt/kubernetes/ @192.168.10.20:/opt
#拷贝kubernetes目录下的文件到新的master02 节点

scp -r /root/.kube @192.168.10.20:/root
#拷贝当前目录下的文件到新的master02节点

scp /usr/lib/systemd/system/{kube-apiserver,kube-controller-manager,kube-scheduler}.service root@192.168.10.20:/usr/lib/systemd/system/
#拷贝master01节点组件的服务管理文件到新的master02节点

image-20240515141021325

image-20240515140923416

image-20240515140814626

image-20240515140722871

2、修改配置文件kube-apiserver中的IP

  • master02节点
#修改apiserver配置文件
vim /opt/kubernetes/cfg/kube-apiserver
--bind-address=192.168.10.20 \
#第5行,ip修改为本机的地址
--secure-port=6443 \
--advertise-address=192.168.10.20 \
#第7行,ip修改为本机的地址

image-20240515141423156

3、启动各服务并设置开机自启

  • master02 节点
systemctl enable --now kube-apiserver.service
#apiserver服务,开机自启并立即启动

systemctl status kube-apiserver.service
#查看apiserver服务状态

systemctl enable --now kube-controller-manager.service
#controller-manager服务,开机自启并立即启动

systemctl status kube-controller-manager.service
#查看服务状态

systemctl enable --now kube-scheduler.service
#scheduler服务开机自启并立即启动

systemctl status kube-scheduler.service
#查看服务状态

image-20240515141654321

image-20240515141849344

image-20240515142336669

4、查看node节点状态

  • master02节点
ln -s /opt/kubernetes/bin/* /usr/local/bin/
#做软连接

kubectl get nodes
#查看node节点信息

kubectl get nodes -o wide
#查看node节点信息
#-o=wide:输出额外信息;对于Pod,将输出Pod所在的Node名

#此时在master02节点查到的node节点状态仅是从etcd查询到的信息,而此时node节点实际上并未与master02节点建立通信连接,因此需要使用一个VIP把node节点与master节点都关联起来

image-20240515142845886

二、负载均衡部署

1、配置load balancer集群双机热备负载均衡

  • nginx实现负载均衡,keepalived实现双机热备
  • 在nginx01、nginx02节点上操作

image-20240515144729008

1.1 准备nginx编译安装脚本
#查看nginx编译安装脚本
cat nginx.sh
#/bin/bash
systemctl  start  nginx  >>/dev/null
if [ $? -eq 0 ];then
echo  "nginx服务已安装"
else
useradd -M -s /sbin/nologin nginx
cd  /opt
wget http://nginx.org/download/nginx-1.18.0.tar.gz >>/dev/null
echo "正在安装,请耐心等待"
tar xf   nginx-1.18.0.tar.gz
cd  /opt/nginx-1.18.0
yum -y install gcc pcre-devel openssl-devel zlib-devel openssl  openssl-devel  &>>/dev/null
./configure --prefix=/usr/local/nginx \
--user=nginx \
--group=nginx \
--with-http_ssl_module \
--with-http_v2_module \
--with-http_realip_module \
--with-http_stub_status_module \
--with-http_gzip_static_module \
--with-pcre \
--with-stream \
--with-stream_ssl_module \
--with-stream_realip_module
make -j `lscpu|sed -n '4p'|awk '{print $2}'`&>>/dev/null
make  install  &>>/dev/null
ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin/
cat >  /usr/lib/systemd/system/nginx.service  <<EOF
[Unit]
Description=nginx
After=network.target
[Service]
Type=forking
PIDFile=/usr/local/nginx/logs/nginx.pid
ExecStart=/usr/local/nginx/sbin/nginx
ExecReload=/bin/kill -1 $MAINPID
ExecStop=/bin/kill -3 $MAINPID
PrivateTmp=true
[Install]
WantedBy=multi-user.target
EOF
chown -R nginx.nginx  /usr/local/nginx
systemctl  daemon-reload  &>>/dev/null
systemctl  enable --now nginx
echo  "nginx服务已开启"
fi
cd /opt/
#切换目录

#上传nginx.sh脚本文件

chmod +x nginx.sh
#添加执行权限

./nginx.sh
#执行脚本
  • nginx01节点

image-20240515151212978

image-20240515151254629

  • nginx02节点

image-20240515151443551

image-20240515151509850

1.2 修改nginx配置文件
  • 配置四层反向代理负载均衡,指定k8s群集2台master的节点ip和6443端口
#修改nginx配置文件
vim /usr/local/nginx/conf/nginx.conf
#添加stream模块配置
stream {
   log_format  main  '$remote_addr $upstream_addr - [$time_local] $status $upstream_bytes_sent';
   access_log  /usr/local/nginx/logs/k8s-access.log  main;

 upstream k8s-apiserver {
            server 192.168.10.11:6443;
            server 192.168.10.20:6443;
             #负载均衡
        }
        server {
            listen 6443;
            proxy_pass k8s-apiserver;
            #反向代理
        }
}

scp /usr/local/nginx/conf/nginx.conf 192.168.10.15:/usr/local/nginx/conf/nginx.conf
#拷贝nginx01节点的nginx配置文件到nginx02节点
  • nginx01节点

image-20240515152859273

image-20240515153615156

  • nginx02节点

在这里插入图片描述

1.3 启动nginx服务
nginx -t 
#检查配置文件语法

systemctl enable --now nginx
#开机自启,立即启动

systemctl restart nginx
#重启nginx服务

ss -natp | grep nginx 
#查看nginx进程
  • nginx01

image-20240515153146296

  • nginx02

image-20240515153509244

2、部署keepalived服务

  • nginx01节点、nginx02节点操作
2.1 修改keepalive配置文件
yum install -y keepalived.x86_64
#安装keepalive服务

#修改keepalived配置文件
vim /etc/keepalived/keepalived.conf
   smtp_server 127.0.0.1
   #修改此处ip
   smtp_connect_timeout 30
   router_id LVS_MASTER
   #nginx01节点的为MASTER,nginx02节点的为BACKUP
   vrrp_skip_check_adv_addr
   #vrrp_strict
   #注销此行
   vrrp_garp_interval 0
   vrrp_gna_interval 0
}
vrrp_script check_nginx {
#添加一个周期性执行的脚本
    script "/usr/local/nginx/conf/check_nginx.sh"
    #指定检查nginx存活的脚本路径
}

vrrp_instance VI_1 {
    state MASTER
    #nginx01节点的为 MASTER,nginx02节点的为 BACKUP
    interface ens33
    #指定网卡名称 ens33
    virtual_router_id 51
    #指定vrid,两个节点要一致
    priority 100
    #nginx01节点的优先级为100、nginx02节点的优先级为80
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        192.168.10.100/24
        #指定 VIP
    }
    track_script {
        check_nginx
        #指定vrrp_script配置的脚本
    }
}
#下面配置部分全部删除即可

scp /etc/keepalived/keepalived.conf 192.168.10.15:/etc/keepalived/keepalived.conf
#复制nginx01节点的keepalive配置文件到nginx02节点

#按照上面说明部分修改nginx02节点keepalive配置文件
  • nginx01节点

image-20240515161704645

image-20240515160657702

  • nginx02节点

image-20240515161749035

image-20240515162023865

2.2 创建nginx状态检查脚本
#创建nginx状态检查脚本 
vim /usr/local/nginx/conf/check_nginx.sh
#!/bin/bash
#egrep -cv "grep|$$" 用于过滤掉包含grep 或者 $$ 表示的当前Shell进程ID,即脚本运行的当前进程ID号
count=$(ps -ef | grep nginx | egrep -cv "grep|$$")

if [ "$count" -eq 0 ];then
    systemctl stop keepalived
fi

chmod +x /usr/local/nginx/conf/check_nginx.sh
#添加权限
  • nginx01节点

image-20240515162719965

  • nginx02节点

image-20240515162458442

2.3 启动keepalive服务
#启动keepalived服务(一定要先启动了nginx服务,再启动keepalived服务)

systemctl start keepalived
#开启keepalive服务

systemctl enable keepalived
#开机自启

systemctl status keepalived.service
#查看服务状态

ip a
#查看VIP是否生成
  • nginx01节点

image-20240515163020481

image-20240515163314730

  • nginx02 节点

image-20240515163120797

3、修改node节点上的配置文件

  • bootstrap.kubeconfig 和 kubelet.kubeconfig配置文件配置vip地址
cd /opt/kubernetes/cfg/
#切换目录

#修改配置文件
vim bootstrap.kubeconfig 
server: https://192.168.10.100:6443
#改为vip

#修改配置文件
vim kubelet.kubeconfig
server: https://192.168.10.100:6443
#改为vip

#修改配置文件
vim kube-proxy.kubeconfig
server: https://192.168.10.100:6443
#改为vip

systemctl restart kubelet.service 
systemctl restart kube-proxy.service
#重启kubelet和kube-proxy服务

image-20240515163949231

  • nginx01节点

image-20240515163557243在这里插入图片描述

image-20240515164109239

image-20240515164258406

  • nginx02节点

image-20240515164512693

image-20240515164551027

image-20240515164649867

image-20240515164844833

4、查看连接状态

  • 在nginx01节点上查看 nginx 和 node 、 master 节点的连接状态
ss -natp|grep nginx
#在nginx01节点查看nginx进程

image-20240515180633536

  • 在 master01 节点上操作
kubectl run nginx --image=nginx
#测试创建pod

kubectl get pods
#查看Pod的状态信息

---------------------------------------------------------------------------------------------------------------------
ContainerCreating
#正在创建中
ImagePullBackOff
#表示镜像不存在,需要在node节点拉取镜像信息
Running
#创建完成,运行中
---------------------------------------------------------------------------------------------------------------------

kubectl get pods -o wide
#显示pod详细信息
#READY为1/1,表示这个Pod中有1个容器

[root@node01 cfg]#curl 172.16.253.70
#在对应网段的node节点上操作(此处对应的是node01节点)

kubectl logs nginx
#这时在master01节点上查看nginx日志

image-20240515182442950

image-20240515182654456

image-20240515182732391

image-20240515183147493

image-20240515183704233

image-20240515183611229

三、部署 Dashboard

1、Dashboard 介绍

  • 仪表板是基于Web的Kubernetes用户界面。您可以使用仪表板将容器化应用程序部署到Kubernetes集群,对容器化应用程序进行故障排除,并管理集群本身及其伴随资源。您可以使用仪表板来概述群集上运行的应用程序,以及创建或修改单个Kubernetes资源(例如deployment,job,daemonset等)。例如,您可以使用部署向导扩展部署,启动滚动更新,重新启动Pod或部署新应用程序。仪表板还提供有关群集中Kubernetes资源状态以及可能发生的任何错误的信息。

2、部署Dashboard

  • 在 master01 节点上操作
cd /opt/k8s
#切换目录

#上传 recommended.yaml 文件到 /opt/k8s 目录中

--------------------------------------------------------------------------------------------------------
vim recommended.yaml
#默认Dashboard只能集群内部访问,修改Service为NodePort类型,暴露到外部:
kind: Service
apiVersion: v1
metadata:
  labels:
    k8s-app: kubernetes-das/hboard
  name: kubernetes-dashboard
  namespace: kubernetes-dashboard
spec:
  ports:

   - port: 443
     targetPort: 8443
     nodePort: 30001
     #添加
       type: NodePort
       #添加
       selector:
         k8s-app: kubernetes-dashboard
--------------------------------------------------------------------------------------------------------

kubectl apply -f recommended.yaml
#指定yml文件启动recommended服务

kubectl create serviceaccount dashboard-admin -n kube-system
#创建一个新的serviceaccount,名为 dashboard-admin

kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin
#创建service account并绑定默认cluster-admin管理员集群角色

kubectl describe secrets -n kube-system $(kubectl -n kube-system get secret | awk '/dashboard-admin/{print $1}')
#在 kube-system 命名空间中查找名称中包含 dashboard-admin 的 Secret,并获取并描述这个 Secret 的详细信息。

https://NodeIP:30001
#使用输出的token登录Dashboard(此处nodeip使用node01节点或者node02节点都可以)

image-20240515184318565

image-20240515185325654

image-20240515185953001

  • 使用浏览器访问登录

image-20240515190401271

image-20240515190511470

image-20240515190626178

部署多master集群架构过程
  • 首先部署master02等其他master节点(master01节点的配置文件(私钥文件、执行文件、服务文件)拷贝到master02 节点)
  • 对master节点搭建nginx/haproxy+keepalive高可用负载均衡器
  • 修改node节点上的kubelet、kube-proxy的kubeconfig配置文件对接vip
  • kubectl配置文件也要对接vip或者当前的节点

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/630054.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

英飞凌SiC模块为小米电动车提供动力

至2027年之际&#xff0c;SiC功率模块与裸片产品将荣耀登场&#xff0c;助力小米电动汽车新品SU7璀璨问世。英飞凌&#xff0c;这家业界翘楚&#xff0c;将倾其所能&#xff0c;为小米SU7 Max提供两颗HybridPACK Drive G2 CoolSiC 1200 V模块&#xff0c;如同给电动汽车的心脏注…

万字长文破解 AI 图片生成算法-Stable diffusion (第一篇)

想象一下&#xff1a;你闭上眼睛&#xff0c;脑海中构思一个场景&#xff0c;用简短的语言描述出来&#xff0c;然后“啪”的一声&#xff0c;一张栩栩如生的图片就出现在你眼前。这不再是科幻小说里才有的情节&#xff0c;而是Stable Diffusion——一种前沿的AI图片生成算法—…

OpenHarmony 实战开发——ArkUI容器类API介绍

容器类&#xff0c;顾名思义就是存储的类&#xff0c;用于存储各种数据类型的元素&#xff0c;并具备一系列处理数据元素的方法。在 ArkUI 开发框架中&#xff0c;容器类采用了类似静态的语言来实现&#xff0c;并通过 NAPI 框架对外提供。通过对存储位置以及属性的限制&#x…

Signal 即将成为JavaScript的一部分

什么是响应性&#xff1f; 在过去的几年中&#xff0c;响应性成为了所有现代前端框架以及React库的核心。 对于不熟悉前端开发的人来说&#xff0c;起初这可能是一个令人困惑的概念&#xff0c;因为它改变了常规的、自上而下的、从调用者到被调用者的顺序工作流。 在响应性范…

OpenAI春季发布会速览,盘点近30天AI大事件

OpenAI发布会速览 北京时间5月14日凌晨1点&#xff0c;OpenAI在官网举行了"春季更新"活动&#xff0c;推出了全新的旗舰模型“GPT-4o”&#xff0c; 这款模型具备处理文本、图片、视频、语音的全能处理能力&#xff0c;能实时响应用户需求&#xff0c;并进行语音回应…

Altium Designer封装库和元器件符号库下载与导入教程(SnapEDA 、Ultra Librarian、Alldatasheetcn)

1.AD封装库和元器件符号库下载网址 以下是一些全球热门的Altium Designer封装库和元器件符号库下载网址推荐&#xff1a; Altium Content Vault (现称为Altium Manufacturer Part Search)&#xff1a;这是Altium官方提供的元器件库&#xff0c;可以直接在Altium Designer中使用…

腾讯开源混元DiT文生图模型,消费级单卡可推理

节前&#xff0c;我们组织了一场算法岗技术&面试讨论会&#xff0c;邀请了一些互联网大厂朋友、今年参加社招和校招面试的同学。 针对大模型技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备面试攻略、面试常考点等热门话题进行了深入的讨论。 总结链接…

层次式体系结构概述

1.软件体系结构 软件体系结构可定义为&#xff1a;软件体系结构为软件系统提供了结构、行为和属性的高级抽象&#xff0c;由构成系统的元素描述、这些元素的相互作用、指导元素集成的模式以及这些模式的约束组成。软件体系结构不仅指定了系统的组织结构和拓扑结构&#xff0c;并…

速度与激情:Redis如何以核心数据结构驱动极致性能

关注微信公众号 “程序员小胖” 每日技术干货&#xff0c;第一时间送达&#xff01; 引言 Redis是一个开源的内存数据结构存储系统&#xff0c;它支持多种类型的数据结构&#xff0c;如字符串、散列、列表、集合、有序集合等。Redis以其出色的性能和低延迟特性而闻名&#xf…

最小质数对-第12届蓝桥杯国赛Python真题解析

[导读]&#xff1a;超平老师的Scratch蓝桥杯真题解读系列在推出之后&#xff0c;受到了广大老师和家长的好评&#xff0c;非常感谢各位的认可和厚爱。作为回馈&#xff0c;超平老师计划推出《Python蓝桥杯真题解析100讲》&#xff0c;这是解读系列的第63讲。 最小质数对&#…

【软考】模拟考卷错题本2024-05-14

1 活动图-计算时间差 审题&#xff0c;第几天~选的3、10是结束了上一次的活动并未开始呢 &#xff01;所以记得按照正常的语序表达哦&#xff01; 2 队列-算长度 代入法&#xff0c;设计一个开始为0&#xff0c;结尾为9 &#xff0c;容量为10即M的队列&#xff1b;带入计算当前…

【车载开发系列】AutoSar中的Port

【车载开发系列】AutoSar中的Port 一. Port概念 AutoSAR 接口定义了 SWC 之间、BSW 模块之间以及 SWC 和 BSW 模块之间交互的信息。AutoSAR 接口通过 SWC 和/或 BSW 模块端口&#xff08;Port&#xff09;的形式实现。通过这些端口&#xff0c;SWC 和 BSW 模块之间实现了数据…

MYSQL SQL3

1.DCL:Global level 所有库&#xff0c;所有表的权限 Database level:某个数据库中所有表的权限 Table level: 库中某个表的权限 Column level:表中的某个字段的权限 管理:创建用户create user 用户名localhost(ip地址&#xff0c;“%”除了本机登录其他的都可以登录…

iOS ------ 多线程基础

一&#xff0c;进程和线程 1&#xff0c;进程 定义&#xff1a; 进程是指在系统中正在运行的一个应用程序每个进程之间是独立的&#xff0c;每个进程均运行在其专有的且受保护的内存进程是系统进行资源分配和调度的一个独立单位 补充&#xff1a;iOS系统是相对封闭的系统&a…

(C语言)队列实现与用队列实现栈

目录 1.队列 1.1队列的概念及结构 1.2 队列的实际应用联想 1.3队列的实现 2. 队列应用——队列实现栈 主要思路 1.队列 1.1队列的概念及结构 队列&#xff1a;只允许在一端进行插入数据操作&#xff0c;在另一端进行删除数据操作的特殊线性表&#xff0c;队列具有先进…

内网渗透瑞士军刀-impacket工具解析(二)

impacket工具解析之Kerberos认证协议 上一期我们介绍了impacket中ntlm协议的实现&#xff0c;在Windows认证中除了使用ntlm认证&#xff0c;还支持Kerberos认证协议&#xff0c;Kerberos认证也是Windows 活动目录中占比最高的认证方式。 什么是Kerberos协议&#xff1f; Kerb…

什么?你设计接口什么都不考虑?

如果让你设计一个接口&#xff0c;你会考虑哪些问题&#xff1f; 1.接口参数校验 接口的入参和返回值都需要进行校验。 入参是否不能为空&#xff0c;入参的长度限制是多少&#xff0c;入参的格式限制&#xff0c;如邮箱格式限制 返回值是否为空&#xff0c;如果为空的时候是…

第 397 场 LeetCode 周赛题解

A 两个字符串的排列差 模拟&#xff1a;遍历 s s s 记录各字符出现的位置&#xff0c;然后遍历 t t t 计算排列差 class Solution {public:int findPermutationDifference(string s, string t) {int n s.size();vector<int> loc(26);for (int i 0; i < n; i)loc[s…

红黑树底层封装map、set C++

目录 一、框架思考 三个问题 问题1的解决 问题2的解决&#xff1a; 问题3的解决&#xff1a; 二、泛型编程 1、仿函数的泛型编程 2、迭代器的泛型编程 3、typename&#xff1a; 4、/--重载 三、原码 红黑树 map set 一、框架思考 map和set都是使用红黑树底层&…

半监督的GCN:Semi-Supervised Classification With Graph Convolutional Networks

Semi-Supervised Classification With Graph Convolutional Networks -Theophilus Siameh-2017(2023) 思路 使用可扩展方法对图进行半监督学习,其中CNN应用在图数据上,得到GCN。 这种方法是在图的边的数量上进行线性的缩放模型,并学习包含局部图结构和图节点的几个隐藏层…