部署GlusterFS群集

目录

一、部署GlusterFS群集

1. 服务器节点分配

2. 服务器环境(所有node节点上操作)

2.1 关闭防火墙

2.2 磁盘分区,并挂载

2.3 修改主机名,配置/etc/hosts文件

3. 安装、启动GlusterFS(所有node节点上操作)

4. 添加节点到存储信任池(在node1节点上操作)

5. 创建卷

5.1 创建分布式卷

5.2 创建条带卷

5.3 创建复制卷

 5.4 创建分布式条带卷

5.5 创建分布式复制卷

 二、部署Gluster客户端

1. 安装客户端软件

2. 创建挂载目录

3. 配置/etc/hosts文件

4. 挂载Gluster文件系统

4.1 临时挂载

4.2 永久挂载

三、测试Gluster文件系统

1. 卷中写入文件,客户端操作

2. 查看文件分布

2.1 分布式文件分布

2.1.1 node1 

2.1.2 node2

2.2 条带卷文件分布

2.2.1 node1

2.2.2  node2

2.3 复制卷文件分布

2.3.1 node3

2.3.2 node4 

2.4 分布式条带卷分布

2.4.1 node1

2.4.2 node2

 2.4.3 node3

2.4.4 node4 

2.5 分布式复制卷发布

2.5.1 node1

2.5.2 node2 

2.5.3  node3

2.5.4 node4 

四、破坏性测试

1. 单节点故障

1.1 故障模拟

1.2 查看文件

2. 多节点故障

2.1 故障模拟

2.2 查看文件

2.2.1 复制卷

2.2.2 分布式卷

2.2.3 分布式复制卷

3. 故障总结


一、部署GlusterFS群集

1. 服务器节点分配

服务器节点   ip地址主机名磁盘部署对应挂载点
Node1节点192.168.80.111node1/dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1/data/sdb1 /data/sdc1 /data/sdd1 /data/sde1
Node2节点192.168.80.112node2/dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1/data/sdb1 /data/sdc1 /data/sdd1 /data/sde1
Node3节点192.168.80.113node3/dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1/data/sdb1 /data/sdc1 /data/sdd1 /data/sde1
Node4节点192.168.80.115node4/dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1/data/sdb1 /data/sdc1 /data/sdd1 /data/sde1
客户端节点192.168.80.114client--

2. 服务器环境(所有node节点上操作)

2.1 关闭防火墙

systemctl stop firewalld
setenforce 0

2.2 磁盘分区,并挂载

以node1为例:

[root@node1 ~]# vim /opt/fdisk.sh
 
#!/bin/bash
NEWDEV=`ls /dev/sd* | grep -o 'sd[b-z]' | uniq`
for VAR in $NEWDEV
do
   echo -e "n\np\n\n\n\nw\n" | fdisk /dev/$VAR &> /dev/null
   mkfs.xfs /dev/${VAR}"1" &> /dev/null
   mkdir -p /data/${VAR}"1" &> /dev/null
   echo "/dev/${VAR}"1" /data/${VAR}"1" xfs defaults 0 0" >> /etc/fstab
done
mount -a &> /dev/null
 
[root@node1 ~]# chmod +x /opt/fdisk.sh
[root@node1 ~]# cd /opt/
[root@node1 ~]# ./fdisk.sh
[root@node1 ~]# df -hT

 

2.3 修改主机名,配置/etc/hosts文件

以Node1节点为例:

[root@node1 ~]# echo "192.168.80.111 node1" >> /etc/hosts
[root@node1 ~]# echo "192.168.80.112 node2" >> /etc/hosts
[root@node1 ~]# echo "192.168.80.113 node3" >> /etc/hosts
[root@node1 ~]# echo "192.168.80.115 node4" >> /etc/hosts

3. 安装、启动GlusterFS(所有node节点上操作)

 以Node1为例:

[root@node1 ~]# cd /opt
[root@node1 opt]# rz -E
#将gfsrepo软件上传到/opt目录下
rz waiting to receive.
[root@node1 opt]# cd /etc/yum.repos.d/
[root@node1 yum.repos.d]# mkdir repo.bak
[root@node1 yum.repos.d]# mv *.repo repo.bak
[root@node1 yum.repos.d]# vim glfs.repo
 
[glfs]
name=glfs
baseurl=file:///opt/gfsrepo
gpgcheck=0
enabled=1
 
[root@node1 opt]# yum clean all && yum makecache
[root@node1 opt]# yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma
#如采用官方YUM源安装,使用命令“yum -y install centos-release-gluster”可以直接指向互联网仓库
[root@node1 opt]# systemctl start glusterd.service 
[root@node1 opt]# systemctl enable glusterd.service

防止版本过高导致故障,删除之前版本的

  

4. 添加节点到存储信任池(在node1节点上操作)

只要在一台node节点上添加其他节点即可

[root@node1 opt]# gluster peer probe node2
[root@node1 opt]# gluster peer probe node3
[root@node1 opt]# gluster peer probe node4
[root@node1 opt]# gluster peer status

5. 创建卷

根据规划创建如下卷:

卷名称卷类型Brick
dis-volume分布式卷node1(/data/sdb1)、node2(/data/sdb1)
stripe-volume条带卷node1(/data/sdc1)、node2(/data/sdc1)
rep-volume复制卷node3(/data/sdb1)、node4(/data/sdb1)
dis-stripe分布式条带卷node1(/data/sdd1)、node2(/data/sdd1)、node3(/data/sdd1)、node4(/data/sdd1)
dis-rep分布式复制卷node1(/data/sde1)、node2(/data/sde1)、node3(/data/sde1)、node4(/data/sde1)

5.1 创建分布式卷

无需指定类型,默认创建的是分布式卷

[root@node1 opt]# gluster volume create dis-volume node1:/data/sdb1 node2:/data/sdb1 force
#创建分布式卷
[root@node1 opt]# gluster volume list
#查看卷列表
[root@node1 opt]# gluster volume start dis-volume
#启动卷
[root@node1 opt]# gluster volume info dis-volume
#查看卷信息

5.2 创建条带卷

指定类型为stripe,数值为2,且后面跟了2个Brick Server,所以创建的是条带卷

[root@node1 opt]# gluster volume create stripe-volume stripe 2 node1:/data/sdc1 node2:/data/sdc1 force
#创建条带卷
[root@node1 opt]# gluster volume list
#查看卷列表
[root@node1 opt]# gluster volume start stripe-volume 
#启动卷
[root@node1 opt]# gluster volume info stripe-volume
#查看卷信息

5.3 创建复制卷

指定类型为replica,数值为2,且后面跟了2个Brick Server,所以创建的是复制卷

[root@node1 opt]# gluster volume create rep-volume replica 2 node3:/data/sdb1 node4:/data/sdb1 force
[root@node1 opt]# gluster volume list
[root@node1 opt]# gluster volume start rep-volume 
[root@node1 opt]# gluster volume info rep-volume 

 5.4 创建分布式条带卷

指定类型为stripe,数值为2,而且后面跟了4个Brick Server,是2的两倍,所以创建的是分布式条带卷

[root@node1 opt]# gluster volume create dis-stripe stripe 2 node1:/data/sdd1 node2:/data/sdd1 node3:/data/sdd1 node4:/data/sdd1 force
[root@node1 opt]# gluster volume list
[root@node1 opt]# gluster volume start dis-stripe 
[root@node1 opt]# gluster volume info dis-stripe 

5.5 创建分布式复制卷

指定类型为replica,数值为2,而且后面跟了4个Brick Server,是2的两倍,所以创建的是分布式复制卷

[root@node1 opt]# gluster volume create dis-rep replica 2 node1:/data/sde1 node2:/data/sde1 node3:/data/sde1 node4:/data/sde1 force
[root@node1 opt]# gluster volume list
[root@node1 opt]# gluster volume start dis-rep 
[root@node1 opt]# gluster volume info dis-rep

 二、部署Gluster客户端

1. 安装客户端软件

将gfsrepo软件上传到/opt目录下

[root@client ~]# cd /etc/yum.repos.d/
[root@client yum.repos.d]# mkdir repo.bak
[root@client yum.repos.d]# mv *.repo repo.bak
[root@client yum.repos.d]# vim glfs.repo
 
[glfs]
name=glfs
baseurl=file:///opt/gfsrepo
gpgcheck=0
enabled=1

[root@client yum.repos.d]#yum remove glusterfs-api.x86_64 glusterfs-cli.x86_64 glusterfs.x86_64 glusterfs-libs.x86_64 glusterfs-client-xlators.x86_64 glusterfs-fuse.x86_64 -y

[root@client yum.repos.d]# yum clean all && yum makecache
[root@client yum.repos.d]# yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma
[root@client yum.repos.d]# systemctl start glusterd.service 
[root@client yum.repos.d]# systemctl enable glusterd.service

2. 创建挂载目录

[root@client yum.repos.d]# mkdir -p /test/{dis,stripe,rep,dis_stripe,dis_rep}
[root@client yum.repos.d]# ls /test
dis  dis_rep  dis_stripe  rep  stripe

3. 配置/etc/hosts文件

[root@client yum.repos.d]# echo "192.168.80.111 node1" >> /etc/hosts
[root@client yum.repos.d]# echo "192.168.80.112 node2" >> /etc/hosts
[root@client yum.repos.d]# echo "192.168.80.113 node3" >> /etc/hosts
[root@client yum.repos.d]# echo "192.168.80.115 node4" >> /etc/hosts

 

4. 挂载Gluster文件系统

4.1 临时挂载

[root@client yum.repos.d]# mount.glusterfs node1:dis-volume /test/dis
[root@client yum.repos.d]# mount.glusterfs node1:stripe-volume /test/stripe
[root@client yum.repos.d]# mount.glusterfs node1:rep-volume /test/rep
[root@client yum.repos.d]# mount.glusterfs node1:dis-stripe /test/dis_stripe
[root@client yum.repos.d]# mount.glusterfs node1:dis-rep /test/dis_rep
[root@client yum.repos.d]# df -hT

4.2 永久挂载

[root@client yum.repos.d]# vim /etc/fstab
 
##末行写入
node1:dis-volume		/test/dis				glusterfs		defaults,_netdev		0 0
node1:stripe-volume		/test/stripe			glusterfs		defaults,_netdev		0 0
node1:rep-volume		/test/rep				glusterfs		defaults,_netdev		0 0
node1:dis-stripe		/test/dis_stripe		glusterfs		defaults,_netdev		0 0
node1:dis-rep			/test/dis_rep			glusterfs		defaults,_netdev		0 0

 

三、测试Gluster文件系统

1. 卷中写入文件,客户端操作

[root@client ~]# cd /opt 
[root@client opt]# dd if=/dev/zero of=/opt/demo1.log bs=1M count=40
[root@client opt]# dd if=/dev/zero of=/opt/demo2.log bs=1M count=40
[root@client opt]# dd if=/dev/zero of=/opt/demo3.log bs=1M count=40
[root@client opt]# dd if=/dev/zero of=/opt/demo4.log bs=1M count=40
[root@client opt]# dd if=/dev/zero of=/opt/demo5.log bs=1M count=40
[root@client opt]# ls -lh /opt

[root@client opt]# cp /opt/demo* /test/dis/
[root@client opt]# cp /opt/demo* /test/stripe/
[root@client opt]# cp /opt/demo* /test/rep/
[root@client opt]# cp /opt/demo* /test/dis_stripe/
[root@client opt]# cp /opt/demo* /test/dis_rep/

  

2. 查看文件分布

2.1 分布式文件分布

2.1.1 node1 

2.1.2 node2

2.2 条带卷文件分布

2.2.1 node1

2.2.2  node2

2.3 复制卷文件分布

2.3.1 node3

2.3.2 node4 

2.4 分布式条带卷分布

2.4.1 node1

2.4.2 node2

 2.4.3 node3

2.4.4 node4 

2.5 分布式复制卷发布

2.5.1 node1

2.5.2 node2 

2.5.3  node3

2.5.4 node4 

四、破坏性测试

1. 单节点故障

1.1 故障模拟

 挂起node2节点或者关闭glusterd服务来模拟故障

1.2 查看文件

2. 多节点故障

2.1 故障模拟

挂起node2和node4节点,在客户端上查看文件是否正常

2.2 查看文件

2.2.1 复制卷
[root@client opt]# ls -lh /test/rep
总用量 200M
-rw-r--r-- 1 root root 40M 4月  9 17:02 demo1.log
-rw-r--r-- 1 root root 40M 4月  9 17:02 demo2.log
-rw-r--r-- 1 root root 40M 4月  9 17:02 demo3.log
-rw-r--r-- 1 root root 40M 4月  9 17:02 demo4.log
-rw-r--r-- 1 root root 40M 4月  9 17:02 demo5.log
2.2.2 分布式卷
[root@client opt]# ls -lh /test/dis_stripe/
总用量 0
2.2.3 分布式复制卷
[root@client opt]# ls -lh /test/dis_rep/
总用量 200M
-rw-r--r-- 1 root root 40M 4月   9 17:02 demo1.log
-rw-r--r-- 1 root root 40M 4月   9 17:02 demo2.log
-rw-r--r-- 1 root root 40M 4月   9 17:02 demo3.log
-rw-r--r-- 1 root root 40M 4月   9 17:02 demo4.log
-rw-r--r-- 1 root root 40M 4月   9 17:02 demo5.log

3. 故障总结

上述实验测试,凡是带复制数据,相比而言,数据比较安全

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/529906.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【opencv】示例-drawing.cpp画线、箭头、矩形、多边形、椭圆、圆形以及在图像上渲染文本并通过循环实现动态绘制效果...

#include "opencv2/core.hpp" // 引入opencv2核心头文件 #include "opencv2/imgproc.hpp" // 引入opencv2图像处理头文件 #include "opencv2/highgui.hpp" // 引入opencv2高级GUI(head-up display)头文件 #include <stdio.h> // 引入标准输…

智慧工厂如何利用ARM运算平台实现边缘智能控制

AI边缘智能控制成为了推动智慧工厂等领域革新的关键力量。在这个变革的浪潮中&#xff0c;ARM运算平台以其高效能、低功耗的特性&#xff0c;为AI边缘智能控制提供了坚实的硬件基础。通过ARM运算平台&#xff0c;智能设备能够在边缘端实时处理数据&#xff0c;避免了数据传输的…

[Kubernetes集群:master主节点初始化]:通过Calico和Coredns网络插件方式安装

文章目录 前置&#xff1a;Docker和K8S安装版本匹配查看0.1&#xff1a;安装指定docker版本 **[1 — 7] ** [ 配置K8S主从集群前置准备操作 ]一&#xff1a;主节点操作 查看主机域名->编辑域名->域名配置二&#xff1a;安装自动填充&#xff0c;虚拟机默认没有三&#xf…

如何在前后端一体的项目中引入element-ui,即引入index.js、index.css等文件。

24年接手了一个18年的项目&#xff0c;想使用el-ui的组件库&#xff0c;得自己手动引入。 通过官网可以知道&#xff0c;首先得准备以下文件 <!-- 引入样式 --> <link rel"stylesheet" href"https://unpkg.com/element-ui/lib/theme-chalk/index.css…

目标检测——YOLO系列学习(一)YOLOv1

YOLO可以说是单阶段的目标检测方法的集大成之作&#xff0c;必学的经典论文&#xff0c;从准备面试的角度来学习一下yolo系列。 YOLOv1 1.RCNN系列回顾 RCNN系列&#xff0c;无论哪种算法&#xff0c;核心思路都是Region Proposal&#xff08;定位&#xff09; classifier&am…

Redis中的集群(三)

集群 槽指派 记录节点的槽指派信息。 clusterNode结构的slots属性和numslot属性记录了节点负责处理哪些槽: struct clusterNode { // ... unsigned char slots[16384/8];int numslots; // ... }slots属性是一个二进制位数组(bit array)&#xff0c;这个数组的长度位16384/8…

XILINX 7系列时钟资源

文章目录 前言一、时钟概要1.1、CC1.2、BUFR、BUFIO、BUFMR1.3、CMT1.4、BUFH1.5、BUFG 二、时钟路由资源三、CMT 前言 本文主要参考xilinx手册ug472 一、时钟概要 7系列FPGA时钟资源主要有CC、BUFR、BUFIO、BUFMR、CMT、BUFG、BUFH和GTE_COMMON 1.1、CC “CC”&#xff0…

Word 画三线表模板---一键套用

1、制作三线表 1&#xff09;设置为无边框 选中表格&#xff0c;点击「右键」——「边框」——「无框线」。 2&#xff09;添加上下边框线 选中表格后&#xff0c;点击【右键】——【表格属性】——【边框和底纹】&#xff0c;边框线选择【1.5磅】&#xff0c;然后点击【上框…

申请GeoTrust证书

GeoTrust是全球知名的数字证书颁发机构&#xff08;CA&#xff09;和安全解决方案提供商。它成立于1999年&#xff0c;后来成为DigiCert旗下的一部分。GeoTrust专注于提供SSL证书和其他安全产品&#xff0c;以保护网站流量、电子邮件通信和企业身份的安全。 GeoTrust的SSL证书在…

一文掌握RabbitMQ核心概念和原理

本文主要通过图文的方式介绍了RabbitMQ核心概念和原理&#xff0c;包括工作模型、交换机类型、交换机和队列的详细属性、过期消息、死信队列、延迟队列、消息可靠性和幂等性、集群分类等方面。 文章目录 消息中间件概念应用场景 RabbitMQ工作模型和基本概念RabbitMQ交换机类型交…

GitHub 仓库 (repository) Pulse - Contributors - Network

GitHub 仓库 [repository] Pulse - Contributors - Network 1. Pulse2. Contributors3. NetworkReferences 1. Pulse 显示该仓库最近的活动信息。该仓库中的软件是无人问津&#xff0c;还是在火热地开发之中&#xff0c;从这里可以一目了然。 2. Contributors 显示对该仓库进…

【数据结构】考研真题攻克与重点知识点剖析 - 第 7 篇:查找

前言 本文基础知识部分来自于b站&#xff1a;分享笔记的好人儿的思维导图与王道考研课程&#xff0c;感谢大佬的开源精神&#xff0c;习题来自老师划的重点以及考研真题。此前我尝试了完全使用Python或是结合大语言模型对考研真题进行数据清洗与可视化分析&#xff0c;本人技术…

微信小程序Skyline模式下瀑布长列表优化成虚拟列表,解决内存问题

微信小程序长列表&#xff0c;渲染的越多就会导致内存吃的越多。特别是长列表的图片组件和广告组件。 为了解决内存问题&#xff0c;所以看了很多人的资料&#xff0c;都不太符合通用的解决方式&#xff0c;很多需要固定子组件高度&#xff0c;但是瀑布流是无法固定的&#xf…

STM32H7通用定时器计数功能的使用

目录 概述 1 STM32定时器介绍 1.1 认识通用定时器 1.2 通用定时器的特征 1.3 递增计数模式 1.4 时钟选择 2 STM32Cube配置定时器时钟 2.1 配置定时器参数 2.2 配置定时器时钟 3 STM32H7定时器使用 3.1 认识定时器的数据结构 3.2 计数功能实现 4 测试案例 4.1 代码…

三极管结构难?——秒了

前边我们已经学完了PN结&#xff0c;二极管&#xff0c;在分析了二极管后&#xff0c;我们对这些东西有了一定深度的了解&#xff0c;但是只给我们一个二极管去研究&#xff0c;这玩意好像真的没啥大用&#xff0c;其实我们追求的是用半导体材料去代替电子管的放大作用&#xf…

0.开篇:SSM+Spring Boot导学

1. 为什么要使用框架 Spring是一个轻量级Java开发框架&#xff0c;最早有Rod Johnson创建&#xff0c;目的是为了解决企业级应用开发的业务逻辑层和其他各层的耦合问题。 几乎当下所有企业级JavaEE开发都离不开SSM&#xff08;Spring SpringMVC MyBatis&#xff09;Spring B…

c/c++ |游戏后端开发之skynet

作者眼中的skynet 有一点要说明的是&#xff0c;云风至始也没有公开说skynet专门为游戏开发&#xff0c;换句话&#xff0c;skynet 引擎也可以用于web 开发 贴贴我的笔记 skynet 核心解决什么问题 愿景&#xff1a;游戏服务器能够充分利用多核优势&#xff0c;将不同的业务放在…

Visual Studio Code 终端为管理员权限

第一部 1、 Visual Studio Code 快捷方式启动选项加上管理员启动 第二步 管理员方式运行 powershell Windows 10的任务栏自带了搜索。或者开始菜单选搜索只需在搜索框中输入powershell。 在出来的搜索结果中右击Windows PowerShell&#xff0c;然后选择以管理员方式运行。 执…

Apache Doris 基于 Job Scheduler 实现秒级触发任务调度能力

作者&#xff5c;SelectDB 技术团队 在数据管理愈加精细化的需求背景下&#xff0c;定时调度在其中扮演着重要的角色。它通常被应用于以下场景&#xff1a; 定期数据更新&#xff0c;如周期性数据导入和 ETL 操作&#xff0c;减少人工干预&#xff0c;提高数据处理的效率和准…

Java基于微信小程序的校园外卖平台设计与实现,附源码

博主介绍&#xff1a;✌程序员徐师兄、7年大厂程序员经历。全网粉丝12w、csdn博客专家、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和毕业项目实战✌ &#x1f345;文末获取源码联系&#x1f345; &#x1f447;&#x1f3fb; 精彩专栏推荐订阅&#x1f447;…