环境
主机名 | ip地址 | 组件 |
ambari-hadoop1 | 192.168.10.101 | |
ambari-hadoop2 | 192.168.10.102 | kibana |
ambari-hadoop3 | 192.168.10.103 | es |
这里我们利用共享文件系统,存储快照,所以需要利用到nfs(NFS(Network File System)是一种分布式文件系统协议,允许网络上的计算机通过网络共享文件和目录)。
备注:但是由于我是单节点只有ambari-hadoop3上有es所以,三节点都做nfs共享文件,只是为了其余两节点能够通过拷贝nfs共享目录下的文件至本地做本地备份。
setp1:三个节点创建名为user-es,uid为1021(自定义)的用户,确保三节点上的用户名、用户id一致:
step2:三节点均安装nfs
yum -y install nfs-utils
在ambari-hadoop1上创建要共享的目录/data/es_backup
[root@ambari-hadoop1 ~]# cd /home/
[root@ambari-hadoop1 home]# mkdir ./es_data_backup
[root@ambari-hadoop1 home]# cd ./es_data_backup/
[root@ambari-hadoop1 es_data_backup]# pwd
/home/es_data_backup
利用chmod和chown命令,确保共享目录能被其他节点正常访问
step3:配置 NFS 服务器: 编辑 NFS 服务器的配置文件 /etc/exports
,将共享目录添加到配置中。打开文件并添加以下行:
/data/es_backup *(rw,sync,no_root_squash,no_all_squash)
rw
: 读写权限。sync
: 同步写入,确保数据同步写入到磁盘。no_root_squash
: 允许 root 用户以其实际的 UID 和 GID 访问共享。no_all_squash
: 不将所有用户映射到匿名用户。
重启nfs服务,并设置为开机自启
sudo systemctl restart nfs-server
sudo systemctl enable nfs-server
step3:配置nfs客户端,挂载共享目录
在ambari-hadoop2和ambari-hadoop3上安装nfs客户端
yum install nfs-utils
在ambari-hadoop2、ambari-hadoop3节点上创建/hom/es_data_backup目录
均执行挂载命令:
mount -t nfs ambari-hadoop1:/home/es_data_backup /home/es_data_backup
并执行以下命令生效:
sudo mount -a
修改ambari-hadoop3上的es配置文件中path.repo配置项,
重启es服务
step4:注册存储库
需要验证状态
step5:创建快照
创建完策略后,可以看见相关信息并且可以立即执行备份快照策略: