环境

主机名ip地址组件
ambari-hadoop1192.168.10.101
ambari-hadoop2192.168.10.102kibana
ambari-hadoop3192.168.10.103es

        这里我们利用共享文件系统,存储快照,所以需要利用到nfs(NFS(Network File System)是一种分布式文件系统协议,允许网络上的计算机通过网络共享文件和目录)。

        备注:但是由于我是单节点只有ambari-hadoop3上有es所以,ambari-hadoop3作为nfs server,其余ambari-hadoop1和ambari-hadoop2作为nfs client

        setp1:三个节点创建名为user-es,uid为1021(自定义)的用户,确保三节点上的用户名、用户id一致:

 step2:三节点均安装nfs

yum -y install nfs-utils

在ambari-hadoop3上创建要共享的目录/data/es_backup

[root@ambari-hadoop3 ~]# cd /home/
[root@ambari-hadoop3 home]# mkdir ./es_data_backup
[root@ambari-hadoop3 home]# cd ./es_data_backup/
[root@ambari-hadoop3 es_data_backup]# pwd
/home/es_data_backup

利用chmod和chown命令,确保共享目录能被其他节点正常访问 

step3:配置 NFS 服务器: 在编辑ambari-hadoop3的 NFS 服务器的配置文件 /etc/exports,将共享目录添加到配置中。打开文件并添加以下行:

/data/es_backup *(rw,sync,no_root_squash,no_all_squash)

  •  *代表所有节点均可以同步此共享目录(/data/es_backup
  • rw: 读写权限。
  • sync: 同步写入,确保数据同步写入到磁盘。
  • no_root_squash: 允许 root 用户以其实际的 UID 和 GID 访问共享。
  • no_all_squash: 不将所有用户映射到匿名用户。、

如果只允许某节点挂载可写为:/data/es_backup hostname(rw,sync,no_root_squash,no_all_squash)

其中hostname为某节点的hostname

 重启nfs服务,并设置为开机自启

sudo systemctl restart nfs-server
sudo systemctl enable nfs-server

step3:配置nfs客户端,挂载共享目录

在ambari-hadoop1和ambari-hadoop2上安装nfs客户端

yum install nfs-utils

在ambari-hadoop1、ambari-hadoop2节点上创建/hom/es_data_backup目录

均执行挂载命令:

mount -t nfs ambari-hadoop1:/home/es_data_backup /home/es_data_backup

并执行以下命令生效:

sudo mount -a

修改ambari-hadoop3上的es配置文件中path.repo配置项,

 重启es服务

step4:注册存储库

 

需要验证状态 

step5:创建快照

创建完策略后,可以看见相关信息并且可以立即执行备份快照策略:

Logo

腾讯云面向开发者汇聚海量精品云计算使用和开发经验,营造开放的云计算技术生态圈。

更多推荐