11:Hbase CDH升级高可用

时间:2024-04-11 15:19:53

1.NameNode的HA

11:Hbase CDH升级高可用

找到namenode的服务-----> 操作----->启用High Avaliablity

11:Hbase CDH升级高可用

继续即可配置

高可用的命名空间名字随便命名即可,建议使用默认值nameservice1。11:Hbase CDH升级高可用

点击选择一个namenode的主机最少2个:

11:Hbase CDH升级高可用

选择journalNode的主机,建议至少3个且为基数个:

11:Hbase CDH升级高可用

继续下一步的配置,建议把journalnode数据共享目录的配置给配置上,默认为空:

11:Hbase CDH升级高可用

继续进行启用 HDFS 的 High Availability:

11:Hbase CDH升级高可用

失败格式化已经存在的namenode的节点:因为目录存在数据存在,可以选择手动格式化以前的数据,然后再删除datanode的数据,如果是一开始就搭建HA就不会失败咯。详细信息如下:

11:Hbase CDH升级高可用

完成启动NameNode的HA配置:

11:Hbase CDH升级高可用

测试NameNode是否可用:

11:Hbase CDH升级高可用

关闭活动的NameNode服务:

11:Hbase CDH升级高可用

证明已经失败转移过来,然后再查看是否能进行hdfs的文件读写操作;然后再启动hadoop01的Namenode再关闭hadoop02的namenode试试能否进行正常切换。

[[email protected] ~] hdfs dfs -put /home/helloworld.sh /

[[email protected] ~]  hdfs dfs -cat /helloworld.sh

#!/bin/bash

echo "hello world" >> /home/helloworld

证明可以失败转移后可以进行正常读写,然后再来回关闭namenode试试是否可用即可。

2.ResourceManager的HA

11:Hbase CDH升级高可用

点击启动High Avaliability:

11:Hbase CDH升级高可用

点击选择一个主机,选择hadoop02为备用rm服务主机:

11:Hbase CDH升级高可用

点击确定然后再点击继续:

然后对环境进行检测,只有三项检测,如果三项检测都是没有异常,点击完成即可(忘记截完成的图啦)。

11:Hbase CDH升级高可用

停掉活动的rm:

11:Hbase CDH升级高可用

11:Hbase CDH升级高可用

证明是已经失败转移(来回切换几次试试可以失败转移),然后再运行几个mr的job作业即可。

bash-4.1$yarn jar /opt/cloudera/parcels/CDH-5.3.6-1.cdh5.3.6.p0.11/lib/hadoop-mapreduce/hadoop-mapreduce-examples.jar wordcount /words /out/01