1.安装 zookeeper 集群,此处略
2.找到官网下载 hbase 安装包 hbase-1.2.6-bin.tar.gz,
这里给大家提供一个下载地址:http://mirrors.hust.edu.cn/apache/hbase/
对应版本的官方文档:http://hbase.apache.org/1.2/book.html
3.上传安装包到服务器,并解压到对应的安装目录
[hadoop@hadoop02 apps]# tar -zxvf hbase-1.2.6-bin.tar.gz -C /home/hadoop/apps/
4. 修改配置文件
1. vi hbase-env.sh
2.vi hbase-site.xml
<!-- 指定 hbase 在 HDFS 上存储的路径 -->
<name>hbase.rootdir</name>
<value>hdfs://myha01/hbase1.2.6</value>
</property>
<property>
<!-- 指定 hbase 是分布式的 -->
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<!-- 指定 zk 的地址,多个用“,”分割 -->
<name>hbase.zookeeper.quorum</name>
<value>hadoop02:2181,hadoop03:2181,hadoop04:2181,hadoop05:2181</value>
</property>
3.修改 regionservers
4、创建backup-masters文件
5.最重要一步,要把 hadoop 的 hdfs-site.xml 和 core-site.xml 放到 hbase-1.2.6/conf 下
5.分发安装到各个节点
scp -r hbase-1.2.6 hadoop03:/home/hadoop/apps/
scp -r hbase-1.2.6 hadoop04:/home/hadoop/apps/
scp -r hbase-1.2.6 adoop05:/home/hadoop/apps/
6.时间同步
HBase 集群对于时间的同步要求的比 HDFS 严格,所以,集群启动之前千万记住要进行时间同步,要求相差不要超过 30s
7.配置环境变量
vi ~/.bashrc
添加两行:
export HBASE_HOME=/home/hadoop/apps/hbase-1.2.6
export PATH=$PATH:$HBASE_HOME/bin
保存退出!!!
别忘了执行 source ~/.bashrc,使配置生效
8.启动(注意启动顺序!!!!)
1、 先启动 zookeeper 集群
zkServer.sh start
查看状态:zkServer.sh status
2、 启动 hdfs 集群(在hadoop02启动)
start-dfs.sh
查看那个dfs节点是active或者standby状态:
hdfs haadmin -getServiceState nn1
hdfs haadmin -getServiceState nn2
查看是不是退出了安全模式:hdfs dfsadmin -safemode get
yarn集群可以不用启动(如果编写mapreduce需要启动)
yarn启动的命令(在hadoop05启动):start-yarn.sh
3、启动 hbase
保证 ZooKeeper 集群和 HDFS 集群启动正常的情况下,
启动 HBase 集群启动命令(只在hadoop02启动就可以了,在哪个节点启动哪个节点就是active):start-hbase.sh
4、检查是否启动成功
4.2通过访问浏览器页面,格式为”主节点:16010”http://hadoop02:16010/
9.测试高可用
杀死active的hbase进程,看是不是standby变成active。
如果按照要求,某个节点缺少了某个进程,使用以下命令进行启动:
启动master(随便在hbase哪个节点都行):hbase-daemon.sh start master
hbase-daemon.sh start regionserver