第一步:Hbase安装
hadoop,zookeeper前面都安装好了
将hbase-1.1.3-bin.tar.gz上传到/usr/HBase目录下[root@spark1 HBase]# chmod u+x hbase-1.1.3-bin.tar.gz[root@spark1 HBase]# tar -zxvf hbase-1.1.3-bin.tar.gz[root@spark1 HBase]# mv hbase-1.1.3 hbase-1.1[root@spark1 ~]# vi/etc/profile #配置环境变量export HBASE_HOME=/usr/HBase/hbase-1.1export PATH=$PATH:$HBASE_HOME/bin[root@spark1 ~]# source /etc/profile #使其生效
第二步:修改配置文件
编辑 hbase-env.xml
[root@spark1 conf]# vi hbase-env.sh# The java implementation to use. Java 1.7+ required.export JAVA_HOME=/usr/java/jdk# Extra Java CLASSPATH elements. Optional.export HBASE_CLASSPATH=/usr/HBase/hbase-1.1/conf# Tell HBase whether it should manage it's own instance of Zookeeper or not.export HBASE_MANAGES_ZK=false 使用HBASE自带的zookeeper管理集群用true,自己安装的用false
编辑 hbase-site.xml
[root@spark1 hbase-1.1]# mkdir tmp
[root@spark1 hbase-1.1]# cd conf[root@spark1 conf]# vi hbase-site.xmlhbase.tmp.dir /usr/HBase/hbase-1.1/tmp hbase.rootdir hdfs://spark1:9000/hbase hbase.cluster.distributed true hbase.zookeeper.quorum spark1,spark2,spark3
编辑 regionservers
[root@spark1 conf]# vi regionservers #添加从节点spark2spark3
第三步:搭建hbase集群
[root@spark1 usr]# scp -r HBase root@spark2:/usr/[root@spark1 usr]# scp -r HBase root@spark3:/usr/[root@spark1 ~]# scp -r /etc/profile root@spark2:/etc/ [root@spark1 ~]# scp -r /etc/profile root@spark3:/etc/[root@spark2 ~]# source /etc/profile[root@spark3 ~]# source /etc/profile
第四步:启动 / 关闭 Hbase 数据库集群
启动前我先把hadoop启动和zookeeper启动
[root@spark1 ~]# zkServer.sh start #三个节点都要启动[root@spark1 ~]# zkServer.sh status #查看是否启动成功[root@spark1 ~]# start-all.sh #启动hadoop[root@spark1 ~]# start-hbase.sh [root@spark1 ~]# stop-hbase.sh
第五步:验证启动
查看jps和hbase shell
[root@spark1 ~]# jps[root@spark1 ~]# hbase shellstatus #查看状态version #查看版本