一、Hbase配置
先决条件:
(1)hadoop的版本与hbase的版本要对应,主要是hadoop目录下的hadoop-core-1.0.4.jar的版本与hbase的lib目录下的hadoop-core-1.0.4.jar一致。
做法:将hadoop中lib下的hadoop-core-1.0.2.jar(commons-configuration-1.6.jar包)(此包我未移动,但是最后也成功啦)移动到hbase-0.90.5中的lib下面,而hbase-0.90.5中lib目录下的对应的hadoop-core.jar包文件删除掉即可。
(2)配置apachehadoopappend,默认这个属性是false,需要设置为true
修改(hadoop/conf/hdfs-site.xml),并重启HDFS(或者重启Hadoop也行)
<property>
<name>dfs.support.append</name>
<value>true</value>
</property>
(3)Linux时间同步配置使用NetworkTimeProtocol(NTP)服务器
1.假如公司网络里有一个时间服务器:10.85.10.80,此时只需要在每个结点上修改NTP服务配置文件,让每个结点和时间服务器进行同步即可。
#vi/etc/ntp.conf
Server10.85.10.80prefer
Driftfile/var/lib/ntp/drift
Broadcastdelay0.008
修改完后在重启一下ntp服务
#/etc/init.d/ntpdrestart
2.如果没有时间服务,则可以用RAC2个结点中一个做为服务器。另一个与此服务器同步即可。
加入用node1做服务器,其IP为:10.85.10.119,修改配置文件
#vi/etc/ntp.conf
Server127.127.1.0--本地时钟
Fudge127.127.1.0stratum11
Broadcastdelay0.008
Node2与node1同步。
修改node2的ntp配置文件
#vi/etc/ntp.conf
Server10.85.10.119prefer
Driftfile/var/lib/ntp/drift
Broadcastdelay0.008
修改完后在重启一下ntp服务
#/etc/init.d/ntpdrestart
或者在node2是使用crontab 与服务器同步时间
*/15 * * * * ntpdate 10.85.10.119
1.配置全局hbase-env.sh
exportJAVA_HOME=/usr/java/jdk1.6.0_21 #这个是我的java路径
export HBASE_MANAGES_ZK=true #hbase要用zookeeper来进行管理
2、配置hbase-site.xml
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.master</name>
<value>hdfs://master:60000</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,slave1,slave2</value>
<description>CommaseparatedlistofserversintheZooKeeperQuorum.Forexample,"host1.mydomain.com,host2.mydomain.com,host3.mydomain.com".Bydefaultthisissettolocalhostforlocalandpseudo-distributedmodesofoperation.Forafully-distributedsetup,thisshouldbesettoafulllistofZooKeeperquorumservers.IfHBASE_MANAGES_ZKissetinhbase-env.shthisisthelistofserverswhichwewillstart/stopZooKeeperon.</description>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/data/work/zookeeper</value>
<description>PropertyfromZooKeeper'sconfigzoo.cfg.Thedirectorywherethesnapshotisstored.</description>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<property>
<name>zookeeper.session.timeout</name>
<value>1200000</value>
</property>
<property>
<name>hbase.zookeeper.property.tickTime</name>
<value>6000</value>
</property>
(1)hbase.rootdir设置hbase在hdfs上的目录,主机名为hdfs的namenode节点所在的主机。尤其注意:<value>hdfs://master:9000/hbase</value>的值“hdfs://master:9000”与hadoop/conf/hdfs-site.xml中设定的值要完全一样,hdfs://master:9000/hbase指明了存放hbase的目录名为hbase,目录名可以自定义。(2)hbase.cluster.distributed设置为true,表明是完全分布式的hbase集群(3)hbase.master设置hbase的master主机名和端口(4)hbase.zookeeper.quorum设置zookeeper的主机,建议使用单数。<value>master,slave1,slave2</value>指明在master,slave1,slave2这三台主机上运行zookeeper。
(5)设定hbase.zookeeper.property.clientPort,把zookeeper.session.timeout的值调大,设定hbase.zookeeper.property.tickTime的值,从而使zookeeper运行更加稳定。
(6)hbase中使用主机名,而不是IP地址标识主机。因此需要修改hosts文件,建立各主机名与IP地址的对应关系。
[使用root权限]vi/etc/hosts,指明主机名称与IP地址的对应关系,因为我的实验环境包含了三个结点:master,slave1,slave2,所以我需要添加的内容如下:
192.168.100.128master
192.168.100.156slave1
192.168.100.159slave2
3.修改hadoop的目录下的conf/hdfs-site.xml
<property>
<name>dfs.datanode.max.xcievers</name>
<value>4096</value>
</property>
4.修改hbase/conf/regionservers
将所有的datanode添加到这个文件,类似与hadoop中slaves文件。因为我想在“master,slave1,slave2”这三个结点上运行HRegionServer,所以,我的hbase/conf/regionservers的内容为:
master
slave1
slave2
5.拷贝hbase到所有的节点,也就是说,步骤1-4在所有hbase结点上的配置是相同的。
6.启动Hbase之前,确保hadoop已经正常启动并运行。
可以使用jps命令查看master上是否存在NameNode服务,slave上是否存在DataNode服务。
然后启动hbase
$./bin/start-hbase.sh
注意事项:防火墙会阻挡访问hbase和zookeeper的网络连接,zookeeper若被防火墙阻挡,就会死掉,导致Hbase死掉。因此,需要配置iptables,允许相关端口的数据包通过,或者在测试阶段,直接先将iptables防火墙停掉:/sbin/serviceiptablesstop【停止iptables需要root权限】比较方便。
7检查Hbase是否正常启动。
(1)在master上运行jps,会看到HMaster、HRegionServer和HQuorumPeer。
[user@master~]$jps
26023HRegionServer
26615Jps
15276DataNode
15140NameNode
25724HQuorumPeer
15596TaskTracker
25835HMaster
15441JobTracker
(2)在slave上运行jps,会看到HRegionServer和HQuorumPeer。
[user@slave2~]$jps
10735DataNode
13226HQuorumPeer
10854TaskTracker
13383HRegionServer
19594Jps
(3)其它方式:hbase自带的web界面
http://master:60010/
当我们在浏览主页的时候提示:You are currently running the HMaster without HDFS append support enabled. This may result in data loss. Please see the HBase wiki for details.
查看了hdfs-default.xml中,看到如下说明,Hadoop-0.20.2版本有bug不能支持HDFS 追加功能,因此只能作罢。如果你用的是其他版本可能就不会有!
<property>
<name>dfs.support.append</name>
<value>false</value>
<description>Does HDFS allow appends to files? 是否允许HDFS追加文件呢
This is currently set to false because there are bugs in the 当前设置为false因为有bug
"append code" and is not supported in any production cluster. 所以不支持任何集群
</description>
</property>