七、大数据Hadoop的安装与配置、HDFS

摘要:
1.安装Hadoop单机模式。安装Hadoop。安装java环境。设置环境变量。启动并运行1.1.准备环境。1) 将主机名配置为nn01,IP地址配置为192.168.1.21,yum源代码(系统源代码)。备注:由于这些都是在以前的案例中完成的,这里不再重复。2) 安装java环境nn01~]#yum yinstalljava-1.8.0-openjdk-develn01~]#java版本openjdkversion
1.安装Hadoop
单机模式安装Hadoop
安装JAVA环境
设置环境变量,启动运行
 
1.1 环境准备
 
1)配置主机名为nn01,ip为192.168.1.21,配置yum源(系统源)
备注:由于在之前的案例中这些都已经做过,这里不再重复.
 
2)安装java环境
nn01 ~]# yum -y install java-1.8.0-openjdk-devel
nn01 ~]# java -version
openjdk version "1.8.0_131"
OpenJDK Runtime Environment (build 1.8.0_131-b12)
OpenJDK 64-Bit Server VM (build 25.131-b12, mixed mode)
[root@nn01 ~]# jps
1322 Jps
 
3)安装hadoop
nn01 ~]# tar -xf hadoop-2.7.6.tar.gz
nn01 ~]# mv hadoop-2.7.6 /usr/local/hadoop
nn01 ~]# cd /usr/local/hadoop/
hadoop]# ls
bin  include  libexec       NOTICE.txt  sbin
etc  lib      LICENSE.txt  README.txt  share
 
hadoop]# ./bin/hadoop   //报错,JAVA_HOME没有找到
 
4)解决报错问题
hadoop]# rpm -ql java-1.8.0-openjdk
hadoop]# cd ./etc/hadoop/
hadoop]# vim hadoop-env.sh
25 export  
JAVA_HOME="/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.131-11.b12.el7.x86_64/jre"
33 export HADOOP_CONF_DIR="/usr/local/hadoop/etc/hadoop"
 
nn01 ~]# cd /usr/local/hadoop/
hadoop]# ./bin/hadoop
Usage:...
hadoop]# mkdir /usr/local/hadoop/aa
hadoop]# cp *.txt /usr/local/hadoop/aa
hadoop]# ./bin/hadoop jar  
share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.6.jar wordcount aa bb
//wordcount为参数 统计aa这个文件夹,存到bb这个文件里面(这个文件不能存在,要是存在会报错,是为了防止数据覆盖)
hadoop]# cat bb/part-r-00000   //查看
 
2. 安装配置Hadoop
 
另备三台虚拟机,安装Hadoop
使所有节点能够ping通,配置SSH信任关系
节点验证
node1 192.168.1.22
node2 192.168.1.23
node3 192.168.1.24
 
2.1 环境准备
 
1)三台机器配置主机名为node1、node2、node3,配置ip地址
2)编辑/etc/hosts(四台主机同样操作,以nn01为例)
[root@nn01 ~]# vim /etc/hosts
192.168.1.21  nn01
192.168.1.22  node1
192.168.1.23  node2
192.168.1.24  node3
 
3)安装java环境,在node1,node2,node3上面操作(以node1为例)
node1 ~]# yum -y install java-1.8.0-openjdk-devel
 
4)布置SSH信任关系
//第一次登陆不需要输入yes
nn01 ~]# vim /etc/ssh/ssh_config
Host *
        GSSAPIAuthentication yes
        StrictHostKeyChecking no
nn01 ~]# ssh-keygen(一路回车)
nn01 ~]# for i in 21 22 23 24 ; do ssh-copy-id 192.168.1.$i; done 
//部署公钥给nn01,node1,node2,node3
 
5)测试信任关系
nn01 ~]# ssh node1
node1 ~]# exit
 
2.2 配置hadoop
 
1)修改slaves文件
[root@nn01 ~]# cd /usr/local/hadoop/etc/hadoop
hadoop]# vim slaves
node1
node2
node3
 
2)hadoop的核心配置文件core-site
hadoop]# vim core-site.xml
<configuration>
<property>
        <name>fs.defaultFS</name>
        <value>hdfs://nn01:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/var/hadoop</value>
    </property>
</configuration>
 
hadoop]# mkdir /var/hadoop        //hadoop的数据根目录
hadoop]# ssh node1 mkdir /var/hadoop
hadoop]# ssh node2 mkdir /var/hadoop
hadoop]# ssh node3 mkdir /var/hadoop
 
3)配置hdfs-site文件
hadoop]# vim hdfs-site.xml
<configuration>
 <property>
        <name>dfs.namenode.http-address</name>
        <value>nn01:50070</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>nn01:50090</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>2</value> //存两份,总数
    </property>
</configuration>
 
4)同步配置到node1,node2,node3
//同步的主机都要安装rsync
hadoop]# ssh node1 yum –y install rsync 
hadoop]# ssh node2 yum –y install rsync 
hadoop]# ssh node3 yum –y install rsync
hadoop]# for i in 22 23 24 ; do rsync -aSH --delete /usr/local/hadoop/ root@192.168.1.$i:/usr/local/hadoop/ -e 'ssh' & done
[1] 23260
[2] 23261
[3] 23262
 
5)查看是否同步成功
hadoop]# ssh node1 ls /usr/local/hadoop/
bin
etc
include
lib
libexec
LICENSE.txt
NOTICE.txt
bb
README.txt
sbin
share
aa
...
 
2.3 格式化
 
hadoop]# cd /usr/local/hadoop/
hadoop]# ./bin/hdfs namenode -format  //格式化 namenode
hadoop]# ./sbin/start-dfs.sh        //启动
hadoop]# jps        //验证角色
11009 Jps
10707 NameNode
10894 SecondaryNameNode
 
hadoop]# ./bin/hdfs dfsadmin -report    //查看集群是否组建成功
Live datanodes (3):  //有三个角色成功
 
#########################
知识点整理:

01:大数据运维:运维+大数据管理软件的技能
指无法在一定时间内用常规软件工具进行捕捉、管理和处理数据集合,需要新处理模式才具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。
是指从各种各样类型的数据中,快速获得有价值的信息。

大数据的作用:
调整相关经营策略
预测相关发展趋势
大规模数据处理

大数据相关特性:
大体量:volume
多样性:variety
时效性:velocity
准确性:veracity
大价值:value

02:Hadoop
是一种分析和处理海量数据的软件平台,Java开发,提供分布式基础架构。
高可靠性、高扩展性、高校性、高容错性、低成本。

常用组件:
HDFS:分布式文件系统(核心组件,存储)
MapReduce0(分布式计算框架)(核心组件)
Yarn:集群资源管理系统(核心组件,集群资源管理系统)
Zookeeper:分布式写作服务
Hbase:分布式列存储数据库
Hive:基于Hadoop数据仓库
Sqoop:数据同步工具
Pig:基于Hadoop的数据流系统
Mahout:数据挖掘算法库
Flume:日志收集工具

03:HDFS(分布式文件系统)
Client:切分文件,访问HDFS,与NameNode交互,获取文件位置信息;与DataNode交互,读取和写入数据。

角色:
Namenode:Master主节点,管理HDFS的名称空间和数据块映射信息,配置副本策略,处理所有客户端请求。

Secondarynode:主节点小秘,定期合并fsimage(数据块命名空间、存储信息)和fsedits(修改后的数据块:源数据+新数据,类似前端盘),推送给NameNode;紧急情况下,可辅助恢复NameNode。

Datanode:数据存储节点,存储世界的数据;汇报存储信息给NameNode。

Block:128MB,每块可以多个副本。

HDFS结构:(NameNode一般一台)
存数据:Client(数据切块)-> ..数据存哪..->NameNode-> ..DateNode..Client->DataNode(存储数据)
取数据:Client(数据切块)-> ..数据在哪..->NameNode-> ..DateNode..Client->DataNode(获取数据)

04:MapReduce结构 分布式计算框架
把一个复杂的问题,分解成若干个简单的问题,多台机器共同计算,最终合并汇总。
角色:
JobTracker:切分任务段,数据总监控、错误处理等(管理节点,一台)
TaskTracker:分单任务(多台,干活)
Map Task:解析每条数据记录,传递给用户编写的map()并执行,将输出结果写入本地磁盘。(如果map-only)作业,直接写入HDFS)
Reducer Task:从Map Task的执行结果中,远程读取输入数据,对数据进行排序,将数据按照分组传递给用户编写的reduce函数执行。

05:Yarn结构:Hadoop的一个通用资源管理系统
角色:
ResourceManager:Master,皇上,处理客户端请求,启动、监控ApplicationMaster,监控NodeManager,资源分配与调度。

NodeManager:钦差大臣,皇上安排的助手,每个结点上资源管理,处理ResourceManager的命令,处理来自ApplicationMaster的命令。(每个ApplicationMaster有多个Container在NodeMaster上运行)

ApplicationMaster:数据切分,为应用程序申请资源,并分配给内部任务,任务监控与容错(表示每个应用)。

Container:对任务运行环境的抽象,封装了CPU、内存等;多维资源以及环境变量、启动命令等任务运行相关的信息资源分配与调度。

06:Hadoop三种模式
单机模式:一台机器部署
伪分布式:所有的角色都安装在一台机器上,学习和测试(类似数据库的多实例)
完全分布式:多台机器部署

##########################

完全分布式  节点管理  NFS网关
1.安装与部署
对mapred和yarn文件进行配置
验证访问Hadoop
 
在六十准备好的环境下给master (nn01)主机添加ResourceManager的角色,在node1,node2,node3上面添加NodeManager的角色
图片
1.1 安装与部署hadoop
 
1)配置mapred-site(nn01上面操作)
nn01 ~]# cd /usr/local/hadoop/etc/hadoop/
hadoop]# mv mapred-site.xml.template mapred-site.xml
hadoop]# vim mapred-site.xml
<configuration>
<property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>
 
2)配置yarn-site(nn01上面操作)
hadoop]# vim yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
        <name>yarn.resourcemanager.hostname</name>
        <value>nn01</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>
 
3)同步配置(nn01上面操作)
hadoop]# for i in {22..24}; do rsync -aSH --delete /usr/local/hadoop/ 192.168.1.$i:/usr/local/hadoop/  -e 'ssh' & done
[1] 712
[2] 713
[3] 714
 
4)验证配置(nn01上面操作)
hadoop]# cd /usr/local/hadoop
hadoop]# ./sbin/start-dfs.sh
Starting namenodes on [nn01]...
 
hadoop]# ./sbin/start-yarn.sh
...out...
 
hadoop]# jps                           //nn01查看有ResourceManager
10707 NameNode
11748 Jps
11484 ResourceManager
10894 SecondaryNameNode
 
hadoop]# ssh node1(2,3) jps //node1查看有NodeManager
10368 Jps
10262 NodeManager
10073 DataNode
 
5)web访问hadoop
http://192.168.1.21:50070/      //--namenode web页面(nn01)
http://192.168.1.21:50090/      //--secondory namenode web页面(nn01)
http://192.168.1.22:50075/      //--datanode web页面(node1,node2,node3)
http://192.168.1.21:8088/      //--resourcemanager web页面(nn01)
http://192.168.1.22:8042/      //--nodemanager web页面(node1,node2,node3)
 
2. Hadoop词频统计
在集群文件系统里创建文件夹
上传要分析的文件到目录中
分析上传文件
展示结果
 
2.1 词频统计
 
hadoop]# ./bin/hadoop fs -ls /  //查看集群文件系统的根,没有内容
hadoop]# ./bin/hadoop fs -mkdir /aaa
//在集群文件系统下创建aaa目录
hadoop]# ./bin/hadoop fs -ls /    //再次查看,有刚创建的aaa目录
Found 1 items
drwxr-xr-x   - root supergroup   0 2019-03-02 18:08 /aaa
 
hadoop]# ./bin/hadoop fs -touchz /fa    //在集群文件系统下创建fa文件 "-touchz"
hadoop]# ./bin/hadoop fs -put *.txt /aaa     
//上传*.txt到集群文件系统下的aaa目录
hadoop]# ./bin/hadoop fs -ls /aaa/    //查看
Found 3 items
-rw-r--r--  2 root supergroup   86424 2019-03-02 18:09 /aaa/LICENSE.txt
-rw-r--r--  2 root supergroup   14978 2019-03-02 18:09 /aaa/NOTICE.txt
-rw-r--r--  2 root supergroup    1366 2019-03-02 18:09 /aaa/README.txt
 
hadoop]# ./bin/hadoop fs -get /aaa  //下载集群文件系统的aaa目录
hadoop]# ls (nn01本地有下载的aaa文件夹)
 
//分析hadoop集群/aaa里的数据存到hadoop集群/bbb下
hadoop]# ./bin/hadoop jar
share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.6.jar wordcount /aaa /bbb    
 
//查看集群里的数据,统计出现的次数
hadoop]# ./bin/hadoop fs -cat /bbb/*
 
3. 节点管理
增加一个新的节点
查看状态
删除节点
 
另外准备两台主机,node4和nfsgw,作为新添加的节点和网关图片

3.1 增加节点

1)增加一个新的节点node4
node4 ~]# yum -y install rsync
node4 ~]# yum -y install java-1.8.0-openjdk-devel
node4 ~]# mkdir /var/hadoop
nn01 ~]# ssh-copy-id 192.168.1.25

nn01 ~]# vim /etc/hosts
192.168.1.21 nn01
192.168.1.22 node1
192.168.1.23 node2
192.168.1.24 node3
192.168.1.25 node4
nn01 ~]# scp /etc/hosts 192.168.1.25:/etc/

nn01 ~]# cd /usr/local/hadoop/
hadoop]# vim ./etc/hadoop/slaves
node1
node2
node3
node4

//同步配置 (jobs -l 确保node4同步完成!)
hadoop]# for i in {22..25}; do rsync -aSH --delete /usr/local/hadoop/
192.168.1.$i:/usr/local/hadoop/ -e 'ssh' & done
[1] 12375
[2] 12376
[3] 12377
[4] 12378
node4 hadoop]# ./sbin/hadoop-daemon.sh start datanode //node4启动

2)查看状态
node4 hadoop]# jps
12470 Jps
12396 DataNode

3)设置同步带宽 #其他NN将数据匀一部分过来,匀数据的时候不能占用所有带宽
node4 hadoop]# ./bin/hdfs dfsadmin -setBalancerBandwidth 60000000
Balancer bandwidth is set to 60000000
node4 hadoop]# ./sbin/start-balancer.sh
starting balancer...
nn01 hadoop]# ./bin/hdfs dfsadmin -report #查看状态
Live datanodes (4):...(有node4)

4)删除节点
nn01 hadoop]# vim /usr/local/hadoop/etc/hadoop/slaves
//去掉之前添加的node4
node1
node2
node3

nn01 hadoop]# vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml
//在此配置文件里面加入下面四行
...
<property> 
        <name>dfs.hosts.exclude</name>
        <value>/usr/local/hadoop/etc/hadoop/exclude</value>
</property>
nn01 hadoop]# vim /usr/local/hadoop/etc/hadoop/exclude
node4

5)导出数据
nn01 hadoop]# ./bin/hdfs dfsadmin -refreshNodes
Refresh nodes successful

nn01 hadoop]# ./bin/hdfs dfsadmin -report  #等待
//查看node4,不要动机器,等待node4显示Decommissioned

Dead datanodes (1):
Name: 192.168.1.25:50010 (node4)
Hostname: node4
Decommission Status : Decommissioned... #显示Decommissioned 才可以

node4 hadoop]# ./sbin/hadoop-daemon.sh stop datanode //停止datanode
stopping datanode

node4 hadoop]# ./sbin/yarn-daemon.sh start nodemanager
//yarn 增加 nodemanager
node4 hadoop]# jps
10342 NodeManager
10446 Jps

node4 hadoop]# ./sbin/yarn-daemon.sh stop nodemanager //停止nodemanager
stopping nodemanager  #jps 将没有NodeManager

node4 hadoop]# ./bin/yarn node -list
//yarn 查看节点状态,还是有node4节点,要过一段时间才会消失
19/03/02 18:40:27 INFO client.RMProxy: Connecting to ResourceManager at nn01/192.168.1.21:8032
Total Nodes:4
Node-Id Node-StateNode-Http-AddressNumber-of-Running-Containers
node2:36669 RUNNING node2:8042 0
node4:38698 RUNNING node4:8042 0
node3:36146 RUNNING node3:8042 0
node1:34124 RUNNING node1:8042 0

4.NFS配置
创建代理用户
启动一个新系统,禁用Selinux和firewalld
配置NFSWG
启动服务
挂载NFS并实现开机自启

4.1 基础准备

1)更改主机名,配置/etc/hosts(/etc/hosts在nn01和nfsgw上面配置)
localhost ~]# echo nfsgw > /etc/hostname 
localhost ~]# hostname nfsgw

nn01 ~]# ssh-copy-id 192.168.1.26

nn01 hadoop]# vim /etc/hosts
192.168.1.21 nn01
192.168.1.22 node1
192.168.1.23 node2
192.168.1.24 node3
192.168.1.25 node4
192.168.1.26 nfsgw

2)创建代理用户(nn01和nfsgw上面操作),以nn01为例子
nn01 hadoop]# groupadd -g 200 nfs
nn01 hadoop]# useradd -u 200 -g nfs nfs

3)配置core-site.xml
nn01 hadoop]# ./sbin/stop-all.sh //停止所有服务
This script ...

nn01 hadoop]# cd etc/hadoop
nn01 hadoop]# >exclude
nn01 hadoop]# vim core-site.xml #添加
<property>
     <name>hadoop.proxyuser.nfs.groups</name>
     <value>*</value>
</property>
<property>
      <name>hadoop.proxyuser.nfs.hosts</name>
      <value>*</value>
</property>

4)同步配置到node1,node2,node3
nn01 hadoop]# for i in {22..24}; do rsync -aSH --delete /usr/local/hadoop/ 192.168.1.$i:/usr/local/hadoop/ -e 'ssh' & done
[4] 2722
[5] 2723
[6] 2724 #jobs -l 确保同步完成!

5)启动集群
nn01 hadoop]# /usr/local/hadoop/sbin/start-dfs.sh

6)查看状态
nn01 hadoop]# /usr/local/hadoop/bin/hdfs dfsadmin -report
Live datanodes (3):... #恢复到3

4.2 NFSGW配置

1)安装java-1.8.0-openjdk-devel和rsync
nfsgw ~]# yum -y install java-1.8.0-openjdk-devel
nfsgw ~]# yum -y install rsync

nn01 hadoop]# rsync -avSH --delete  
/usr/local/hadoop/ 192.168.1.26:/usr/local/hadoop/ -e 'ssh'

2)创建数据根目录 /var/hadoop(在NFSGW主机上面操作)
nfsgw ~]# mkdir /var/hadoop

3)创建转储目录,并给用户nfs 赋权
nfsgw ~]# mkdir /var/nfstmp
nfsgw ~]# chown nfs:nfs /var/nfstmp

4)给/usr/local/hadoop/logs赋权(在NFSGW主机上面操作)
nfsgw ~]# setfacl -m u:nfs:rwx /usr/local/hadoop/logs
nfsgw ~]# vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml #新添加
<property>
      <name>nfs.exports.allowed.hosts</name>
      <value>* rw</value>
</property>
<property>
      <name>nfs.dump.dir</name>
      <value>/var/nfstmp</value>
</property>

5)可以创建和删除即可
nfsgw ~]# su - nfs
nfsgw ~]$ cd /var/nfstmp/
nfsgw nfstmp]$ touch 1
nfsgw nfstmp]$ ls
1
nfsgw nfstmp]$ rm -rf 1
nfsgw nfstmp]$ ls

nfsgw nfstmp]$ cd /usr/local/hadoop/logs/
nfsgw logs]$ touch 1
nfsgw logs]$ ls
1 hadoop-root-secondarynamenode-nn01.log
hadoop-root-datanode-nn01.log hadoop-root-secondarynamenode-nn01.out
hadoop-root-datanode-nn01.out hadoop-root-secondarynamenode-nn01.out.1
hadoop-root-namenode-nn01.log SecurityAuth-root.audit
hadoop-root-namenode-nn01.out yarn-root-resourcemanager-nn01.log
hadoop-root-namenode-nn01.out.1 yarn-root-resourcemanager-nn01.out

nfsgw logs]$ rm -rf 1
nfsgw logs]$ ls

6)启动服务
nfsgw ~]# /usr/local/hadoop/sbin/hadoop-daemon.sh --script ./bin/hdfs start portmap
//portmap服务只能用root用户启动
starting portmap, logging to /usr/local/hadoop/logs/hadoop-root-portmap-nfsgw.out

nfsgw ~]# jps
1091 Jps
1045 Portmap

nfsgw ~]# su - nfs
nfsgw ~]$ cd /usr/local/hadoop/
nfsgw hadoop]$ ./sbin/hadoop-daemon.sh --script ./bin/hdfs start nfs3
//nfs3只能用代理用户启动
tarting nfs3, logging to /usr/local/hadoop/logs/hadoop-nfs-nfs3-nfsgw.out

nfsgw hadoop]$ jps
1139 Nfs3
1192 Jps

nfsgw hadoop]# jps //root用户执行可以看到portmap和nfs3
1139 Nfs3
1204 Jps
1045 Portmap

7)实现客户端挂载(客户端可以用node4这台主机)
node4 ~]# rm -rf /usr/local/hadoop
node4 ~]# yum -y install nfs-utils
node4 ~]# mount -t nfs -o
vers=3,proto=tcp,nolock,noatime,sync,noacl 192.168.1.26:/ /mnt/
//挂载  df -h 查看

node4 ~]# cd /mnt/
node4 mnt]# ls
aaa bbb fa system tmp
node4 mnt]# touch a
node4 mnt]# ls
a aaa bbb fa system tmp
node4 mnt]# rm -rf a
node4 mnt]# ls
aaa bbb fa system tmp

8)实现开机自动挂载
node4 ~]# vim /etc/fstab
192.168.1.26:/ /mnt/ nfs vers=3,proto=tcp,nolock,noatime,sync,noacl,_netdev 0 0 
node4 ~]# mount -a
node4 ~]# df -h
192.168.1.26:/ 80G 8.2G 72G 11% /dvd

node4 ~]# rpcinfo -p 192.168.1.26
program vers proto port service
100005 3 udp 4242 mountd
100005 1 tcp 4242 mountd
100000 2 udp 111 portmapper
100000 2 tcp 111 portmapper
100005 3 tcp 4242 mountd
100005 2 tcp 4242 mountd
100003 3 tcp 2049 nfs
100005 2 udp 4242 mountd
100005 1 udp 4242 mountd

############################
知识点整理:

01:Yarn:集群资源管理系统(核心组件,集群资源管理系统)
MapReduce结构 分布式计算框架
02:(NFS)节点管理 增加 删除 修复
03:Yarn节点管理(NodeManager) 增加 删除
04:NFS网关(HDFS client + NFS server)
访问HDFS文件系统必须是HDFS客户端
将HDFS文件系统mount到本地(使用NFSv3协议,任何机器直接能挂载)
外部客户端要访问 HDFS文件系统,通过NFS网关,采用NFS挂载的方式,NFS网关将NFS指令转化为HDFS客户端的指令,发给HDFS client,以HDFS客户端的方式访问后端HDFS文件系统,NFS网关起到代理转发的作用。

#######################

免责声明:文章转载自《七、大数据Hadoop的安装与配置、HDFS》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇解决绝对定位div position: absolute 后面的&amp;lt;a&amp;gt; Link不能点击关于子查询中的order by子句下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

CentOS中如何安装7ZIP

7-zip以高压缩率著称,并且是一款免费开源的压缩软件。在常规的Linux发行版中,无法通过简单的yum命令来安装该软件。那么在CentOS中,如何安装7ZIP呢?有以下3种方法: 第一种,源码编译安装官网下载地址:http://www.7-zip.org/download.html源文件项目地址:http://sourceforge.net/projec...

SSH 免密码登陆

1.在A机生成公钥和私钥 ssh-keygen -t rsa –P 一般采用的ssh的rsa密钥: id_rsa 私钥 id_rsa.pub 公钥 下述命令产生不同类型的密钥 ssh-keygen -t dsa 2.把A机下的/root/.ssh/id_rsa.pub 复制到B机的 /root/.ssh/authorized_keys...

一、Hbase的安装

一、Hbase配置 这个是我从网上找的一个版本,网上说配置成功。 先决条件: (1)hadoop的版本与hbase的版本要对应,主要是hadoop目录下的hadoop-core-1.0.4.jar的版本与hbase的lib目录下的hadoop-core-1.0.4.jar一致。 做法:将hadoop中lib下的hadoop-core-1.0.2.jar...

Hadoop配置项整理(hdfs-site.xml)

name value Description dfs.default.chunk.view.size 32768 namenode的http访问页面中针对每个文件的内容显示大小,通常无需设置。 dfs.datanode.du.reserved 1073741824 每块磁盘所保留的空间大小,需要设置一些,主要是给非hdfs文件使用,默认是不保留...

mac配置git和github

1,安装git 查看mac上是否已安装git git --version 如果没有,可以通过安装Xcode后配置,或者通过 xcode-select --install 安装。具体安装方法请百度。 2,创建github账号 创建github的邮箱后面会用到 3,创建ssh,配置本地git 参考:Git - 初次运行 Git 前的配置 (git-scm.co...

CentOS 6 使用 yum 安装MongoDB及服务器端配置

安装MongoDB的方法有很多种,可以源代码安装,在Centos也可以用yum源安装的方法。由于MongoDB更新得比较快,我比较喜欢用yum源安装的方法。64位Centos下的安装步骤如下: 1、准备工作 运行yum命令查看MongoDB的包信息[root@localhost~]#yuminfomongo-10gen (提示没有相关匹配的信息,) 说明你...