大数据 Hadoop 单机版安装

摘要:
--指定hadoop运行时--˃hadoop生成的文件的存储路径。tmp。dir/opt/software/hadop/tmp/hadop--${user.name}4.3修改hdfs站点。xmldfs。name dir/opt/software/hadop/hdfs/namedfs上数据块的物理存储位置。数据dir/opt/software/hadop/hdfs/data˂!

1. 安装 JDK

tar -zvxf jdk-8u201-linux-x64.tar.gz -C /opt/software
cd /opt/software 
mv jdk1.8.0_201 jdk
vim /etc/profile

export JAVA_HOME=/opt/software/jdk
export PATH=$JAVA_HOME/bin:$PATH

# 退出
source /etc/profile
java -version

2. 配置本地免登录

ssh-keygen -t rsa
# 一路回车
ssh-copy-id localhost
# 将密钥复制到目标主机

3. 关闭防火墙

systemctl stop firewalld.service     # 临时关闭
systemctl disable firewalld.service  # 开机不启动

4. 解压 hadoop

4.1 修改 hadoop-env.sh

export JAVA_HOME=/opt/software/jdk

4.2 修改 core-site.xml

<configuration>
    <!-- 指定HDFS老大(namenode)的通信地址 -->
    <property>
        <name>fs.default.name</name>
        <value>hdfs://192.168.183.128:8082</value>
    </property>
     <!-- 指定hadoop运行时产生文件的存储路径 -->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/software/hadoop/tmp/hadoop-${user.name}</value>
    </property>
</configuration>

4.3 修改 hdfs-site.xml

<configuration>
    <!-- namenode上存储hdfs名字空间元数据 -->
    <property>
        <name>dfs.name.dir</name>
        <value>/opt/software/hadoop/hdfs/name</value>
    </property>
    
    <!-- datanode上数据块的物理存储位置 -->
    <property>
        <name>dfs.data.dir</name>
        <value>/opt/software/hadoop/hdfs/data</value>
    </property>

    <!-- 设置hdfs副本数量 -->
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

4.4 修改mapred-site.xml

<configuration>
    <property>
        <name>mapred.job.tracker</name>
        <value>192.168.200.128:8021</value>
    </property>
    <!-- 通知框架MR使用YARN -->
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

4.5 修改 yarn-site.xml

<configuration>
    <!-- reducer取数据的方式是mapreduce_shuffle -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

5. 启动

移动到 /opt/software/hadoop

5.1 格式化文件系统

./bin/hdfs namenode -format

5.2 启动存储

./sbin/start-dfs.sh 
  1. 使用 http://192.168.200.128:50070 查看hdfs存储信息
  2. 使用jps启动进程

5.3 启动yarn

./sbin/start-yarn.sh

使用 http://192.168.200.128:8088 查看 yarn 的存储信息

免责声明:文章转载自《大数据 Hadoop 单机版安装》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇使用马尔可夫模型自动生成文章EMC5400 服务器raid5崩溃数据恢复过程(上门恢复案例)下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

Hadoop 序列化

摘自:http://blog.csdn.net/zhang0558/article/details/53444533 序列化和反序列化以及hadoop数据类型 1.什么是序列化和反序列化   序列化就是把内存中的对象,转换成字节序列(或其他数据传输协议)以便于存储(持久化)和网络传输。   反序列化就是将收到 字节序列(或其他数据传输协议)或者是硬盘的持久...

Hive(1)-基本概念

一. 什么是Hive Hive:由Facebook开源用于解决海量结构化日志的数据统计。 Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张表,并提供类SQL查询功能。 本质是:将HQL(Hive Query Language)转化成MapReduce程序 1)Hive处理的数据存储在HDFS 2)Hive分析数据底层的实现是...

格式化hdfs

多次格式化hdfs的集群,重新格式化会碰到java.io.IOException: NameNode is not formatted的问题。需要先格式化zookeeper sbin/hadoop-daemon.sh start journalnode bin/hdfs zkfc -formatZK 格式化zk bin/hdfs namenode –for...

HDFS的增删改查概述

              HDFS的数据流之增删改查概述                                         作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任。   一.HDFS上传(写入/增)流程      如上图所示,HDFS在做写入文件时流程大概如下所示:     1>.客户端通过Distribute...

启动hadoop时报root@localhost's password: localhost: Permission denied, please try again.错误。

背景:在装完hadoop及jdk之后,在执行start-all.sh的时候出现root@localhost's password:localhost:permission denied,please try again。 解决方案: 1.修改root密码:#sudo passwd root 2.辑配置文件,允许以 root 用户通过 ssh 登录:sudo...

YARN应用程序的开发步骤

开发基于YARN的应用程序需要开发客户端程序和AppMaster程序: 我们基于程序自带的例子来实现提交application 到YARN的ResourceManger。 Distributed Shell application:Client 步骤: 连接  ResourceManager; 通过ApplicationClientProtocol协议 与...