hadoop伪分布式搭建

摘要:
JDK安装配置执行rpm-ijdk-8u91-linux-x64.rpm默认安装在/usr/java/jdk1.8.0_91目录中配置环境变量vi/etc/profile在最后一行添加exportJAVA_HOME=/usr/java/jdk1.8.0_91exportPATH=$PATH:$JAVA_HOME/binsource/etc/profile使环境变量生效(./etc/profile)
  1. JDK安装配置
    执行 rpm -i  jdk-8u91-linux-x64.rpm  
    默认安装在/usr/java/jdk1.8.0_91目录中 配置环境变量vi /etc/profile在最后一行添加 export JAVA_HOME=/usr/java/jdk1.8.0_91 export PATH=$PATH:$JAVA_HOME/bin source /etc/profile 使环境变量生效(. /etc/profile)也可以
  2. ssh免秘钥(本机)
    生成公钥并追加到文件中保存
    ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
    cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
  3. Hdaoop安装配置
    在/opt 创建hadoop目录 /sxt,
    上传hadoop.tar.gz到服务器,解压,移动到指定目录 mv hadoop-2.6.5 /opt/sxt 配置环境变量(在任意目录可以使用bin和sbin下的命令) vi /etc/profile export JAVA_HOME=/usr/java/jdk1.7.0_67 export HADOOP_HOME=/opt/sxt/hadoop-2.7.3 export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin source /etc/profile 使环境变量生效
  4. Hadoop环境配置
    进入hadoop的配置目录
    cd /opt/sxt/hadoop-2.7.3/etc/hadoop 
    vi hadoop-env.sh
    修改JAVA_HOME为java绝对路径
    export JAVA_HOME=/usr/java/jdk1.8.0_91
    vi core-site.xml
    添加配置(NameNode启动位置;NN和DN的存储文件目录)
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://node00:9000</value>
    </property>
    <property>
      <name>hadoop.tmp.dir</name>
        <value>/var/sxt/hadoop/local</value>
    </property>
    vi hdfs-site.xml
    添加配置(伪分布式1个副本;SN节点启动位置)
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
       <name>dfs.namenode.secondary.http-address</name>
        <value>node00:50090</value>
    </property>
    vislaves
    添加配置(DataNode节点启动位置)
    node00
  5. HAdoop启动测试
    格式化hdfs namenode -format(创建存储data和name的文件,生成集群id,两个id一致;删除NameNode元数据)
    启动start-dfs.sh
    查看进程 jps
    28341SecondaryNameNode
    28102NameNode
    28207DataNode
    28480Jps
    
    上传文件测试
    hdfs dfs -mkdir /user
    hdfs dfs -ls /user
    hdfs dfs -mkdir /user/root
    hdfs dfs -D dfs.blocksize=1048576 -put hadoop-2.7.3.tar.gz 
    
    浏览器访问查看上传文件
    http://192.168.68.99:50070或者node00:50070

免责声明:文章转载自《hadoop伪分布式搭建》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇ZooKeeper学习总结 第二篇:ZooKeeper深入探讨功能型:js获取所有的input框元素 根据键盘上下方向键给某个input框加焦点事件下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

HDFS文件读写过程

存储流程a)         Clinet首先将要存储的数据切分成若干块,然后向NameNode发送存储请求, b)         NameNode检查权限、存储文件是否已存在等信息,确认无误后返回允许存储的响应,这个响应还包括第一个Block要放在哪个DataNode哪个的地址的信息。 c)         Clinet得到NameNode的响应,打...

大数据 Hadoop 单机版安装

1. 安装 JDK tar -zvxf jdk-8u201-linux-x64.tar.gz -C /opt/software cd /opt/software mv jdk1.8.0_201 jdk vim /etc/profile export JAVA_HOME=/opt/software/jdk export PATH=$JAVA_HOME/b...

sqoop 安装与使用

Sqoop(发音:skup)是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。 官网:http://sqoop.apache.org/ 由于官方不建议将sq...

vertica在电信的应用

本文介绍了什么 ´电信级大数据分析典型需求 ´Vertica数据库特点及与其他数据库对比 ´Vertica核心技术介绍 ´基于Vertica的典型分系统架构简介 电信级大数据分析典型需求´海量数据存储:年分析数据量达到PB级 Counter数据:各网元收集的统计数据,可用于监控和测量网络性能 MR详单:即手机向网络上报的无线性能测量报告,反映了用户实时...

Hadoop集群安装配置

一、准备工作 1.首先准备好七台虚拟机,并确保都已经安装配置好jdk。 2.Hadoop3.2.0+jdk1.8自行到官网下载 3.修改好相称的主机名,并在hosts文件中相互添加。   ######注意######如果你们公司是租用的服务器或是使用的云主机(如华为用主机、阿里云主机等)   /etc/hosts里面要配置的是内网IP地址和主机名的映射关系...

Hive 基础

Facebook为了解决海量日志数据的分析而开发了hive,后来开源给了Apache基金会组织。 hive是一种用SQL语句来协助读写、管理存储在HDFS上的大数据集的数据仓库软件。 Hive 特点 1 是基于 Hadoop 的一个数据仓库工具;2 Hive 最大的特点是将 Hive SQL语句转换为 MapReduce、Tez 或者 spark 等任务执...