(3)hadoop单节点配置

摘要:
Hadoop-2.6.0-cdh5.7.0 Hadoop版本下载地址http://archive-primary.cloudera.com/cdh5/cdh/5/此外,使用flash FXP上传到Linux主文件夹,在softwear下,解压缩到应用程序目录tar zxvfhadoop-2.6.0-cdh5.7.0.tar。gz-C~/app/修改我的主文件夹中的hadoop配置文件,并在应用程序中修改hadoop

hadopp版本hadoop-2.6.0-cdh5.7.0      下载地址http://archive-primary.cloudera.com/cdh5/cdh/5/

同样使用flashFXP上传到linux   家文件夹下softwear下

(3)hadoop单节点配置第1张

解压至app目录下

tar -zxvf hadoop-2.6.0-cdh5.7.0.tar.gz  -C ~/app/

我的家文件夹(3)hadoop单节点配置第2张

hadoop配置文件的修改,,,修改app下hadoop-2.6.0-cdh5.7.0下etc下hadoop下hadoop-env.sh打开如下

(3)hadoop单节点配置第3张

修改其中的java_home,为你安装的jdk的目录

另开一个窗口打开app下jdk目录输入

pwd

(3)hadoop单节点配置第4张赋值返回值

回到hadoop-env.sh目录修改JAVA_HOME

(3)hadoop单节点配置第5张

配置core-site.xml                  路径etc/hadoop/core-site.xml               localhost请配置内网ip

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/app/tmp</value>
    </property>
</configuration>

配置hdfs-site.xml                  路径etc/hadoop/hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

启动hsfs:

         1、格式化文件系统

app/hadoop-2.6.0-cdh5.7.0/bin目录下运行               ./hdfs namenode -format

启动hdfsapp/hadoop-2.6.0-cdh5.7.0/sbin目录下            ./start.dfs

免责声明:文章转载自《(3)hadoop单节点配置》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇SpringBoot技术栈搭建个人博客【项目准备】itoa()函数和atoi()函数详解下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

Hadoop集群安装配置

一、准备工作 1.首先准备好七台虚拟机,并确保都已经安装配置好jdk。 2.Hadoop3.2.0+jdk1.8自行到官网下载 3.修改好相称的主机名,并在hosts文件中相互添加。   ######注意######如果你们公司是租用的服务器或是使用的云主机(如华为用主机、阿里云主机等)   /etc/hosts里面要配置的是内网IP地址和主机名的映射关系...

【大数据】hadoop3.0worker集群+flink+zeppelin+kafaka+zookeeper安装部署

零、环境 0.1软件版本 hadoop3.0 java 1.8.241 flink-1.12.3 zeppelin-0.9.0-bin-all kafka.1.1.1(详见kafka集群部署) 0.2硬件 192.168.0.24  8c32G500SSD hadoop-master 192.168.0.25 8c32G500SSD  hadoop-cli...

大数据测试总结

前言        随着各个国家使用大数据应用程序或应用大数据技术场景的数量呈指数增长,相应的,对于测试大数据应用时所需的知识与大数据测试工程师的需求也在同步增加。医疗、能源、通信、零售业、金融、体育等各行业都可以从其数据的采集、传输、存储、分析等各个环节产生巨大的经济价值,马爸爸认为,未来的时代将不是IT时代,而是DT的时代,即Data Technolo...

sqoop 安装与使用

Sqoop(发音:skup)是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。 官网:http://sqoop.apache.org/ 由于官方不建议将sq...

Apache Kylin 是什么?

  不多说,直接上干货! Apache Kylin的官网 http://kylin.apache.org/cn/ - 可扩展超快OLAP引擎:  Kylin是为减少在Hadoop上百亿规模数据查询延迟而设计 - Hadoop ANSI SQL 接口:  Kylin为Hadoop提供标准SQL支持大部分查询功能 - 交互式查询能力:  通过Kylin,用户...

pyspark 安装配置【linux &amp;amp;&amp;amp; win】

一、windows 安装 1、下载spark http://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-2.3.1/spark-2.3.1-bin-hadoop2.7.tgz 2、配置spark 环境变量 set SPARK_HOME=d:spark2.3.1set PATH=%SPARK_HO...