Hadoop2.7.3集群安装scala-2.12.8 和spark2.7

摘要:
ApacheSpark是用于大规模数据处理的统一分析引擎。此外,Spark支持交互式Python和Scala外壳,在这些外壳中使用Spark集群来验证问题的解决方案非常方便。例如,Spark可以使用Hadoop的YARN和Apache Mesos作为其资源管理、调度程序和处理器,并可以处理所有Hadoop支持的数据,包括HDFS、HBase、Cassandra等。这对于部署Hadoop集群的用户来说尤其重要,因为Spark强大的处理能力可以在不进行任何数据迁移的情况下使用。

Apache Spark是用于大规模数据处理的统一分析引擎。

从右侧最后一条新闻看,Spark也用于AI人工智能

spark是一个实现快速通用的集群计算平台。它是由加州大学伯克利分校AMP实验室 开发的通用内存并行计算框架,用来构建大型的、低延迟的数据分析应用程序。它扩展了广泛使用的MapReduce计算
模型。高效的支撑更多计算模式,包括交互式查询和流处理。spark的一个主要特点是能够在内存中进行计算,及时依赖磁盘进行复杂的运算,Spark依然比MapReduce更加高效。
 

中间结果输出:基于MapReduce的计算引擎通常会将中间结果输出到磁盘上,进行存储和容错。出于任务管道承接的,考虑,当一些查询翻译到MapReduce任务时,往往会产生多个Stage,而这些串联的Stage又依赖于底层文件系统(如HDFS)来存储每一个Stage的输出结果。

Spark是MapReduce的替代方案,而且兼容HDFS、Hive,可融入Hadoop的生态系统,以弥补MapReduce的不足。

Spark的四大特性

1、高效性

运行速度提高100倍。

Apache Spark使用最先进的DAG调度程序,查询优化程序和物理执行引擎,实现批量和流式数据的高性能

2、易用性Hadoop2.7.3集群安装scala-2.12.8 和spark2.7第1张

Spark支持Java、Python和Scala的API,还支持超过80种高级算法,使用户可以快速构建不同的应用。而且Spark支持交互式的Python和Scala的shell,可以非常方便地在这些shell中使用Spark集群来验证解决问题的方法。

3、通用性

Spark提供了统一的解决方案。Spark可以用于批处理、交互式查询(Spark SQL)、实时流处理(Spark Streaming)、机器学习(Spark MLlib)和图计算(GraphX)。这些不同类型的处理都可以在同一个应用中无缝使用。Spark统一的解决方案非常具有吸引力,毕竟任何公司都想用统一的平台去处理遇到的问题,减少开发和维护的人力成本和部署平台的物力成本。

4、兼容性

Spark可以非常方便地与其他的开源产品进行融合。比如,Spark可以使用Hadoop的YARN和Apache Mesos作为它的资源管理和调度器,器,并且可以处理所有Hadoop支持的数据,包括HDFS、HBase和Cassandra等。这对于已经部署Hadoop集群的用户特别重要,因为不需要做任何数据迁移就可以使用Spark的强大处理能力。Spark也可以不依赖于第三方的资源管理和调度器,它实现了Standalone作为其内置的资源管理和调度框架,这样进一步降低了Spark的使用门槛,使得所有人都可以非常容易地部署和使用Spark。此外,Spark还提供了在EC2上部署Standalone的Spark集群的工具。

Spark的组成

Spark组成(BDAS):全称伯克利数据分析栈,通过大规模集成算法、机器、人之间展现大数据应用的一个平台。也是处理大数据、云计算、通信的技术解决方案。

它的主要组件有:

SparkCore:将分布式数据抽象为弹性分布式数据集(RDD),实现了应用任务调度、RPC、序列化和压缩,并为运行在其上的上层组件提供API。

SparkSQL:Spark Sql 是Spark来操作结构化数据的程序包,可以让我使用SQL语句的方式来查询数据,Spark支持 多种数据源,包含Hive表,parquest以及JSON等内容。

SparkStreaming: 是Spark提供的实时数据进行流式计算的组件。

MLlib:提供常用机器学习算法的实现库。

GraphX:提供一个分布式图计算框架,能高效进行图计算。

BlinkDB:用于在海量数据上进行交互式SQL的近似查询引擎。

Tachyon:以内存为中心高容错的的分布式文件系统。

应用场景

Yahoo将Spark用在Audience Expansion中的应用,进行点击预测和即席查询等
淘宝技术团队使用了Spark来解决多次迭代的机器学习算法、高计算复杂度的算法等。应用于内容推荐、社区发现等
腾讯大数据精准推荐借助Spark快速迭代的优势,实现了在“数据实时采集、算法实时训练、系统实时预测”的全流程实时并行高维算法,最终成功应用于广点通pCTR投放系统上。
优酷土豆将Spark应用于视频推荐(图计算)、广告业务,主要实现机器学习、图计算等迭代计算。
 
 
安装spark之前,请确保Scala
安装Scala步骤如下:
下载路径: https://www.scala-lang.org/download/       scala-2.12.8.tgz
把下载包上传解压
tar -zxvf scala-2.12.8.tgz
rm -rf scala-2.12.8.tgz
配置环境变量
vi .bash_profile
export SCALA_HOME=/home/hadoop/scala-2.12.8
export PATH=$SCALA_HOME/bin:$PATH
source .bash_profile
验证:
[hadoop@master ~]$ scala -version
Scala code runner version 2.12.8 -- Copyright 2002-2018, LAMP/EPFL and Lightbend, Inc.
[hadoop@master ~]$ scalac -version
Scala compiler version 2.12.8 -- Copyright 2002-2018, LAMP/EPFL and Lightbend, Inc.
[hadoop@master ~]$ which scala
~/scala-2.12.8/bin/scala
复制到其他节点:
scp -r scala-2.12.8 192.168.1.40:/home/hadoop
scp -r scala-2.12.8 192.168.1.50:/home/hadoop
 
在从节点上,声明环境变量
vi /etc/profile
export SCALA_HOME=/home/hadoop/scala-2.12.8
export PATH=$PATH:$ZOOKEEPER_HOME/bin:$ZOOKEEPER_HOME/conf:$SCALA_HOME/bin
source /etc/profile
 
从节点验证:
[hadoop@saver1 ~]$ scala -version
Scala code runner version 2.12.8 -- Copyright 2002-2018, LAMP/EPFL and Lightbend, Inc.
[hadoop@saver2 ~]$ scala -version
Scala code runner version 2.12.8 -- Copyright 2002-2018, LAMP/EPFL and Lightbend, Inc.

安装步骤:

第一步:下载

 Hadoop2.7.3集群安装scala-2.12.8 和spark2.7第2张

下载可以直接点击Download Spark 后面的链接,不过这个链接特别慢。还有一种下载方法:spark-2.4.0-bin-hadoop2.7.tgz 在这里下载相对会快一点,具体网址:http://www.apache.org/dist/spark/ 下面有各个版本。

第二步:解压

 tar -zxvf spark-2.4.0-bin-hadoop2.7.gz

 rm -rf spark-2.4.0-bin-hadoop2.7.gz

mv spark-2.4.0-bin-hadoop2.7 spark-2.4.0

第三步,配置环境变量

vi .bash_profile
export SPARK_HOME=/home/hadoop/spark-2.4.0
export PATH=$SPARK_HOME/bin:$PATH
source .bash_profile

此处需要配置的文件为两个 spark-env.sh和slaves

cd  /home/hadoop/spark-2.4.0/conf

cp spark-env.sh.template spark-env.sh

cp slaves.template slaves

编辑文件:

vi  spark-env.sh

export JAVA_HOME=/usr/local/jdk1.8
export SCALA_HOME=/home/hadoop/scala-2.12.8
export HADOOP_HOME=/home/hadoop/hadoop-2.7.3
export HADOOP_CONF_DIR=/home/hadoop/hadoop-2.7.3/etc/hadoop
export SPARK_MASTER_IP=master
export SPARK_WORKER_MEMORY=2g
export SPARK_WORKER_CORES=2
export SPARK_WORKER_INSTANCES=1
SPARK_WORKER_PORT=7078
SPARK_MASTER_PORT=7077
SPARK_WORKER_WEBUI_PORT=8081
SPARK_MASTER_WEBUI_PORT=8080

编辑文件slaves:

vi  slaves

#最后面添加

master
saver1
saver2

把spark复制到其他两台从节点上:

scp -r spark-2.4.0 192.168.1.40:/home/hadoop

scp -r spark-2.4.0 192.168.1.50:/home/hadoop

然后分别在两个从节点声明环境变量

export SPARK_HOME=/home/hadoop/spark-2.4.0
export PATH=$PATH:$ZOOKEEPER_HOME/bin:$ZOOKEEPER_HOME/conf:$SCALA_HOME/bin:$SPARK_HOME/bin

安装验证:

Hadoop2.7.3集群安装scala-2.12.8 和spark2.7第3张

前台网址:http://192.168.1.30:4040

Hadoop2.7.3集群安装scala-2.12.8 和spark2.7第4张

《完》

免责声明:文章转载自《Hadoop2.7.3集群安装scala-2.12.8 和spark2.7》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇Select下拉框onchange事件获取option的value值Django(55)GenericAPIView源码分析下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

【Scala】Scala之Packaging and Imports

一、前言   前面介绍了Scala的Object,由于中间论文的时间耽误了些时间,接着继续学习Scala的Packaging和Imports 二、Packaging and Imports   Scala的包用法与Java类似,但更灵活。在class文件顶端使用package语法,并且可以使用带中括号的package语法,与Java相比,Scala的导入有...

三种Js深度学习框架介绍

谈到机器学习,我们脑海首先蹦出的编程语言是什么?一定是python。其实除了python,JavaScript也是不错的选择。都说现在是大前端时代,从移动开发、服务器端,甚至桌面软件开发(比如大名鼎鼎的VS Code),都有JavaScript的身影。   用Javascript写机器学习应用,当然不会从头开始手写机器学习算法和模型,通常会借助现有框架。我...

idea搭建flink环境

1.打开idea,选择new project,跳转至如下界面: 2.单击next 下一步,输入项目名称,单击finish完成 3.在项目main项目下新建scala目录,并新建文件,文件名称为 hello.scala   4.新建文件之后,进入helllo.scala文件,会弹出添加sdk,添加自己版本的scala就可以。完成之后可以新建添加如下代码,...

实验3- 熟悉常用的 HBase 操作

石家庄铁道大学信息科学与技术学院 实验报告 2018年----2019年第一学期 题目:熟悉常用的 HBase 操作 课程名称:大型数据库应用技术 班级:信1605-2班 姓名: XX学号: XXXXXXXX 指导教师: XXX 一、实验内容与完成情况:(实验具体步骤和实验截图说明) 实验...

spark读写hbase性能对比

一、spark写入hbase    hbase client以put方式封装数据,并支持逐条或批量插入。spark中内置saveAsHadoopDataset和saveAsNewAPIHadoopDataset两种方式写入hbase。为此,将同样的数据插入其中对比性能。依赖如下: <!-- https://mvnrepository.com/art...

《python深度学习》笔记---3.1、神经网络剖析

《python深度学习》笔记---3.1、神经网络剖析 一、总结 一句话总结: |||-being 训练神经网络主要围绕以下四个方面,构建好架构,还是非常简单的 |||-end 层,多个层组合成网络(或模型)。 输入数据和相应的目标。 损失函数,即用于学习的反馈信号。 优化器,决定学习过程如何进行。 1、层:深度学习的基础组件 ? 输入张量转化为输出张量:...