Python+Spark2.0+hadoop学习笔记——pyspark基础

摘要:
在历经千辛万苦后,终于把所有的东西都配置好了。下面开始介绍pyspark的一些基础内容,以字数统计为例。

在历经千辛万苦后,终于把所有的东西都配置好了。

下面开始介绍pyspark的一些基础内容,以字数统计为例。

1)在本地运行pyspark程序

读取本地文件

textFile=sc.textFile("file:/usr/local/spark/README.md")

textFile.count()

读取HDFS文件

textFile=sc.textFile('hdfs://master:9000/user/*********/wordcount/input/LICENSE.txt")

textFile.count()

2)在HadoopYARN运行pyspark

HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop pyspark --master yarn --deploy-more client

textFile=sc.textFile('hdfs://master:9000/user/*********/wordcount/input/LICENSE.txt")

textFile.count()

3)构建SparkStandaloneCluster运行环境

cp /usr/local/spark/conf/spark-env.sh.template /usr/local/spark/conf/spark-env.sh

sudo gedit /usr/local/spark/conf/spark

然后进行下面的设置

exportSPARK_MASTER_IP=master

export SPARK_WORKER_CORES=1

export SPARK_WORKER_MEMORY=512m

export SPARK_WORKER_INSTANCES=4

然后连接每个计算机,之后启动SparkStandaloneCluster

/usr/local/spark/sbin/start-all.sh

pyspark --master spark://master:7077 --num-executors 1 --total-executor-cores 3 --executor 512m

读取本地文件

textFile=sc.textFile("file:/usr/local/spark/README.md")

textFile.count()

读取HDFS文件

textFile=sc.textFile('hdfs://master:9000/user/*********/wordcount/input/LICENSE.txt")

textFile.count()

免责声明:文章转载自《Python+Spark2.0+hadoop学习笔记——pyspark基础》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇Looper.prepare()[转载]Yahoo!的分布式数据平台PNUTS简介及感悟下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

Hadoop系列之(二):Hadoop集群部署

1. Hadoop集群介绍Hadoop集群部署,就是以Cluster mode方式进行部署。 Hadoop的节点构成如下: HDFS daemon: NameNode, SecondaryNameNode, DataNode YARN damones: ResourceManager, NodeManager, WebAppProxy MapReduce...

Hive入门学习随笔(一)

===什么是Hive? Hive是基于Hadoop HDFS之上的数据仓库。 我们可以把数据存储在这个基于数据的仓库之中,进行分析和处理,完成我们的业务逻辑。 本质上就是一个数据库 ===什么是数据仓库? 实际上就是一个数据库。我们可以利用数据仓库来保存我们的数据。 与一般意义上的数据库不同。数据库是一个面向主题的、集成的、不可更新的、随时间不变化的数据集...

HDP 3.1.0 集成 Sqoop2

HDP 3.1.0 集成 Sqoop2 本文原始地址:https://sitoi.cn/posts/65261.html 环境 由三台主机组成的 HDP 3.1.0 集群 配置好时间同步 步骤 下载 Sqoop2 的安装包 解压安装包到 /usr/lib 目录下 修改 sqoop.sh 环境变量 修改 sqoop.properties 配置 导入第三...

Spark操作dataFrame进行写入mysql,自定义sql的方式

业务场景:   现在项目中需要通过对spark对原始数据进行计算,然后将计算结果写入到mysql中,但是在写入的时候有个限制:   1、mysql中的目标表事先已经存在,并且当中存在主键,自增长的键id   2、在进行将dataFrame写入表的时候,id字段不允许手动写入,因为其实自增长的 要求:   1、写入数据库的时候,需要指定字段写入,也就是说,只...

hadoop-ha+zookeeper+hbase+hive+sqoop+flume+kafka+spark集群安装

创建3台虚拟机 主机为桌面版 其他为迷你版本 ******************************常用命令、进程名称****************************启动集群命令: start-all.sh启动zookeeper: zkServer.sh start 启动journalnode: hadoop-daemon.sh start...

Hive 基础

Facebook为了解决海量日志数据的分析而开发了hive,后来开源给了Apache基金会组织。 hive是一种用SQL语句来协助读写、管理存储在HDFS上的大数据集的数据仓库软件。 Hive 特点 1 是基于 Hadoop 的一个数据仓库工具;2 Hive 最大的特点是将 Hive SQL语句转换为 MapReduce、Tez 或者 spark 等任务执...