HDFS常用命令总结

摘要:
要执行以下命令,请在hadoop安装目录下的bin目录中执行它们。例如,如果我的安装路径是/opt/module/hadoop-2.7.2,请在/opt/moduler/hadoop-2.72/bin目录中执行它们。1.-help:显示帮助信息hadoopfs-helprm2.-ls:显示目录信息hadoopfs-ls/3.-mkdir:在HDFS上创建目录hadoopfs mkdir-p/user/ysir

执行以下命令需要在hadoop安装目录下的bin目录中执行,比如我的安装路径是/opt/module/hadoop-2.7.2,那么就在/opt/module/hadoop-2.7.2/bin目录下执行。

1. -help:显示帮助信息

hadoop fs -help rm

2. -ls:显示目录信息

hadoop fs -ls /

3. -mkdir:在HDFS上创建目录

hadoop fs -mkdir -p /user/ysir

4. -moveFromLocal:从本地剪切粘贴到HDFS

hadoop fs -moveFromLocal ~/test.txt /home/ysir/

5. -appendToFile:追加一个文件到已经存在的文件末尾

hadoop fs -appendToFile /a.txt /b.txt

6. -cat:显示文件内容

hadoop fs -cat /user/ysir/a.txt

7. -chmod、-chown:修改文件权限、所有者

hadoop fs -chmod 777 /a.txt
hadoop fs -chown admin:ysir /a.txt

8. -copyFromLocal:从本地文件系统中拷贝文件到HDFS中

hadoop fs -copyFromLocal a.txt /

9. copyToLocal:从HDFS拷贝到本地

hadoop fs -copyToLocal /a.txt ~/

10. -cp:在HDFS中拷贝文件

hadoop fs -cp /aaa/a.txt /bbb/

11. -mv:在HDFS目录中移动文件

hadoop fs -mv /aaa/a.txt /bbb/ 

12. -get:从HDFS中拷贝到本地,等同于copyToLocal

hadoop fs -get /aaa/a.txt

13. -getmerge:合并下载多个文件

hadoop fs -getmerge /logs/* ~/logs.log # 将HDFS上/logs/路径下的所有文件合并下载到本地~/logs.log文件中

14. -put:将本地文件上传到HDFS,等同于copyFromLocal

hadoop fs -put ~/a.txt /

15. -tail:显示文件末尾的内容  

hadoop fs -tail /a.txt

16. -rm:删除文件夹或者文件

hadoop fs -rm /user/ysir/a.txt

17. -rmdir:删除空目录

hadoop fs -mkdir /temp

18. -du:统计文件夹的大小信息

hadoop fs -du -s -h /temp

19. -setrep:设置HDFS文件中的副本数量

hadoop fs -setrep 5 /a.txt

免责声明:文章转载自《HDFS常用命令总结》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇在 Vue 项目中(vue-cli2,vue-cli3)使用 pug 简化 HTML 的编写Net Core SqlSuger Sql sever 迁移 Mysql下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

Hadoop中JournalNode的作用

NameNode之间共享数据(NFS 、Quorum Journal Node(用得多)) 两个NameNode为了数据同步,会通过一组称作JournalNodes的独立进程进行相互通信。当active状态的NameNode的命名空间有任何修改时,会告知大部分的JournalNodes进程。standby状态的NameNode有能力读取JNs中的变更信息,...

yum install hadoop related client

yum list avaliable hadoop* yum list installed yum repolist repo is in /etc/yum.repos.d yum install hadoop-client yum install hive-jdbc  #beeline yum install hive  # or hive.noarch...

hadoop集群的搭建与配置(1)

前言             首先hadoop是在linux系统上进行搭建的,我们首先要在自己电脑上装上虚拟机然后装linux系统,因为我们是测试:在本地虚拟机上装两个linux分别搭建好hadoop环境能实现简单的数据处理就可以了,最终的效果类似于我们c#中的hello world!能做到这里我们的搭建测试环境就算基本上完成了。虚拟机以及linux系统...

将txt、csv等文本文件导入Hive

将txt、csv等文本文件导入Hive 目录 将txt、csv等文本文件导入Hive 00.数据在虚拟机外 01.启动hadoop、hdfs 02.将文件放置在hdfs目录下 03.登录hive并进入指定数据库 04.根据文件创建表 05.执行导入语句 00.数据在虚拟机外 如果数据在虚拟机内,请跳过此步,直接执行接下来的操作。 推荐使用Sec...

hdfs文件存放路径

hdfs文件的存放位置位于节点的datanode下: /home/data/cloudera/dfs/dn/current/BP-1257321995-10.160.15.162-1557753630034/current/finalized/subdir0/subdir0/ 格式为:...

Hadoop组件之-HDFS(HA实现细节)

NameNode 高可用整体架构概述 在 Hadoop 1.0 时代,Hadoop 的两大核心组件 HDFS NameNode 和 JobTracker 都存在着单点问题,这其中以 NameNode 的单点问题尤为严重。 因为 NameNode 保存了整个 HDFS 的元数据信息,一旦 NameNode 挂掉,整个 HDFS 就无法访问,同时 Hadoop...