卸载Ambari集群

摘要:
清理ambari安装的hadoop集群。本文针对红帽或centos的测试集群。如果要重新启动ambari安装的hadoop集群,需要清理集群。删除用户ambari安装hadoop集群将创建一些用户。清除群集时,必须清除这些用户并删除相应的文件夹。
清理ambari安装的hadoop集群

本文针对redhat或者centos

对于测试集群,如果通过ambari安装hadoop集群后,想重新再来一次的话,需要清理集群。

对于安装了很多hadoop组件的话,这个工作很繁琐。接下来是我整理的清理过程。

1,通过ambari将集群中的所用组件都关闭,如果关闭不了,直接kill -9 XXX

2,关闭ambari-serverambari-agent

  1. ambari-server stop  
  2. ambari-agent stop  

3,卸载安装的软件

  1. yum remove hadoop_2* hdp-select* ranger_2* zookeeper* bigtop* atlas-metadata* ambari* postgresql spark*  

以上命令可能不全,执行完一下命令后,再执行

  1. yum list | grep @HDP  

查看是否还有没有卸载的,如果有,继续通过#yum remove XXX卸载

4,删除postgresql的数据

      postgresql软件卸载后,其数据还保留在硬盘中,需要把这部分数据删除掉,如果不删除掉,重新安装ambari-server后,有可能还应用以前的安装数据,而这些数据时错误数据,所以需要删除掉。

  1. rm -rf /var/lib/pgsql  

5,删除用户

     ambari安装hadoop集群会创建一些用户,清除集群时有必要清除这些用户,并删除对应的文件夹。这样做可以避免集群运行时出现的文件访问权限错误的问题。     

  1. userdel oozie  
  2. userdel hive  
  3. userdel ambari-qa  
  4. userdel flume    
  5. userdel hdfs    
  6. userdel knox    
  7. userdel storm    
  8. userdel mapred  
  9. userdel hbase    
  10. userdel tez    
  11. userdel zookeeper  
  12. userdel kafka    
  13. userdel falcon  
  14. userdel sqoop    
  15. userdel yarn    
  16. userdel hcat  
  17. userdel atlas  
  18. userdel spark  
  19. rm -rf /home/atlas  
  20. rm -rf /home/accumulo  
  21. rm -rf /home/hbase  
  22. rm -rf /home/hive  
  23. rm -rf /home/oozie  
  24. rm -rf /home/storm  
  25. rm -rf /home/yarn  
  26. rm -rf /home/ambari-qa  
  27. rm -rf /home/falcon  
  28. rm -rf /home/hcat  
  29. rm -rf /home/kafka  
  30. rm -rf /home/mahout  
  31. rm -rf /home/spark  
  32. rm -rf /home/tez  
  33. rm -rf /home/zookeeper  
  34. rm -rf /home/flume  
  35. rm -rf /home/hdfs  
  36. rm -rf /home/knox  
  37. rm -rf /home/mapred  
  38. rm -rf /home/sqoop  

6,删除ambari遗留数据

  1. rm -rf /var/lib/ambari*   
  2. rm -rf /usr/lib/python2.6/site-packages/ambari_*  
  3. rm -rf /usr/lib/python2.6/site-packages/resource_management  
  4. rm -rf /usr/lib/ambari-*  
  5. rm -rf /etc/ambari-*   

7,删除其他hadoop组件遗留数据

  1. m -rf /etc/hadoop  
  2. rm -rf /etc/hbase  
  3. rm -rf /etc/hive   
  4. rm -rf /etc/oozie  
  5. rm -rf /etc/sqoop   
  6. rm -rf /etc/zookeeper  
  7. rm -rf /etc/flume   
  8. rm -rf /etc/storm   
  9. rm -rf /etc/hive-hcatalog  
  10. rm -rf /etc/tez   
  11. rm -rf /etc/falcon   
  12. rm -rf /etc/knox   
  13. rm -rf /etc/hive-webhcat  
  14. rm -rf /etc/kafka   
  15. rm -rf /etc/slider   
  16. rm -rf /etc/storm-slider-client  
  17. rm -rf /etc/spark   
  18. rm -rf /var/run/spark  
  19. rm -rf /var/run/hadoop  
  20. rm -rf /var/run/hbase  
  21. rm -rf /var/run/zookeeper  
  22. rm -rf /var/run/flume  
  23. rm -rf /var/run/storm  
  24. rm -rf /var/run/webhcat  
  25. rm -rf /var/run/hadoop-yarn  
  26. rm -rf /var/run/hadoop-mapreduce  
  27. rm -rf /var/run/kafka  
  28. rm -rf /var/log/hadoop  
  29. rm -rf /var/log/hbase  
  30. rm -rf /var/log/flume  
  31. rm -rf /var/log/storm  
  32. rm -rf /var/log/hadoop-yarn  
  33. rm -rf /var/log/hadoop-mapreduce  
  34. rm -rf /var/log/knox   
  35. rm -rf /usr/lib/flume  
  36. rm -rf /usr/lib/storm  
  37. rm -rf /var/lib/hive   
  38. rm -rf /var/lib/oozie  
  39. rm -rf /var/lib/flume  
  40. rm -rf /var/lib/hadoop-hdfs  
  41. rm -rf /var/lib/knox   
  42. rm -rf /var/log/hive   
  43. rm -rf /var/log/oozie  
  44. rm -rf /var/log/zookeeper  
  45. rm -rf /var/log/falcon  
  46. rm -rf /var/log/webhcat  
  47. rm -rf /var/log/spark  
  48. rm -rf /var/tmp/oozie  
  49. rm -rf /tmp/ambari-qa  
  50. rm -rf /var/hadoop  
  51. rm -rf /hadoop/falcon  
  52. rm -rf /tmp/hadoop   
  53. rm -rf /tmp/hadoop-hdfs  
  54. rm -rf /usr/hdp  
  55. rm -rf /usr/hadoop  
  56. rm -rf /opt/hadoop  
  57. rm -rf /tmp/hadoop  
  58. rm -rf /var/hadoop  
  59. rm -rf /hadoop  
  60. userdel nagios
  61. userdel hive
  62. userdel ambari-qa
  63. userdel hbase
  64. userdel oozie
  65. userdel hcat
  66. userdel mapred
  67. userdel hdfs
  68. userdel rrdcached
  69. userdel zookeeper
  70. userdel sqoop
  71. userdel puppet
  72. 可以查看:http://www.cnblogs.com/cenyuhai/p/3287855.html 
  73. userdel nagios
  74. userdel hive
  75. userdel ambari-qa
  76. userdel hbase
  77. userdel oozie
  78. userdel hcat
  79. userdel mapred
  80. userdel hdfs
  81. userdel rrdcached
  82. userdel zookeeper
  83. userdel sqoop
  84. userdel puppet
  85. userdel nagios
  86. userdel hive
  87. userdel ambari-qa
  88. userdel hbase
  89. userdel oozie
  90. userdel hcat
  91. userdel mapred
  92. userdel hdfs
  93. userdel rrdcached
  94. userdel zookeeper
  95. userdel sqoop
  96. userdel puppet
  97. userdel -r accumulo
  98. userdel -r ambari-qa
  99. userdel -r ams
  100. userdel -r falcon
  101. userdel -r flume
  102. userdel -r hbase
  103. userdel -r hcat
  104. userdel -r hdfs
  105. userdel -r hive
  106. userdel -r kafka
  107. userdel -r knox
  108. userdel -r mapred
  109. userdel -r oozie
  110. userdel -r ranger
  111. userdel -r spark
  112. userdel -r sqoop
  113. userdel -r storm
  114. userdel -r tez
  115. userdel -r yarn
  116. userdel -r zeppelin
  117. userdel -r zookeeper
  118. userdel -r kms
  119. userdel -r sqoop2
  120. userdel -r hue
  121. rm -rf /var/lib/hbase
  122. rm -rf /var/lib/hive
  123. rm -rf /var/lib/oozie
  124. rm -rf /var/lib/sqoop
  125. rm -rf /var/lib/zookeeper
  126. rm -rf /var/lib/hadoop-hdfs
  127. rm -rf /var/lib/hadoop-mapreduce

8,清理yum数据源

  1. #yum clean all  

通过以上清理后,重新安装ambarihadoop集群(包括HDFSYARN+MapReduce2ZookeeperAmbari MetricsSpark)成功。如果安装其他组件碰到由于未清理彻底而导致的问题,请留言指出需要清理的数据,本人会补全该文档。

然后后续的重新搭建的方式,可以参考ambari2.6.0搭建文档。

免责声明:文章转载自《卸载Ambari集群》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇EXTJS4自学手册——EXT基本方法、属性(onReady、define、create)深入理解HashMap第一篇下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

log4net 配置

1.在项目中引入log4net.dll组件; 2.在App.congfig中做如下修改(可省略) 在加入如下内容: 这个节点最好放在<configuration>下的第一个位置,不然在服务里会报错。 <configSections> <section name="log4net" type="log4net.Config.Lo...

ESlint中console.log报错问题

ESlint中console.log报错问题 由于ESlint规范化,导致console.log的使用也会报错,下面是设置允许console.log控制台输出 描述:打开 package.json 文件,找到 rules 属性,加入以下代码 // rules这个属性默认是有的,如果没有那就自己添加至 eslintConfig 属性下 "rules": {...

Ubuntu的cron日志在哪里?

Ubuntu 12.04使用rsyslog作为日志服务,默认cron日志记录是关闭的,需要开启后才能用。 打开/etc/rsyslog.d/50-default.conf,找到下面的行: # # First some standard log files. Log by facility. # auth,authpriv.* /va...

mysql_ my.cnf优化,安全配置和日志

目录: 1 配置说明 2 my.cnf修改 3 命令说明 ---------------------------------------------------------------------1 配置my.cnf #find 查找my.cnf /etc/my.cnfdata目录 1 查看my.cnf搜索datadir 2 phpinfo搜索MYSQL_...

mysql relay log参数汇总

前言:MySQL进行主主复制或主从复制的时候会在home目录下面产生相应的relay log,本文档总结这些相关参数的定义及解释 1、什么是relay log The relay log, like the binary log, consists of a set of numbered files containing events that desc...

Hive 学习笔记(启动方式,内置服务)

一、Hive介绍   Hive是基于Hadoop的一个数据仓库,Hive能够将SQL语句转化为MapReduce任务进行运行。   Hive架构图分为以下四部分。       1、用户接口     Hive有三个用户接口: 命令行接口(CLI):以命令行的形式输入SQL语句进行数据数据操作 Web界面:通过Web方式进行访问。      Hive的远程服...