基于centos7.2最小化环境, cdh manager 及 cdh 集群的部署过程常见问题整理

来源:互联网 发布:u盘怎么数据恢复 编辑:程序博客网 时间:2024/04/29 00:45

注:此篇文章主要面向对hadoop有一定了解的开发和运维人员,若是初次接触hadoop集群,具体安装过程请更多参考Ambari的安装部署教程:http://blog.csdn.net/balabalayi/article/details/64920537

CDH Manager的部署与安装与Ambari的安装有极大的相似性,几乎就是“安装包和文件目录不一样”的区别


过程简单阐述,具体请参见官方文档(建议方式):https://www.cloudera.com/documentation/enterprise/latest/topics/cm_ig_install_path_b.html

一. 基础依赖安装:

yum install -y net-tools ntp psmisc perl libxml2 libxslt lrzsz httpd telnet wget bind-utils


二. 环境准备:

包括java,ssh,ntp,hosts


三. 下载部署CDH Manager:

建议使用在线或是离线(将rpm提前下载至本地,修改yum.repo)然后直接yum install 的方式


四. 部署安装CDH

建议离线将CDH parcel提前下载至本地,放入指定parcel-repo目录,则通过CDH Manager可直接进行解压安装和部署



问题整理:

一. 主机问题检查常见问题:

1.Cloudera 建议将 /proc/sys/vm/swappiness 设置为最大值 10。当前设置为 30。使用 sysctl 命令在运行时更改该设置并编辑 /etc/sysctl.conf,以在重启后保存该设置。您可以继续进行安装,但 Cloudera Manager 可能会报告您的主机由于交换而运行状况不良。

解决:
执行

[html] view plain copy
  1. sysctl vm.swappiness=10  
[html] view plain copy
  1. vi /etc/sysctl.conf  

添加:
vm.swappiness=10


2.已启用透明大页面压缩,可能会导致重大性能问题。请运行“echo never > /sys/kernel/mm/transparent_hugepage/defrag”和“echo never > /sys/kernel/mm/transparent_hugepage/enabled”以禁用此设置,然后将同一命令添加到 /etc/rc.local 等初始化脚本中,以便在系统重启时予以设置。

解决:
执行

[html] view plain copy
  1. echo never > /sys/kernel/mm/transparent_hugepage/defrag  
  2. echo never > /sys/kernel/mm/transparent_hugepage/enabled  

[html] view plain copy
  1. vi /etc/rc.local  

添加:
echo never > /sys/kernel/mm/transparent_hugepage/defrag
echo never > /sys/kernel/mm/transparent_hugepage/enabled


二. 权限问题(parcel激活过程中,建立的var目录下的目录权限有误):

如:

[html] view plain copy
  1. ls -l /var/lib/ |grep hadoop  

d---------. 2 root         root         4096 Jul 17 16:19 hadoop-hdfs
d---------. 2 root         root         4096 Jul 17 16:19 hadoop-httpfs
d---------. 2 root         root         4096 Jul 17 16:19 hadoop-kms
d---------. 2 root         root         4096 Jul 17 16:19 hadoop-mapreduce
d---------. 3 root         root         4096 Jul 17 17:54 hadoop-yarn


解决(请根据服务安装的具体情况自行变通):

chown -R flume:flume /var/lib/flume-ng
chown -R hdfs:hdfs /var/lib/hadoop-hdfs
chown -R httpfs:httpfs /var/lib/hadoop-httpfs

chown -R kms:kms /var/lib/hadoop-kms
chown -R mapred:mapred /var/lib/hadoop-mapreduce
chown -R yarn:yarn /var/lib/hadoop-yarn
chown -R hbase:hbase /var/lib/hbase
chown -R hive:hive /var/lib/hive
chown -R impala:impala /var/lib/impala
chown -R llama:llama /var/lib/llama
chown -R oozie:oozie /var/lib/oozie
chown -R sentry:sentry /var/lib/sentry
chown -R solr:solr /var/lib/solr
chown -R spark:spark /var/lib/spark
chown -R sqoop:sqoop /var/lib/sqoop
chown -R sqoop2:sqoop2 /var/lib/sqoop2
chown -R zookeeper:zookeeper /var/lib/zookeeper


chmod -R 755 /var/lib/flume-ng
chmod -R 755 /var/lib/hadoop-hdfs
chmod -R 755 /var/lib/hadoop-httpfs

chmod -R 755 /var/lib/hadoop-kms
chmod -R 755 /var/lib/hadoop-mapreduce
chmod -R 755 /var/lib/hadoop-yarn
chmod -R 755 /var/lib/hbase
chmod -R 755 /var/lib/hive
chmod -R 755 /var/lib/impala
chmod -R 755 /var/lib/llama
chmod -R 755 /var/lib/oozie
chmod -R 755 /var/lib/sentry
chmod -R 755 /var/lib/solr
chmod -R 755 /var/lib/spark
chmod -R 755 /var/lib/sqoop
chmod -R 755 /var/lib/sqoop2
chmod -R 755 /var/lib/zookeeper



三. Parcel部署激活过程卡在“正在获取安装锁”

解决:

在问题节点执行:

[html] view plain copy
  1. rm -rf /tmp/scm_prepare_node.*  
  2. rm -rf /tmp/.scm_prepare_node.lock  
然后重试



四. Parcel部署激活过程报错“ProtocolError: <ProtocolError for 127.0.0.1/RPC2: 401 Unauthorized>”:
解决:
在问题节点执行:

[html] view plain copy
  1. ps -ef | grep supervisord  
  2. kill -9 <processID>  
然后重试


五. HDFS部署启动后,检查报错“Canary 测试无法为 /tmp/.cloudera_health_monitoring_canary_files 创建父目录”:
原因:常发生于集群启动或是集群不健康时,前者的话无影响
解决:
在nameNode节点执行:

[html] view plain copy
  1. sudo -uhdfs hdfs dfsadmin -safemode leave  



关于CDH的集群卸载,与Ambari类似没有太好的办法,CDH也仅仅提供了安装资源的卸载方式:
https://www.cloudera.com/documentation/enterprise/latest/topics/cdh_ig_cdh_comp_uninstall.html

作者在此将目录及用户的删除也做简单补充(请注意,在删除之前请保证cdh manager 的 server和agent端相关进程都已停止):

[html] view plain copy
  1. rm -rf /var/run/hadoop-*/ /var/run/hdfs-*/  
  2. rm -rf /var/lib/hadoop-* /var/lib/impala /var/lib/llama /var/lib/solr /var/lib/zookeeper /var/lib/hbase /var/lib/hue /var/lib/oozie  /var/lib/pgsql  /var/lib/sqoop* /var/lib/sentry /var/lib/spark*  
  3. rm -rf /var/log/hadoop*   
  4. rm -rf /usr/bin/hadoop* /usr/bin/zookeeper* /usr/bin/hbase* /usr/bin/hive* /usr/bin/hdfs /usr/bin/mapred /usr/bin/yarn /usr/bin/spark* /usr/bin/sqoop* /usr/bin/oozie  
  5. rm -rf /etc/hadoop* /etc/zookeeper* /etc/hive* /etc/hue /etc/impala /etc/sqoop* /etc/oozie /etc/hbase* /etc/hcatalog  
  6. rm -rf /dfs /hbase /yarn   
  7. userdel -rf oozie      
  8. userdel -rf hive        
  9. userdel -rf flume        
  10. userdel -rf hdfs        
  11. userdel -rf knox        
  12. userdel -rf storm        
  13. userdel -rf mapred      
  14. userdel -rf hbase    
  15. userdel -rf solr  
  16. userdel -rf impala  
  17. userdel -rf hue      
  18. userdel -rf tez        
  19. userdel -rf zookeeper      
  20. userdel -rf kafka        
  21. userdel -rf falcon      
  22. userdel -rf sqoop        
  23. userdel -rf yarn        
  24. userdel -rf hcat      
  25. userdel -rf atlas      
  26. userdel -rf spark  
  27. userdel -rf spark2  
  28. userdel -rf ams  
  29. userdel -rf llama  
  30. userdel -rf httpfs  
  31. userdel -rf sentry  
  32. userdel -rf sqoop  
  33. userdel -rf sqoop2  
  34. userdel -rf cloudera-scm  
  35. groupdel cloudera-scm  
原创粉丝点击