基于Spark之上的基础环境设置

来源:互联网 发布:ubuntu命令行中文乱码 编辑:程序博客网 时间:2024/05/20 14:20

1.Ulimit配置
操作系统默认只能打开1024个文件,打开的文件超过这个数发现程序会有“too many open files”的错误,1024对于大数据系统来说显然是不够的,如果不设置,基本上整个大数据系统是“不可用的”,根本不能用于生产环境。
配置方法如下:

echo "* soft nofile 128000" >> /etc/security/limits.confecho "* hard nofile 128000" >> /etc/security/limits.confecho "* soft nproc 128000" >> /etc/security/limits.confecho "* hard nproc 128000" >> /etc/security/limits.confcat /etc/security/limits.confsed -i 's/1024/unlimited/' /etc/security/limits.d/90-nproc.confcat /etc/security/limits.d/90-nproc.confulimit -SHn 128000ulimit -SHu 128000

.
2. Swap的问题
在10~20年前一台服务器的内存非常有限,64m~128m,所以通过swap可以将磁盘的一部分空间用于内存。但是现今我们的服务器内存普遍达到了64G以上,内存已经不再那么稀缺,但是内存的读取速度与磁盘的读取相差倍数太大,如果我们某段程序使用的内存映射到了磁盘上,将会对程序的性能照成非常严重的影响,甚至导致整个服务的瘫痪。对于YDB系统来说,要求一定要禁止使用Swap.
禁用方法如下,让操作系统尽量不使用Swap:

echo "vm.swappiness=1" >> /etc/sysctl.confsysctl -psysctl -a|grep swappiness

3.网络配置优化

echo " net.core.somaxconn = 32768 " >> /etc/sysctl.confsysctl -psysctl -a|grep somaxconn

4.SSH无密码登录
安装 Hadoop与Ambari均需要无密码登录
设置方法请参考如下命令

ssh-keygencat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keyschmod 700 ~/.sshchmod 600 ~/.ssh/authorized_keysssh-copy-id root@ydbslave01ssh-copy-id root@ydbslave02…..

5.关闭防火墙

iptables -P INPUT ACCEPTiptables -P FORWARD ACCEPTiptables -P OUTPUT ACCEPTchkconfig iptables off/etc/init.d/iptables stopservice iptables stopiptables -F

6.配置机器名,以及hosts域名解析

hostname ydbmastervi /etc/sysconfig/networkvi /etc/hosts

切记 hosts文件中 不要将localhost给注释掉,并且配置完毕后,执行下 hostname -f 看下 是否能识别出域名
7.setenforce与Umask配置

  • setenforce
setenforce 0sed -i 's/enabled=1/enabled=0/' /etc/yum/pluginconf.d/refresh-packagekit.confcat /etc/yum/pluginconf.d/refresh-packagekit.conf
  • Umask
umask 0022echo umask 0022 >> /etc/profile

8.检查/proc/sys/vm/overcommit_memory的配置值

如果为2,建议修改为0,否则有可能会出现,明明机器可用物理内存很多,但JVM确申请不了内存的情况。

9.语言环境配置

  • 先修改机器的语言环境
#vi /etc/sysconfig/i18n LANG="en_US.UTF-8" SUPPORTED="zh_CN.GB18030:zh_CN:zh:en_US.UTF-8:en_US:en" SYSFONT="latarcyrheb-sun16"
  • 然后配置环境变量为utf8
echo "export LANG=en_US.UTF-8 " >> ~/.bashrcsource ~/.bashrcexport|grep LANG

10.配置时间同步
Hadoop,YDB等均要求机器时钟同步,否则机器时间相差较大,整个集群服务就会不正常,所以一定要配置。建议配置NTP服务。
集群时间必须同步,不然会有严重问题
参考资料如下:
Linux系统时钟同步服务NTPD配置方法

11.JDK安装部署
YDB支持JDK1.7,JDK1.8,为了便于管理和使用,建议使用YDB随机提供的JDK1.8
建议统一安装到/opt/ydbsoftware路径下。
12.环境变量
请大家千万不要在公共的环境变量配置HIVE、SPARK、LUCENE、HADOOP等环境变量,以免相互冲突。
13.请检查盘符,不要含有中文
尤其是Ambari,有些时候,使用U盘或移动硬盘复制软件,如果这个移动硬盘挂载点是中文路径,这时在安装Ambari的时候会出现问题,一定要注意这个问题。
14.检查磁盘空间,使用率不得超过90%

df -h

默认Yarn会为每台机器保留10%的空间,如果剩余空间较少,Yarn就会停掉这些机器上的进程,并出现Container released on a lost node错误。
15.关键日志,定时清理,以免时间久了磁盘满了
如可以编辑crontab -e 每小时,清理一次日志,尤其是hadoop日志,特别占磁盘空间

0 */1 * * * find /var/log/hadoop/hdfs -type f -mmin +1440 |grep -E "\.log\." |xargs rm -rf
1 0
原创粉丝点击