Hadoop集群搭建
来源:互联网 发布:手机数据分析公交 编辑:程序博客网 时间:2024/06/15 22:23
一、Linux安装安装master照常安装,重新配置net连接,先选桥接模式初始化,再选net配置网络1)cd /etc/sysconfig/network-scripts/vim ifcfg-eth0 里面内容是EVICE="eth0"BOOTPROTO="dhcp"HWADDR="00:0C:29:E9:FF:BC"IPV6INIT="yes"NM_CONTROLLED="yes"ONBOOT="yes"TYPE="Ethernet"UUID="d7031a7a-8572-4588-b53d-1659a807d48a"dhcp 是动态主机配置协议,由服务器控制一段IP地址范围,客户机登录服务器时就可以自动获得服务器分配的IP地址和子网掩码把dhcp改为static修改为如下CE="eth0"BOOTPROTO="static"NM_CONTROLLED="yes"ONBOOT="yes"TYPE="Ethernet"IPADDR=192.168.146.10NETMASK=255.255.255.0GATEWAY=192.168.146.2DNS1=202.106.0.2重启网络服务[root@localhost Desktop]# /etc/init.d/network restart二、创建集群一个master主服务器,俩个子服务器slave1,slave2需要配置slave1,slave2 IPslave1配置网络[badou@localhost Desktop]$ cd /etc/sysconfig/network-scripts[root@localhost network-scripts]# vim ifcfg-eth0 DEVICE="eth0"BOOTPROTO="static"NM_CONTROLLED="yes"ONBOOT="yes"TYPE="Ethernet"IPADDR=192.168.146.11NETMASK=255.255.255.0GATEWAY=192.168.146.2DNS1=202.106.0.2[root@localhost network-scripts]# /etc/init.d/network restartslave2配置网络同slave1,只是修改IP地址为192.168.146.12由于复制master,所以slave1和slave2都需要重新装网卡三、共享目录[badou@localhost mnt]$ cd /mnt/hgfs/拷贝[root@localhost 虚拟机共享目录]# cp jdk-6u45-linux-x64.bin /usr/local/src运行[root@localhost src]# ./jdk-6u45-linux-x64.bin 配置环境变量[root@localhost src]# vim ~/.bashrc export JAVA_HOME=/usr/local/src/jdk1.6.0_45export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/libexport PATH=$PATH:$JAVA_HOME/binsource的作用是用来执行一个脚本 source a.sh 和直接执行 ./a.sh的区别: 调用./a.sh来执行shell是在一个子shell里运行的,所以执行后,结构并没有反应到父shell里,但是source不同它就是在本shell中执行的,所以可以看到结果。 比如你在一个脚本里export $KKK=111 ,如果你用./a.sh执行该脚本,执行完毕后,你运行 echo $KKK ,发现没有值,如果你用source来执行 ,然后再echo ,就会发现KKK=111。 如果path配置错误先查看echo $PATH再赋值export PATH=/usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/sbin:/home/badou/bin:/usr/local/src/jdk1.6.0_45/bin:/usr/local/src/jdk1.6.0_45/bin四、安装Hadoop集群tar命令用于对文件打包压缩或解压,格式为:“tar [选项] [文件]”。打包并压缩文件:“tar -czvf 压缩包名.tar.gz 文件名”解压并展开压缩包:“tar -xzvf 压缩包名.tar.gz”参数 作用 -c 创建压缩文件 -x 解开压缩文件 -t 查看压缩包内有那些文件 -z 用Gzip压缩或解压 -j 用bzip2压缩或解压 -v 显示压缩或解压的过程 -f 目标文件名 -p 保留原始的权限与属性 -P 使用绝对路径来压缩 -C 指定解压到的目录 解压缩[root@localhost src]# tar xzvf hadoop-1.2.1-bin.tar.gz 用于存放临时文件[root@localhost hadoop-1.2.1]# mkdir tmp [root@localhost hadoop-1.2.1]# cd conf[root@localhost conf]# vim masters 修改为master[root@localhost conf]# vim slaves修改为slave1,slave2[root@localhost conf]# vim core-site.xml <configuration><!--指定临时目录的地址,路径--> <property> <name>hadoop.tmp.dir</name> <value>/usr/local/src/hadoop-1.2.1/tmp</value> </property> <!----> <property> <name>fs.default.name</name> <value>hdfs://192.168.146.10:9000</value> </property></configuration> [root@localhost conf]# vim mapred-site.xml <configuration> <property> <name>mapred.job.tracker</name> <value>http://192.168.146.10:9001</value> </property></configuration>[root@localhost conf]# vim hdfs-site.xml 数据在dfs中存储的副本数<configuration> <property> <name>dfs.replication</name> <value>3</value> </property></configuration>[root@localhost conf]# vim hadoop-env.sh 配置Java路径export JAVA_HOME=/usr/local/src/jdk1.6.0_45ls -rlt-r:反向排序-t:列出文件按照最后修改时间(最新的在上面)-l:长格式显示总结:列出目录下面的文件或目录,按照修改时间反向排序(长格式显示)配置本地网络映射,配置DNS[root@localhost conf]# vim /etc/hosts192.168.146.10 master192.168.146.11 slave1192.168.146.12 slave2临时生效[root@localhost conf]# hostname master永久生效[root@localhost conf]# vim /etc/sysconfig/networkNETWORKING=yesHOSTNAME=master配置slive1,slive2远程拷贝递归拷贝[root@localhost src]# scp -rp hadoop-1.2.1 192.168.146.11:/usr/local/src/关闭防火墙[root@localhost src]# /etc/init.d/iptables stop检查是否关闭[root@localhost src]# iptables -L执行setenforce 0 表示关闭selinux防火墙。getenforce检查五、建立每台机器间互信[root@master badou]# ssh-keygen 不断回车进入隐藏目录[root@master badou]# cd ~/.ssh公钥文件拷贝[root@master .ssh]# cat id_rsa.pub > authorized_keys几台机器重复操作子机器的公钥复制到主机器的authorized_keys[root@master .ssh]# scp -rp authorized_keys slave2:~/.ssh/公钥三台机器都有验证[root@master .ssh]# ssh slave1六、启动集群[root@master src]# cd hadoop-1.2.1/bin第一次启动需要格式化[root@master bin]# ./hadoop namenode -format启动[root@master bin]# ./start-all.sh 查看进程是否有问题[root@master bin]# jps不懂[root@master bin]# ./hadoop fs -ls /往集群上传文件[root@master bin]# ./hadoop fs -put /etc/passwd /查看文件列表[root@master bin]# ./hadoop fs -ls /查看文件内容[root@master bin]# ./hadoop fs -cat /passwd
阅读全文
0 0
- hadoop集群搭建(hadoop)
- HADOOP: 搭建hadoop集群
- hadoop集群搭建
- Hadoop集群的搭建
- Hadoop集群搭建
- Hadoop集群搭建
- 搭建hadoop集群
- Nutch+Hadoop集群搭建
- Hadoop集群搭建
- Hadoop集群搭建
- Hadoop环境搭建-集群
- 搭建hadoop集群
- 搭建hadoop集群
- Hadoop集群搭建
- Nutch+Hadoop集群搭建
- 如何搭建hadoop集群
- hadoop分布式集群搭建
- Hadoop集群搭建
- Ganglia在CentOS7_x86_64上的yum安装与配置
- 结构体
- 超赞!编译器和解释器的异同,瞬间明白了
- unity shader学习笔记(九)——Unity中的透明效果之透明混合
- 什么时候选择TCP,什么时候选择UDP?
- Hadoop集群搭建
- 深度学习训练时GPU温度过高?几个命令,为你的GPU迅速降温。
- 图书转借系统
- 使用灵云进行交互型机器人开发日志
- Ubuntu搜狗输入法安装问题
- Servlet3.0下组件化开发——静态文件的刷新
- git命令大全
- 编写一个Singleton类(单例模式)
- 设计性思考维模型及步骤(上)