Hadoop 在 windows 7 64位的配置(二)|非cygwin
来源:互联网 发布:cms系统怎么用 编辑:程序博客网 时间:2024/05/01 05:34
第一次使用需要 hdfs namenode -format
一键启动和关闭hadoop
新建文本文档 然后改名
start-hadoop.cmd
里面的内容
@echo offcd /d %HADOOP_HOME%cd sbinstart start-dfs.cmdstart start-yarn.cmd
双击 直接能启动 hadoop的 DFS和YARN
这是 第二个 脚本
stop-hadoop.cmd
cd /d %hadoop_home%\sbinstart stop-dfs.cmdstart stop-yarn.cmd
双击这个能 关闭 hadoop
今天发现 Hadoop 2.4.1 的reducer 的 keyout valueout不支持 NullWritable。
问题:
log4j:WARN No appenders could be found for logger (org.apache.hadoop.util.Shell).log4j:WARN Please initialize the log4j system properly.log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
解决方法
log4j.rootLogger=INFO, stdoutlog4j.appender.stdout=org.apache.log4j.ConsoleAppenderlog4j.appender.stdout.layout=org.apache.log4j.PatternLayoutlog4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%nlog4j.appender.logfile=org.apache.log4j.FileAppenderlog4j.appender.logfile.File=target/spring.loglog4j.appender.logfile.layout=org.apache.log4j.PatternLayoutlog4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
这样在 eclipse下面 就有输出文件了
参考资料:http://blog.csdn.net/hipercomer/article/details/27063577
问题:java.io.IOException: Mkdirs failed to create D:/hadoop-2.4.1/hadooptmp
解决方法:
<property><name>hadoop.tmp.dir</name><value>d:/hadoop-2.4.1/tmp/hadoop-${user.name}</value></property>
改成这个就可以了。看来hadoop.tmp.dir不能用file:///d:/hadoop-2.4.1这种写法。
新的问题:在Eclispe 上可以运行程序,但是cmd上不能运行,报错:
14/11/27 19:37:42 INFO ipc.Server: Socket Reader #1 for port 9000: readAndProces
s from client 127.0.0.1 threw exception [java.io.IOException: 远程主机强迫关闭了
一个现有的连接。]
java.io.IOException: 远程主机强迫关闭了一个现有的连接。
14/11/27 19:37:33 ERROR datanode.DataNode: xxxxx :50010:DataXceiver error proce
ssing READ_BLOCK operation src: /127.0.0.1:3349 dst: /127.0.0.1:50010
java.io.IOException: 远程主机强迫关闭了一个现有的连接。
14/11/27 19:20:19 INFO mapreduce.Job: Task Id : attempt_1417085699849_0001_r_000
000_1, Status : FAILED
Error: org.apache.hadoop.mapreduce.task.reduce.Shuffle$ShuffleError: error in sh
uffle in fetcher#1
有待解决。。。。
2014/11/27 21:58 已经解决
hdfs-site.xml
<configuration><property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:///d:/hadoop-2.4.1/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:///d:/hadoop-2.4.1/dfs/data</value> </property> <property> <name>dfs.datanode.socket.write.timeout</name> <value>6000000</value> </property> <property> <name>dfs.socket.timeout</name> <value>6000000</value> </property><property> <name>dfs.datanode.max.transfer.threads</name> <value>8192</value> </property></configuration>
mapred-site.xml
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapred.job.tracker</name> <value>localhost:9001</value> </property> <property> <name>mapreduce.job.user.name</name> <value>%USERNAME%</value> </property> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>yarn.apps.stagingDir</name> <value>/user/%USERNAME%/staging</value> </property> <property> <name>mapreduce.jobtracker.address</name> <value>local</value> </property>
yarn-site.xml
<configuration><property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.server.resourcemanager.address</name> <value>0.0.0.0:8020</value> </property> <property> <name>yarn.server.resourcemanager.application.expiry.interval</name> <value>60000</value> </property> <property> <name>yarn.server.nodemanager.address</name> <value>0.0.0.0:45454</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.server.nodemanager.remote-app-log-dir</name> <value>D:/hadoop-2.4.1/logs/userlogs/applogs</value> </property> <property> <name>yarn.nodemanager.log-dirs</name> <value>D:/hadoop-2.4.1/logs/userlogs/yarnlogs</value> </property> <property> <name>yarn.server.mapreduce-appmanager.attempt-listener.bindAddress</name> <value>0.0.0.0</value> </property> <property> <name>yarn.server.mapreduce-appmanager.client-service.bindAddress</name> <value>0.0.0.0</value> </property> <property> <name>yarn.log-aggregation-enable</name> <value>true</value> </property> <property> <name>yarn.log-aggregation.retain-seconds</name> <value>-1</value> </property> <property> <name>yarn.application.classpath</name> <value> %HADOOP_CONF_DIR%, %HADOOP_HOME%\etc\hadoop, %HADOOP_HOME%\share\hadoop\common\*, %HADOOP_HOME%\share\hadoop\common\lib\*, %HADOOP_HOME%\share\hadoop\hdfs\*, %HADOOP_HOME%\share\hadoop\hdfs\lib\*, %HADOOP_HOME%\share\hadoop\mapreduce\*, %HADOOP_HOME%\share\hadoop\mapreduce\lib\*, %HADOOP_HOME%\share\hadoop\yarn\*, %HADOOP_HOME%\share\hadoop\yarn\lib\* </value> </property>
- Hadoop 在 windows 7 64位的配置(二)|非cygwin
- Hadoop 在 windows 7 64位的配置(一)|非cygwin
- win7(64位)平台下Cygwin+Eclipse搭建Hadoop单机开发环境 (三) 在Eclipse中配置Hadoop
- win7(64位)平台下Cygwin+Eclipse搭建Hadoop单机开发环境 (二) Hadoop的安装
- win7(64位)平台下Cygwin+Eclipse搭建Hadoop单机开发环境 (一) Cygwin(64位)的安装 + ssh的配置
- Hadoop在Cygwin下的JDK配置
- Windows下Cygwin环境的Hadoop安装(1)- Cygwin安装和配置
- Windows下Cygwin环境的Hadoop安装(1)- Cygwin安装和配置
- Windows下Cygwin环境的Hadoop安装(2)- Hadoop安装和配置
- Windows下Cygwin环境的Hadoop安装(2)- Hadoop安装和配置
- Windows下Cygwin环境的Hadoop安装(4)- 在Eclipse中建立hadoop开发环境
- Windows下Cygwin环境的Hadoop安装(4)- 在Eclipse中建立hadoop开发环境
- Hadoop---在window下的安装配置----基于cygwin的
- Hadoop---在window下的安装配置----基于cygwin的
- Hadoop---在window下的安装配置----基于cygwin的
- Hadoop---在window下配置安装之cygwin的安装
- Hadoop---在window下基于cygwin的安装配置
- windows和cygwin下hadoop安装配置
- 类模板与模板类
- 堆 和 栈的 区别
- 141 被2或者3或者5所整除,求第 1500 个值是多少?
- total control使用方法
- 扫描工具
- Hadoop 在 windows 7 64位的配置(二)|非cygwin
- 2014-11-8Android学习------onLayout()方法和Layout()方法--------动画Animation学习篇
- define与typedef区别与联系
- JAVA中的四个内部类-成员内部类,静态内部类,方法内部类,匿名内部类
- Uva 11584 - Partitioning by Palindromes dp
- makefile 文件样例
- 三星S24A350型显示器黑屏解决方法
- 联想五道笔试题 答案
- PDA(Windows Mobile)调用远程WebService