Hadoop通过路径和和链接访问HDFS
来源:互联网 发布:西安广电网络宽带资费 编辑:程序博客网 时间:2024/05/16 04:17
如果既想在Hadoop服务器本地可以通过绝对路径如"/user/hadoop"方式访问hdfs,也想通过"hdfs://local
host:9000/user/hadoop的方式访问hdfs,此时做需要配置core-site.xml:
<property><name>fs.defaultFS</name><value>hdfs://master.domain.com:9000</value></property>
上面的配置只能让你使用"hadoop fs -ls /user/hadoop"来查看hdfs,链接方式还需要修改hdfs-site.xml:
<property><name>dfs.namenode.rpc-address</name><value>master.domain.com:9000</value></property>此时,如果你的服务器是放在机房,并且"master.domain.com"域名在所有hadoop集群机器上已经
指向namenode的内网IP,那么上面的配置只会让你能在hadoop集群所在的内网机器通过"hdfs://local
host:9000/user/hadoop"访问hdfs,若需要在机房外访问hadoop的hdfs,还需要在hdfs-site.xml中增加下面
内容:
<property><name>dfs.namenode.rpc-bind-host</name><value>0.0.0.0</value></property>其中的host"0.0.0.0"会替换上面的“dfs.namenode.rpc-address”的域名,此时重启hadoop,hadoop就会
监听内外两个网卡的9000端口。
0 0
- Hadoop通过路径和和链接访问HDFS
- hadoop链接和操作hdfs 增删追加
- Hadoop通过C的API访问HDFS
- Hadoop通过C的API访问HDFS
- Hadoop和HDFS
- hadoop之HDFS:通过Java API访问HDFS
- Hadoop HDFS架构和设计
- hadoop思维:HDFS和MapReduce
- Hadoop、HDFS和Map/Reduce
- Hadoop学习:HDFS和MapReduce
- hadoop之hdfs和yarn
- HDFS符号链接和硬链接
- 很好-Hadoop通过C的API访问HDFS
- 通过java访问HDFS
- hadoop之HDFS:CentOS安装和部署HDFS
- Hadoop HDFS和KFS (CloudStore)的比较
- Hadoop HDFS和KFS (CloudStore)的比较
- Hadoop HDFS之SequenceFile和MapFile
- 职业路线
- 统计同一个cookie的访问次数
- <context:component-scan>使用说明
- Android电话系统rild-request analysis
- 硫磺岛战役和冲绳岛战役哪个防守得更精彩
- Hadoop通过路径和和链接访问HDFS
- LeetCode笔记:28. Implement strStr()
- Android之线程池深度剖析
- tomcat架构分析 (Session管理)
- acm大小写转换
- 解决MySQL Windows服务启动1067错误
- Android数据存储五种方式总结
- [lua游戏]每10个物品一组发送物品
- 程序员带新人的几点思考