hadoop中的分布式缓存——DistributedCache

来源:互联网 发布:网络的脆弱性 编辑:程序博客网 时间:2024/05/17 03:01

分布式缓存一个最重要的应用就是在进行join操作的时候,如果一个表很大,另一个表很小很小,我们就可以将这个小表进行广播处理,即每个计算节点上都存一份,然后进行map端的连接操作,经过我的实验验证,这种情况下处理效率大大高于一般的reduce端join,广播处理就运用到了分布式缓存的技术。

DistributedCache将拷贝缓存的文件到Slave节点在任何Job在节点上执行之前,文件在每个Job中只会被拷贝一次,缓存的归档文件会被在Slave节点中解压缩。将本地文件复制到HDFS中去,接着J哦不Client会通过addCacheFile() 和addCacheArchive()方法告诉DistributedCache在HDFS中的位置。当文件存放到文地时,JobClient同样获得DistributedCache来创建符号链接,其形式为文件的URI加fragment标识。当用户需要获得缓存中所有有效文件的列表时,JobConf 的方法 getLocalCacheFiles() 和getLocalArchives()都返回一个指向本地文件路径对象数组。

下面贴一下我的部分代码:

在run函数中

DistributedCache.createSymlink(job.getConfiguration());//try {//#的作用是以后用的时候直接input就可以了DistributedCache.addCacheFile(new URI(args[1]+"/#input"), job.getConfiguration());} catch (URISyntaxException e1) {// TODO Auto-generated catch blocke1.printStackTrace();}
在map端打开分布式缓存的文件并读如Hashtable中

         private Hashtable<String, DefinedMyself> word_hash = new Hashtable<String,DefinedMyself>();public void setup(Context context) throws IOException, InterruptedException{String[] selected_region = null;Path p[] = DistributedCache.getLocalCacheFiles(context.getConfiguration());FileReader reader = new FileReader("input");BufferedReader br = new BufferedReader(reader);System.out.println("this is OK");String s1 = null;int i=0;while((s1 = br.readLine())!=null){String[] word = s1.split("\\|");//do something you want}}br.close();reader.close();                                                                                         }

至于面试的时候如果让解释一下分布式缓存,我就晕了,不知道什么好解释的,估计我就把代码一列吧,哈哈。