通过Loadrunner连接操作Hadoop HDFS
来源:互联网 发布:谷歌学术 知乎 编辑:程序博客网 时间:2024/04/29 23:39
本文以Loadrunner的Java_Vuser脚本为例,来做一次HDFS的文件操作测试,由于LoadRunner 11只支持JDK1.6,所以Hadoop选择的Jar包也只能用Hadoop2.6.0,但是这不影响连接高版本的hadoop-HDFS(本次测试就实现了连接操作hadoop2.7下HDFS)。
1、在loadrunner中新建脚本(本文以LoadRunner11为例),要求选择协议类型为Java->Java Vuser2、在Run-time Settings设置JDK路径,由于LoadRunner11不支持jdk1.8,本次测试是拷贝了一份低版本的JDK1.6,所以路径选择固定路径模式,如下所示:
3、可以上网下载一份Hadoop2.6.0的JAR包(官网和网上都能搜到),我专门准备了一份供大家下载(做了精简,去掉了一些与本次测试无关的Jar包):http://download.csdn.net/detail/smooth00/9881769,将JAR包放到Loadrunner的include目录下或其它指定目录下,并在Run-time Settings中配置Classpath:
4、在Loadrunner中以java Vuser协议创建脚本,脚本样例如下:
/* * LoadRunner Java script. (Build: _build_number_) * * Script Description: * */import java.io.FileInputStream; import java.io.FileNotFoundException; import java.io.FileOutputStream; import java.io.InputStream; import java.io.IOException; import java.io.OutputStream; import java.net.URI; import java.net.URISyntaxException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.BlockLocation; import org.apache.hadoop.fs.FileStatus; import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.FSDataOutputStream; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IOUtils; import org.apache.log4j.Logger;import org.apache.log4j.PropertyConfigurator;import org.apache.log4j.xml.DOMConfigurator;import java.io.File;import lrapi.lr;public class Actions{ FileSystem fs = null; private Configuration configuration =null; private String keyFS ="fs.defaultFS"; private String keyUser ="hadoop.user"; //上传文件 测试成功 // @uploadFile 要上传的本地文件 // @intputFile 输入到HDFS的文件 public void testUpload(String uploadFile,String intputFile) throws Exception{ InputStream in = new FileInputStream(uploadFile); OutputStream out = fs.create(new Path(intputFile)); IOUtils.copyBytes(in, out, 1024, true);//in输入源, out输出源头, 1024缓冲区大小 ,true 是否关闭数据流。如果是false,就在finally里关掉 } //创建文件夹 测试成功 public void testMkdir(String dirs) throws IllegalArgumentException, IOException{ boolean flag = fs.mkdirs(new Path(dirs)); System.out.println(flag);//如果创建目录成功会返回true } //下载文件 测试成功 // @outputFile 要下载的HDFS文件 // @downloadFile 要下载到本地的文件 public void testDownload(String outputFile,String downloadFile) throws IllegalArgumentException, IOException{ InputStream in = fs.open(new Path(outputFile));//intput.txt OutputStream out = new FileOutputStream(downloadFile);//下载到本地路径 以及重命名后的名字 IOUtils.copyBytes(in, out, 4096, true); } //删除文件 测试成功 public void testDelFile(String delFile) throws IllegalArgumentException, IOException{ boolean flag = fs.delete(new Path(delFile),true);//如果是删除路径 把参数换成路径即可"/a/test4" inpufile //第二个参数true表示递归删除,如果该文件夹下还有文件夹或者内容 ,会变递归删除,若为false则路径下有文件则会删除不成功 System.out.println("删除文件 or 路径"); System.out.println("delete?"+flag);//删除成功打印true } //重命名文件 测试成功 // @oldFile 要下载的HDFS文件 // @newFile 要下载到本地的文件 public void testRename(String oldFile,String newFile) throws IllegalArgumentException, IOException{ boolean flag = fs.rename(new Path(oldFile),new Path(newFile));//第一个参数改名为第二个参数 String result=flag?"成功":"失败"; System.out.println("result of rename?"+result);//删除成功打印true } //查看文件是否存在 测试成功 public void CheckFile(String existFile) throws IllegalArgumentException, IOException{ boolean flag = fs.exists(new Path(existFile)); System.out.println("Exist?"+flag);//如果创建目录成功会返回true } //寻找文件在文件集中位置 测试成功 public void FileLoc(String searchFile) throws IllegalArgumentException, IOException{ FileStatus filestatus = fs.getFileStatus(new Path(searchFile)); //System.out.println("filestatus?"+filestatus);//如果创建目录成功会返回true BlockLocation[] blkLocations=fs.getFileBlockLocations(filestatus, 0, filestatus.getLen());//文件开始与结束 int blockLen=blkLocations.length;//块的个数 System.out.println("块数:"+blockLen); System.out.println("---------分割线--------"); for(int i=0;i<blockLen;i++){ String[] hosts=blkLocations[i].getHosts(); System.out.println("block_"+i+"location:"+hosts[0]); } System.out.println("---------分割线---------"); } //直接在hdfs上创建文件并在其中输入文字 测试成功 // @content 要写入文件的文字内容 // @outputFile 写入的HDFS文件 public void testCreateTextFile(String content,String outputFile) throws IllegalArgumentException, IOException{ byte[] buff=content.getBytes();//想要输入内容 Path path=new Path(outputFile);//文件存放路径及文件名称 /a/test4/javawrite.txt FSDataOutputStream outputStream=fs.create(path); outputStream.write(buff, 0, buff.length); System.out.println("输出文件成功"); }public int init() throws Throwable { //System.setProperty("hadoop.home.dir", "D:\\Program Files\\HP\\LoadRunner\\include\\hadoop\\hadoop-common-2.2.0-bin-master"); //加载日志输出方式 File directory = new File("."); DOMConfigurator.configure(directory.getCanonicalPath()+"\\log4j.xml");//加载log4j.xml文件 //PropertyConfigurator.configure("E:/study/log4j/log4j.properties");//加载.properties文件 Logger log=Logger.getLogger("org.zblog.test"); System.setProperty("hadoop.home.dir", directory.getCanonicalPath()+"\\hadoop-common-2.2.0-bin-master"); //初始化 configuration=new Configuration(); //configuration.set(keyFS,"hdfs://172.17.2.12:8020"); configuration.set("fs.hdfs.impl", "org.apache.hadoop.hdfs.DistributedFileSystem"); configuration.set("fs.file.impl", "org.apache.hadoop.fs.LocalFileSystem"); //configuration.set("fs.hdfs.impl",org.apache.hadoop.hdfs.DistributedFileSystem.class.getName()); fs = FileSystem.get(new URI("hdfs://172.16.1.80:8020"), configuration,"hdfs");//hdfs为用户名 //fs = FileSystem.get(URI.create(fsname), configuration, user);return 0;}//end of initpublic int action() throws Throwable { testMkdir("/a//test4"); testCreateTextFile("hello hadoop world!\n","/a/test4/intput.txt"); testUpload("d://textdownload.txt","/a/test4/intput.txt"); testDownload("/a/test4/intput.txt","d://textdownload2.txt"); testRename("/a/test4/intput.txt","/a/test4/intput"); FileLoc("/a/test4/intput"); testDelFile("/a/test4/intput"); return 0;}//end of actionpublic int end() throws Throwable {return 0;}//end of end}需要说明的,本次样例脚本中,还引用了hadoop-common-2.2.0-bin-master(主要是因为在windows下开发Hadoop需要用到winutils.exe,本次的目的是为了在Windows下运行以上脚本后,能同时输出hadoop-HDFS运行日志),下载地址为(免积分):http://download.csdn.net/detail/nma_123456/8663763
5、将下载的hadoop-common-2.2.0-bin-master解压到Loadrnner脚本目录下(hadoop-common-2.2.0-bin-master下一层是bin目录)
6、同样在Loadrnner脚本目录下创建hadoop的日志配置文件log4j.xml,配置内容如下:
<?xml version="1.0" encoding="GB2312" ?><!DOCTYPE log4j:configuration SYSTEM "log4j.dtd"><log4j:configuration xmlns:log4j="http://jakarta.apache.org/log4j/"><appender name="org.zblog.all" class="org.apache.log4j.RollingFileAppender"><!-- 设置通道ID:org.zblog.all和输出方式:org.apache.log4j.RollingFileAppender --><param name="File" value="./all.output.log" /> <!-- 设置File参数:日志输出文件名 --><param name="Append" value="false" /> <!-- 设置是否在重新启动服务时,在原有日志的基础添加新日志 --><param name="MaxBackupIndex" value="10" /><layout class="org.apache.log4j.PatternLayout"><param name="ConversionPattern" value="%p (%c:%L)- %m%n" /> <!-- 设置输出文件项目和格式 --></layout></appender><appender name="org.zblog.zcw" class="org.apache.log4j.RollingFileAppender"><param name="File" value="E:/study/log4j/zhuwei.output.log" /><param name="Append" value="true" /><param name="MaxFileSize" value="10240" /> <!-- 设置文件大小 --><param name="MaxBackupIndex" value="10" /><layout class="org.apache.log4j.PatternLayout"><param name="ConversionPattern" value="%p (%c:%L)- %m%n" /></layout></appender><logger name="zcw.log"> <!-- 设置域名限制,即zcw.log域及以下的日志均输出到下面对应的通道中 --><level value="debug" /> <!-- 设置级别 --><appender-ref ref="org.zblog.zcw" /> <!-- 与前面的通道id相对应 --></logger><root> <!-- 设置接收所有输出的通道 --><appender-ref ref="org.zblog.all" /> <!-- 与前面的通道id相对应 --></root></log4j:configuration>7、一切就绪后,就可以运行脚本了(记住HDFS的连接地址,如hdfs://172.17.2.12:8020和用户要配置正确),运行成功如下所示:
阅读全文
0 0
- 通过Loadrunner连接操作Hadoop HDFS
- Loadrunner通过ssh连接linux进行hadoop基准测试
- Hadoop大象之旅009-通过Shell操作hdfs
- 初识hadoop--(2)通过java操作hdfs
- Hadoop之Java通过URL操作HDFS-yellowcong
- hadoop 操作 hdfs
- Hadoop操作HDFS命令
- Hadoop HDFS文件操作
- Hadoop操作HDFS命令
- Hadoop操作HDFS命令
- Hadoop操作HDFS命令
- Hadoop操作HDFS命令
- Hadoop操作HDFS命令
- Hadoop操作HDFS命令
- Hadoop操作HDFS命令
- hadoop hdfs API操作
- hadoop 操作 hdfs
- hadoop hdfs基础操作
- fabric常用API
- Android 使用fastjson解析json,java数组判断为空的方法
- 关于渐进增强和优雅降级---转摘
- 关于unity5.2发布ios版本不支持ipv6网络-解决办法,升级版本
- 玩开发板之NuMaker Uni(1)
- 通过Loadrunner连接操作Hadoop HDFS
- android 相关包的存放路径
- JAVA-static关键字
- bankend
- elasticsearch-jdbc配置,mysql到elasticsearch
- Scala概述
- WebLogic使用总结(七)——WebLogic部署Web应用并绑定域名
- unity 绘制窗口
- lua study -- how to call lua function use C language