Spark程序进行单元测试-使用scala
来源:互联网 发布:淘宝行业平均停留时间 编辑:程序博客网 时间:2024/05/22 11:33
Spark 中进行一些单元测试技巧:
最近刚写了一点Spark上的单元测试,大概整理了一些
rdd测试
spark程序一般从集群中读取数据然后通过rdd进行转换,这其中涉及到集群,每次修改bug,上传到集群再运行测试,代价还是挺大;所以尽可能先本地进行单元测试,以减少在集群上运行时错误,特别是map等各种tranforms动作的逻辑错误;以下示例用于测试本地返回rdd相关的方法(利用spark本地模式进行单元测试)
Tips:
//定义一个简单的wordcountobject WordCount extends Serializable{ def count(lines:RDD[String]): RDD[(String,Int)]={ val rdd=lines.flatMap(line=>line.split("\\s")).map(word=>(word,1)).reduceByKey(_ + _) rdd }}
//引入scalatest建立一个单元测试类,混入特质BeforeAndAfter,在before和after中分别初始化sc和停止sc,//初始化SparkContext时只需将Master设置为local(local[N],N表示线程)即可,无需本地配置或搭建集群,class WordCountTests extends FlatSpec with BeforeAndAfter{ val master="local" //sparkcontext的运行master var sc:SparkContext=_ it should("test success") in{ //其中参数为rdd或者dataframe可以通过通过简单的手动构造即可 val seq=Seq("the test test1","the test","the") val rdd=sc.parallelize(seq) val wordCounts=WordCount.count(rdd) wordCounts.map(p=>{ p._1 match { case "the"=> assert(p._2==3) case "test"=> assert(p._2==2) case "test1"=> assert(p._2==1) case _=> None } }).foreach(_=>()) } //这里before和after中分别进行sparkcontext的初始化和结束,如果是SQLContext也可以在这里面初始化 before{ val conf=new SparkConf() .setAppName("test").setMaster(master) sc=new SparkContext(conf) } after{ if(sc!=null){ sc.stop() } }}
无返回值方法测试
有时候一个方法起到一个调用流程的作用,最后可能是输出或者写入某个文件而没有返回值,一般单元测试可能是查看最后有没有输出文件,但是ide在本地可能不太好进行测试
例如:
trait WriterHandle{ def writer(records:Seq[GenericRecord]):Unit={ val parquetWriter=... records.foreach(parquetWriter.writer(..)) }}//一个类处混入这个特质,经过一定转换后将结果数据写入parquet中class ProcessHandle(objects:Iterator[T]) extends Serializable with WriterHandle{ def process():Unit={ val records:Seq[GenericRecord]=build(objects)={ ... } //这里调用了特质writer中的writer方法,实际单元测试运行到这里可能写入的时候会出错,不能正常测试通过 writer(records) }}
class Writertests extends FlatSpec { it should("write success") in{ val objects=Seq(object1,object2..).toIterator //在new处理类,混入原先特质的一个子特质 val process=new ProcessHandle(objects) with Writerhandletest }} //可以自定义一个trait继承自原先的特质,通过将原先的方法覆盖,然后在重写后的方法里面的根据传入值定义所需要断言即可trait Writerhandletest extends WriterHandle{ override def writer(records:Seq[GenericRecord]):Unit={ assert(records.length==N) assert(records(0).XX=="xxx") }}
如有必要也可以测试下私有方法:
理论上来说,私有方法都会被公有方法调用,调用公有方法也可以验证私有方法,不过如果公有方法不方便测试也可以对某个私有方法进行测试,就看是否有必要
可以测试如下:
class MyTest(s:String){ //此公有方法可能不方便测试 def ():Unit={ ... doSth(s) } //这里私有方法,可能是逻辑关键所在,有必要测试 private def doSth(s:String):String={ ... }}
编写单元测试
//要混入PrivateMethodTester特质class MytestTests extends FlatSpec with PrivateMethodTester{ it should("write success") in{ //首先new一个要测试的类 val myTest=new MyTest("string") //其中通过PrivateMethod修饰,[]中为返回值, ('method)单引号后跟私有方法名 val dosth=PrivateMethod[String]('doSth) //通过invokePrivate 委托调用私有方法,注意参数要对,貌似传null的话会找不到对应的方法 val str=myTest invokePrivate dosth("string") //最后断言相应的至即可 asset(str=="string") }}
1 0
- Spark程序进行单元测试-使用scala
- 使用IDEA进行Spark开发(二)-第一个scala程序
- 使用Scala写第一个Spark程序
- 使用VS2013进行C#程序的单元测试
- Scala使用JUnit4单元测试
- Scala使用JUnit4单元测试
- scala 开发spark程序
- spark scala 数据处理程序
- spark scala 对dataframe进行过滤----filter方法使用
- 使用IDEA编写基于Scala的spark程序中的常见问题
- Spark核心编程:使用Java和Scala开发wordcount程序
- scala/spark/python使用
- 用scala 写spark程序
- Eclipse使用jUnit4对MapReduce程序进行单元测试
- Spark实战----(1)使用Scala开发本地测试的Spark WordCount程序
- 使用NUnit进行单元测试
- 使用CppUnit进行单元测试
- 使用CppUnit进行单元测试
- 从输入url到获取页面的完整过程
- 九度1092
- 分析一个别人的qt+opengl例子
- 学习Javascript闭包(Closure)
- 399. Evaluate Division 难度:medium 类别:图
- Spark程序进行单元测试-使用scala
- 1006. Sign In and Sign Out (25)
- 全球首发,微信小程序开发实战视频教程发布
- 【JZOJ4798】天使的分裂
- C++ hdu 2071 Max Num
- javaweb下载
- 【NOIP2016提高A组模拟9.24】天使的分裂
- Smarty模板引擎的安装
- studio dexDebug ExecException finished with non-zero exit value 2 grade等问题