spark:学习杂记+案例--41
来源:互联网 发布:淘宝 手机 假货 编辑:程序博客网 时间:2024/05/01 15:11
《快学scala》第十章课后习题:
1 .java.awt.Rectangle类有两个很有用的方法translate和grow,但可惜的是像java.awt.geom.Ellipse2D这样的类没有。在Scala中,你可以解决掉这个问题。定义一个RenctangleLike特质,加入具体的translate和grow方法。提供任何你需要用来实现的抽象方法,以便你可以像如下代码这样混入该特质: val egg = new java.awt.geom.Ellipse2D.Double(5,10,20,30) with RectangleLike
egg.translate(10,-10)
egg.grow(10,20)
2.通过把scala.math.Ordered[Point]混入java.awt.Point的方式,定义OrderedPoint类。按辞典编辑方式排序,也就是说,如果x<x'或者x=x'且y<y'则(x,y)<(x',y')
3.查看BitSet类,将它的所有超类和特质绘制成一张图。忽略类型参数([…]中的所有内容)。然后给出该特质的线性化规格说明
4.提供一个CryptoLogger类,将日志消息以凯撒密码加密。缺省情况下密匙为3,不过使用者也可以重写它。提供缺省密匙和-3作为密匙是的使用示例
5.JavaBean规范里有一种提法叫做属性变更监听器(property change listener),这是bean用来通知其属性变更的标准方式。PropertyChangeSupport类对于任何想要支持属性变更通知其属性变更监听器的bean而言是个便捷的超类。但可惜已有其他超类的类—比如JComponent—必须重新实现相应的方法。将PropertyChangeSupport重新实现为一个特质,然后将它混入到java.awt.Point类中
6.在Java AWT类库中,我们有一个Container类,一个可以用于各种组件的Component子类。举例来说,Button是一个Component,但Panel是Container。这是一个运转中的组合模式。Swing有JComponent和JContainer,但如果你仔细看的话,你会发现一些奇怪的细节。尽管把其他组件添加到比如JButton中毫无意义,JComponent依然扩展自Container。Swing的设计者们理想情况下应该会更倾向于图10-4中的设计。但在Java中那是不可能的。请解释这是为什么?Scala中如何用特质来设计出这样的效果?
7.市面上有不下数十种关于Scala特质的教程,用的都是些"在叫的狗"啦,"讲哲学的青蛙"啦之类的傻乎乎的例子。阅读和理解这些机巧的继承层级很乏味且对于理解问题没什么帮助,但自己设计一套继承层级就不同了,会很有启发。做一个你自己的关于特质的继承层级,要求体现出叠加在一起的特质,具体的和抽象的方法,以及具体的和抽象的字段
8.在java.io类库中,你可以通过BufferedInputStream修饰器来给输入流增加缓冲机制。用特质来重新实现缓冲。简单起见,重写read方法
9.使用本章的日志生成器特质,给前一个练习中的方案增加日志功能,要求体现缓冲的效果
10.实现一个IterableInputStream类,扩展java.io.InputStream并混入Iterable[Byte]特质
////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////
package llf/** * Created by sendoh on 2015/5/10. *///10class answer10 {}//10.1import java.awt.geom.Ellipse2Dtrait RectangleLike{ this: Ellipse2D.Double => def translate(x: Double, y: Double): Unit ={ this.x = x this.y = y } def grow(x: Double, y: Double): Unit ={ this.x += x this.y += y }}object Text extends App{ val egg = new Ellipse2D.Double(5,10,20,30) with RectangleLike println("X = " + egg.getX + "Y = " + egg.getY) egg.translate(10, -10) println("X = " + egg.getX + "Y = " + egg.getY) egg.grow(10, 20) println("X = " + egg.getX + "Y = " + egg.getY)}//2import java.awt.Pointclass OrderedPoint extends Point with Ordered[Point]{ def compare(that: Point): Int = if (this.x <= that.x && this.y <= that.y) - 1 else if(this.x == that.x && this.y == that.y) else 1}//3//___________________________________________________//4trait Logger{ def log(str:String, key:Int = 3): String}class CryptoLogger extends Logger { def log(str: String, key: Int): String = { for (i <- str) yield if (key >= 0) (97 + ((i - 97 + key) % 26)).toChar else (97 + ((i - 97 + 26 + key) % 26)).toChar }}object Test4 extends App{ val plain = "xxxxxxx" println("A: " + plain) println("V: " + new CryptoLogger().log(plain)) println("S: " + new CryptoLogger().log(plain,-3))}//5import java.beans.PropertyChangeSupporttrait PropertyChange extends PropertyChangeSupportclass p extends PropertyChange{}//6//Java只能单继承,JContainer不能同时继承自Container和JComponent。Scala可以通过特质解决这个问题//7trait Fly{ def fly(){ println("flying") } def flywithnowing()}trait Walk{ def walk(){ println("walk") }}class Bird{ var name:String = _}class BlueBird extends Bird with Fly with Walk{ def flywithnowing() { println("BlueBird flywithnowing") }}object Test extends App{ val b = new BlueBird() b.walk() b.flywithnowing() b.fly()}//8//////////////////////////////////////////9/////////////////////////////////////////10import java.io.InputStreamclass IterableInputStream extends InputStream with Iterable[Byte]{ def read(): Int = 0 def iterator: Iterator[Byte] = null}/////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////
SparkTC:
package llfimport org.apache.spark.SparkContext._import org.apache.spark.{SparkContext, SparkConf}import scala.collection.mutableimport scala.util.Random/** * Created by sendoh on 2015/5/8. */object SparkTC { // val numEdges = 200 //定义边的条数最大200 val numVertices = 100 //定义顶点最大值100 val rand = new Random(42) //定义随机数 def generateGraph: Seq[(Int, Int)] = { //生成图的方法 val edges: mutable.Set[(Int, Int)] = mutable.Set.empty //被mutable修饰的变量,将永远处于可变的状态 while (edges.size < numEdges) { val from = rand.nextInt(numVertices) val to = rand.nextInt(numVertices) if (from != to) edges.+=((from, to)) } edges.toSeq } def main(args: Array[String]): Unit ={ val conf = new SparkConf().setAppName("SparkTC") val sc = new SparkContext(conf) val slices = if (args.length > 0) args(0).toInt else 2 //切片 var tc = sc.parallelize(generateGraph, slices).cache() //tc并行生成图? val edges = tc.map(x => (x._2, x._1)) //将tc的第一个参数和第二个参数互换 var oldCount = 0L var nextCount = tc.count() do { oldCount = nextCount tc = tc.union(tc.join(edges).map(x => (x._2._2, x._2._1))).distinct().cache() nextCount = tc.count() }while (nextCount != oldCount) println("TC has " + tc.count() + " edges.") sc.stop() }}
- spark:学习杂记+案例--41
- spark:学习杂记+案例--40
- spark:学习杂记+仿写案例--28
- spark:学习杂记+仿写案例--35
- spark:学习杂记--23
- spark:学习杂记--24
- spark:学习杂记--29
- spark:学习杂记--36
- spark:学习杂记--37
- spark:学习杂记--38
- spark:学习杂记--39
- spark:学习杂记--42
- spark:随机学习杂记--21
- spark:学习杂记Hbase--33
- spark:学习杂记+快速排序--26
- spark杂记
- Spark杂记
- spark:学习杂记+wordcount(单词统计)--22
- 第四章
- hdu 4006
- Windows 2000内存篇 分页机制介绍
- Notepad++ 配置笔记
- APUE 学习笔记(第四章)
- spark:学习杂记+案例--41
- 重写父类方法
- C++输入输出格式,及其他零碎知识的整合
- SHELL学习笔记1
- hihocoder 1150 基站选址
- linux编译使用静态库和动态库
- 容易看懂的才是好代码
- [Practical.Vim(2012.9)].Drew.Neil.Tip10学习摘要
- MediaPlayer 生命周期详解