spark:学习杂记+案例--41

来源:互联网 发布:淘宝 手机 假货 编辑:程序博客网 时间:2024/05/01 15:11

《快学scala》第十章课后习题:

1 .java.awt.Rectangle类有两个很有用的方法translate和grow,但可惜的是像java.awt.geom.Ellipse2D这样的类没有。在Scala中,你可以解决掉这个问题。定义一个RenctangleLike特质,加入具体的translate和grow方法。提供任何你需要用来实现的抽象方法,以便你可以像如下代码这样混入该特质: val egg = new java.awt.geom.Ellipse2D.Double(5,10,20,30) with RectangleLike
egg.translate(10,-10)
egg.grow(10,20)

2.通过把scala.math.Ordered[Point]混入java.awt.Point的方式,定义OrderedPoint类。按辞典编辑方式排序,也就是说,如果x<x'或者x=x'且y<y'则(x,y)<(x',y') 

3.查看BitSet类,将它的所有超类和特质绘制成一张图。忽略类型参数([…]中的所有内容)。然后给出该特质的线性化规格说明 

4.提供一个CryptoLogger类,将日志消息以凯撒密码加密。缺省情况下密匙为3,不过使用者也可以重写它。提供缺省密匙和-3作为密匙是的使用示例 

5.JavaBean规范里有一种提法叫做属性变更监听器(property change listener),这是bean用来通知其属性变更的标准方式。PropertyChangeSupport类对于任何想要支持属性变更通知其属性变更监听器的bean而言是个便捷的超类。但可惜已有其他超类的类—比如JComponent—必须重新实现相应的方法。将PropertyChangeSupport重新实现为一个特质,然后将它混入到java.awt.Point类中 

6.在Java AWT类库中,我们有一个Container类,一个可以用于各种组件的Component子类。举例来说,Button是一个Component,但Panel是Container。这是一个运转中的组合模式。Swing有JComponent和JContainer,但如果你仔细看的话,你会发现一些奇怪的细节。尽管把其他组件添加到比如JButton中毫无意义,JComponent依然扩展自Container。Swing的设计者们理想情况下应该会更倾向于图10-4中的设计。但在Java中那是不可能的。请解释这是为什么?Scala中如何用特质来设计出这样的效果? 

7.市面上有不下数十种关于Scala特质的教程,用的都是些"在叫的狗"啦,"讲哲学的青蛙"啦之类的傻乎乎的例子。阅读和理解这些机巧的继承层级很乏味且对于理解问题没什么帮助,但自己设计一套继承层级就不同了,会很有启发。做一个你自己的关于特质的继承层级,要求体现出叠加在一起的特质,具体的和抽象的方法,以及具体的和抽象的字段

8.在java.io类库中,你可以通过BufferedInputStream修饰器来给输入流增加缓冲机制。用特质来重新实现缓冲。简单起见,重写read方法

9.使用本章的日志生成器特质,给前一个练习中的方案增加日志功能,要求体现缓冲的效果 

10.实现一个IterableInputStream类,扩展java.io.InputStream并混入Iterable[Byte]特质 

////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////

package llf/** * Created by sendoh on 2015/5/10. *///10class answer10 {}//10.1import java.awt.geom.Ellipse2Dtrait RectangleLike{  this: Ellipse2D.Double =>  def translate(x: Double, y: Double): Unit ={    this.x = x    this.y = y  }  def grow(x: Double, y: Double): Unit ={    this.x += x    this.y += y  }}object Text extends App{  val egg = new Ellipse2D.Double(5,10,20,30) with RectangleLike  println("X = " + egg.getX + "Y = " + egg.getY)  egg.translate(10, -10)  println("X = " + egg.getX + "Y = " + egg.getY)  egg.grow(10, 20)  println("X = " + egg.getX + "Y = " + egg.getY)}//2import java.awt.Pointclass OrderedPoint extends Point with Ordered[Point]{  def compare(that: Point): Int = if (this.x <= that.x && this.y <= that.y) - 1                                   else if(this.x == that.x && this.y == that.y)                                   else 1}//3//___________________________________________________//4trait Logger{  def log(str:String, key:Int = 3): String}class CryptoLogger extends Logger {  def log(str: String, key: Int): String = {    for (i <- str) yield      if (key >= 0)        (97 + ((i - 97 + key) % 26)).toChar      else        (97 + ((i - 97 + 26 + key) % 26)).toChar  }}object Test4 extends App{  val plain = "xxxxxxx"  println("A: " + plain)  println("V: " + new CryptoLogger().log(plain))  println("S: " + new CryptoLogger().log(plain,-3))}//5import java.beans.PropertyChangeSupporttrait PropertyChange extends PropertyChangeSupportclass p extends PropertyChange{}//6//Java只能单继承,JContainer不能同时继承自Container和JComponent。Scala可以通过特质解决这个问题//7trait Fly{  def fly(){    println("flying")  }  def flywithnowing()}trait Walk{  def walk(){    println("walk")  }}class Bird{  var name:String = _}class BlueBird extends Bird with Fly with Walk{  def flywithnowing() {    println("BlueBird flywithnowing")  }}object Test extends App{  val b = new BlueBird()  b.walk()  b.flywithnowing()  b.fly()}//8//////////////////////////////////////////9/////////////////////////////////////////10import java.io.InputStreamclass IterableInputStream extends InputStream with Iterable[Byte]{  def read(): Int = 0  def iterator: Iterator[Byte] = null}
/////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////

SparkTC:

package llfimport org.apache.spark.SparkContext._import org.apache.spark.{SparkContext, SparkConf}import scala.collection.mutableimport scala.util.Random/** * Created by sendoh on 2015/5/8. */object SparkTC { //  val numEdges = 200 //定义边的条数最大200  val numVertices = 100 //定义顶点最大值100  val rand = new Random(42) //定义随机数  def generateGraph: Seq[(Int, Int)] = { //生成图的方法    val edges: mutable.Set[(Int, Int)] = mutable.Set.empty //被mutable修饰的变量,将永远处于可变的状态    while (edges.size < numEdges) {      val from = rand.nextInt(numVertices)      val to = rand.nextInt(numVertices)      if (from != to) edges.+=((from, to))    }    edges.toSeq  }  def main(args: Array[String]): Unit ={    val conf = new SparkConf().setAppName("SparkTC")    val sc = new SparkContext(conf)    val slices = if (args.length > 0) args(0).toInt else 2 //切片    var tc = sc.parallelize(generateGraph, slices).cache() //tc并行生成图?    val edges = tc.map(x => (x._2, x._1)) //将tc的第一个参数和第二个参数互换    var oldCount = 0L    var nextCount = tc.count()    do {      oldCount = nextCount      tc = tc.union(tc.join(edges).map(x => (x._2._2, x._2._1))).distinct().cache()      nextCount = tc.count()    }while (nextCount != oldCount)    println("TC has " + tc.count() + " edges.")    sc.stop()  }}


0 0
原创粉丝点击