`

大数据学习笔记(七)-运行spark脚本【原创】

阅读更多
   在启动了hadoop 和 spark之后,就可以运行spark 脚本环境,在其上可以运行scala脚本。

1. cd $SPARK_HOME/bin
2. master=spark://master.hadoop.zjportdns.gov.cn ./spark-shell
然后就可以运行脚本了
   scala> val a = sc.parallelize(1 to 9, 3)
   a: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0] at parallelize at <console>:24
   scala> val b = a.map(x => x*2)
   b: org.apache.spark.rdd.RDD[Int] = MapPartitionsRDD[1] at map at <console>:26
   scala> a.collect
   res0: Array[Int] = Array(1, 2, 3, 4, 5, 6, 7, 8, 9)
   scala> b.collect
   res1: Array[Int] = Array(2, 4, 6, 8, 10, 12, 14, 16, 18)


3. 可以对hdfs文件进行分析


然后就可以愉快的进行大数据分析了。
  • 大小: 21.8 KB
  • 大小: 7.6 KB
分享到:
评论
发表评论

文章已被作者锁定,不允许评论。

相关推荐

Global site tag (gtag.js) - Google Analytics