Apache Spark 提供了大量的算子(操作),这些算子大致可以分为两类:转换算子(Transformations)和行动算子(Actions)。转换算子用于创建一个新的RDD,而行动算子则对RDD进行操作并产生结果。下面是一些常用的Spark算子和相应的代码示例:
转换算子(Transformations)
-
map(func)
:-
对RDD的每个元素应用函数
func
,返回一个新的RDD。 -
示例:将每个元素乘以2。
scalaCopy codeval rdd = sc.parallelize(List(1, 2, 3, 4)) val mappedRDD = rdd.map(x => x * 2)
-
-
filter(func)
:-
返回一个新的RDD,包含应用函数
func
后返回值为true的原始元素。 -
示例:过滤出大于2的元素。
scalaCopy code val filteredRDD = rdd.filter(x => x > 2)
-
-
flatMap(func)
:-
与
map
类似,但每个输入元素可以映射到0或多个输出元素(因此,func
应返回一个序列,而不是单一元素)。 -
示例:将每个数字映射到它的值和它的平方。
scalaCopy code val flatMappedRDD = rdd.flatMap(x => List(x, x*x))
-
-
reduceByKey(func)
:-
适用于键值对(Pair RDDs)的RDD,返回一个新的RDD,其中每个键的值是应用函数
func
聚合的结果。 -
示例:对每个键进行值的累加。
scalaCopy codeval pairRDD = sc.parallelize(List(("a", 1), ("b", 1), ("a", 1))) val reducedRDD = pairRDD.reduceByKey((x, y) => x + y)
-
-
join(otherDataset)
:-
对于两个键值对RDD,返回一个新的RDD,包含两个RDD中键相同的元素的组合。
-
示例:连接两个RDD。
scalaCopy codeval rdd1 = sc.parallelize(List(("a", 1), ("b", 2))) val rdd2 = sc.parallelize(List(("a", 3), ("a", 4), ("b", 5))) val joinedRDD = rdd1.join(rdd2)
-
行动算子(Actions)
-
collect()
:-
在Driver程序中以数组的形式返回RDD的所有元素。
-
示例:收集RDD中的所有元素。
scalaCopy code val result = mappedRDD.collect()
-
-
count()
:-
返回RDD中元素的数量。
-
示例:计算RDD中的元素个数。
scalaCopy code val count = rdd.count()
-
-
reduce(func)
:-
通过函数
func
(接受两个参数并返回一个)来聚合RDD中的元素。 -
示例:求和。
scalaCopy code val sum = rdd.reduce((x, y) => x + y)
-
-
take(n)
:-
返回一个数组,包含RDD中的前
n
个元素。 -
示例:取RDD的前3个元素。
scalaCopy code val first3 = rdd.take(3)
-
-
saveAsTextFile(path)
:-
将RDD中的元素写入到一个文本文件中,或者文本文件的集合中(取决于RDD的分区数)。
-
示例:将RDD保存到文件系统。
scalaCopy code mappedRDD.saveAsTextFile("path/to/output")
-
更多转换算子(Transformations)
-
distinct()
:-
返回一个新的RDD,其中包含源RDD的所有不同元素。
-
示例:去除重复元素。
scalaCopy codeval rdd = sc.parallelize(List(1, 1, 2, 3, 3, 4)) val distinctRDD = rdd.distinct()
-
-
union(otherDataset)
:-
返回一个新的RDD,包含源RDD和另一个RDD的所有元素。
-
示例:合并两个RDD。
scalaCopy codeval rdd1 = sc.parallelize(List(1, 2, 3)) val rdd2 = sc.parallelize(List(4, 5, 6)) val unionRDD = rdd1.union(rdd2)
-
-
intersection(otherDataset)
:-
返回一个新的RDD,包含两个RDD的共同元素。
-
示例:找出两个RDD的交集。
scalaCopy codeval rdd1 = sc.parallelize(List(1, 2, 3, 4)) val rdd2 = sc.parallelize(List(3, 4, 5, 6)) val intersectionRDD = rdd1.intersection(rdd2)
-
-
subtract(otherDataset)
:-
返回一个新的RDD,包含源RDD中有而另一个RDD中没有的元素。
-
示例:从一个RDD中减去另一个RDD的元素。
scalaCopy codeval rdd1 = sc.parallelize(List(1, 2, 3, 4)) val rdd2 = sc.parallelize(List(3, 4, 5, 6)) val subtractedRDD = rdd1.subtract(rdd2)
-
-
cartesian(otherDataset)
:-
对两个RDD中的所有元素进行笛卡尔积操作,返回所有可能的元素对。
-
示例:计算两个RDD的笛卡尔积。
scalaCopy codeval rdd1 = sc.parallelize(List(1, 2)) val rdd2 = sc.parallelize(List("a", "b")) val cartesianRDD = rdd1.cartesian(rdd2)
-
更多行动算子(Actions)
-
foreach(func)
:-
对RDD中的每个元素应用函数
func
。 -
示例:对每个元素执行打印操作。
scalaCopy code rdd.foreach(x => println(x))
-
-
aggregate(zeroValue)(seqOp, combOp)
:-
聚合RDD中的元素,首先使用
seqOp
操作聚合每个分区的数据,然后使用combOp
操作聚合所有分区的结果。 -
示例:计算RDD中所有元素的总和和计数。
scalaCopy codeval result = rdd.aggregate((0, 0))( (acc, value) => (acc._1 + value, acc._2 + 1), (acc1, acc2) => (acc1._1 + acc2._1, acc1._2 + acc2._2))
-
-
fold(zeroValue)(func)
:-
与
aggregate
类似,但是seqOp
和combOp
使用相同的函数。 -
示例:计算RDD中所有元素的总和。
scalaCopy code val sum = rdd.fold(0)((acc, value) => acc + value)
-
-
countByKey()
:-
仅适用于键值对RDD,对每个键计数。
-
示例:计算每个键的出现次数。
scalaCopy codeval pairRDD = sc.parallelize(List(("a", 1), ("b", 1), ("a", 1))) val counts = pairRDD.countByKey()
-
-
saveAsNewAPIHadoopFile(path)
:-
将RDD保存到Hadoop支持的文件系统中。
-
示例:将RDD保存为Hadoop文件。
scalaCopy coderdd.saveAsNewAPIHadoopFile("path/to/output", classOf[Text], classOf[IntWritable], classOf[TextOutputFormat[Text, IntWritable]])
-