广州兄弟连教育

试听课 + 活动课
填写信息优先获取试听课

位置:学校首页 > 学校动态>广州推荐一家比较好的线上区块链培训学校

广州推荐一家比较好的线上区块链培训学校

RDD编程API

RDD支持两种操作:转化操作和行动操作。RDD 的转化操作是返回一个新的 RDD的操作,比如 map()和 filter(),而行动操作则是向驱动器程序返回结果或把结果写入外部系统的操作。比如 count() 和 first()。

Spark采用惰性计算模式,RDD只有次在一个行动操作中用到时,才会真正计算。Spark可以优化整个计算过程。默认情况下,Spark 的 RDD 会在你每次对它们进行行动操作时重新计算。如果想在多个行动操作中重用同一个 RDD,可以使用 RDD.persist() 让 Spark 把这个 RDD 缓存下来。

Transformation算子

RDD中的所有转换都是延迟加载的,也就是说,它们并不会直接计算结果。相反的,它们只是记住这些应用到基础数据集(例如一个文件)上的转换动作。只有当发生一个要求返回结果给Driver的动作时,这些转换才会真正运行。这种设计让Spark更加有效率地运行。

转换 含义

map(func)返回一个新的RDD,该RDD由每一个输入元素经过func函数转换后组成

filter(func)返回一个新的RDD,该RDD由经过func函数计算后返回值为true的输入元素组成

flatMap(func)类似于map,但是每一个输入元素可以被映射为0或多个输出元素(所以func应该返回一个序列,而不是单一元素)

mapPartitions(func)类似于map,但独立地在RDD的每一个分片上运行,因此在类型为T的RDD上运行时,func的函数类型必须是Iterator[T]

=> Iterator[U]


mapPartitionsWithIndex(func)类似于mapPartitions,但func带有一个整数参数表示分片的索引值,因此在类型为T的RDD上运行时,func的函数类型必须是(Int,

Iterator[T]) => Iterator[U]

sample(withReplacement, fraction,

seed)根据fraction指定的比例对数据进行采样,可以选择是否使用随机数进行替换,seed用于指定随机数生成器种子

union(otherDataset)对源RDD和参数RDD求并集后返回一个新的RDD

intersection(otherDataset)对源RDD和参数RDD求交集后返回一个新的RDD

distinct([numTasks]))对源RDD进行去重后返回一个新的RDD

groupByKey([numTasks])在一个(K,V)的RDD上调用,返回一个(K,

Iterator[V])的RDD

reduceByKey(func,

[numTasks])在一个(K,V)的RDD上调用,返回一个(K,V)的RDD,使用指定的reduce函数,将相同key的值聚合到一起,与groupByKey类似,reduce任务的个数可以通过第二个可选的参数来设置

aggregateByKey(zeroValue)(seqOp, combOp,

[numTasks])相同的Key值进行聚合操作,在聚合过程中同样使用了一个中立的初始值zeroValue:中立值,定义返回value的类型,并参与运算seqOp:用来在同一个partition中合并值combOp:用来在不同partiton中合并值

sortByKey([ascending],

[numTasks])在一个(K,V)的RDD上调用,K必须实现Ordered接口,返回一个按照key进行排序的(K,V)的RDD

sortBy(func,[ascending], [numTasks])与sortByKey类似,但是更灵活

join(otherDataset,

[numTasks])在类型为(K,V)和(K,W)的RDD上调用,返回一个相同key对应的所有元素对在一起的(K,(V,W))的RDD

cogroup(otherDataset,

[numTasks])在类型为(K,V)和(K,W)的RDD上调用,返回一个(K,(Iterable,Iterable))类型的RDD

cartesian(otherDataset)笛卡尔积

pipe(command, [envVars])将一些shell命令用于Spark中生成新的RDD

coalesce(numPartitions) 重新分区

repartition(numPartitions)重新分区

repartitionAndSortWithinPartitions(partitioner)重新分区和排序

Action算子

在RDD上运行计算,并返回结果给Driver或写入文件系统

动作 含义

reduce(func)通过func函数聚集RDD中的所有元素,这个功能必须是可交换且可并联的

collect()在驱动程序中,以数组的形式返回数据集的所有元素

count()返回RDD的元素个数

first()返回RDD的个元素(类似于take(1))

take(n)返回一个由数据集的前n个元素组成的数组

takeSample(withReplacement,num,

[seed])返回一个数组,该数组由从数据集中随机采样的num个元素组成,可以选择是否用随机数替换不足的部分,seed用于指定随机数生成器种子

takeOrdered(n,

[ordering])takeOrdered和top类似,只不过以和top相反的顺序返回元素

saveAsTextFile(path)将数据集的元素以textfile的形式保存到HDFS文件系统或者其他支持的文件系统,对于每个元素,Spark将会调用toString方法,将它装换为文件中的文本

saveAsSequenceFile(path)将数据集中的元素以Hadoop

sequencefile的格式保存到指定的目录下,可以使HDFS或者其他Hadoop支持的文件系统。

saveAsObjectFile(path)

countByKey()针对(K,V)类型的RDD,返回一个(K,Int)的map,表示每一个key对应的元素个数。

foreach(func)在数据集的每一个元素上,运行函数func进行更新。

领取试听课
温馨提示:为不影响您的学业,来校区前请先电话或QQ咨询,方便我校安排相关的专业老师为您解答
版权所有:搜学搜课(www.soxsok.com) 技术支持:搜学搜课网