PySpark实战:filter操作

来自CloudWiki
Cloud17讨论 | 贡献2021年7月2日 (五) 14:08的版本 (创建页面,内容为“==介绍== filter操作是一个变换算子 它根据过滤函数func的逻辑定义来对原RDD中的元素进行过滤,并返回一个新的RDD ==代码== <n…”)
(差异) ←上一版本 | 最后版本 (差异) | 下一版本→ (差异)
跳转至: 导航搜索

介绍

filter操作是一个变换算子

它根据过滤函数func的逻辑定义来对原RDD中的元素进行过滤,并返回一个新的RDD

代码


import findspark
findspark.init()
##############################################
from pyspark.sql import SparkSession
spark = SparkSession.builder \
        .master("local[1]") \
        .appName("RDD Demo") \
        .getOrCreate();
sc = spark.sparkContext
#############################################
rdd = sc.parallelize([1, 2, 3, 4, 5,6])
rdd = rdd.filter(lambda x: x % 2 == 0)
#[2, 4, 6]
print(rdd.collect())
##############################################
sc.stop()

输出

[2, 4, 6]