查看“PySpark实战:DataFrame日期时间处理”的源代码
←
PySpark实战:DataFrame日期时间处理
跳转至:
导航
,
搜索
因为以下原因,您没有权限编辑本页:
您所请求的操作仅限于该用户组的用户使用:
用户
您可以查看与复制此页面的源代码。
==介绍== 在很多业务中, 需要对日期或时间字段进行计算。 比如计算单据日期的前一天或者前一周的时间是多少。 ==代码== <nowiki> import findspark findspark.init() ############################################## from pyspark.sql import SparkSession spark = SparkSession.builder \ .master("local[1]") \ .appName("RDD Demo") \ .getOrCreate(); sc = spark.sparkContext ############################################# df = spark.createDataFrame([('2020-05-10',),('2020-05-09',)], ['dt']) #前面表示名称,dt表示字段名 from pyspark.sql.functions import add_months df.select(add_months(df.dt, 1).alias('next_month')) \ .show() #add_months:对dt字段加1处理,即下个月的日期。 #alias :对该字段进行重命名 # +----------+ # |next_month| # +----------+ # |2020-06-10| # |2020-06-09| # +----------+ ##############################################</nowiki> ==输出== <nowiki> +----------+ |next_month| +----------+ |2020-06-10| |2020-06-09| +----------+ </nowiki>
返回至
PySpark实战:DataFrame日期时间处理
。
导航菜单
个人工具
登录
命名空间
页面
讨论
变种
视图
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
帮助
工具
链入页面
相关更改
特殊页面
页面信息