“敏捷数据开发”的版本间的差异
来自CloudWiki
(→第4章 记录收集与展示) |
|||
(未显示同一用户的25个中间版本) | |||
第1行: | 第1行: | ||
+ | ==第1章 理论== | ||
+ | *[[敏捷数据开发:前言]] | ||
+ | *[[敏捷数据科学]] | ||
+ | |||
+ | ==第2章 敏捷工具== | ||
+ | *[[Spark全栈:可伸缩性=易用性]] | ||
+ | *[[Spark全栈:敏捷数据科学之数据处理]] | ||
+ | *[[Spark全栈:下载数据到本地]] | ||
+ | *[[Spark全栈:下载并运行代码]] | ||
+ | *[[Spark全栈:工具集概览]] | ||
+ | |||
+ | ==第3章 数据== | ||
+ | *[[Spark全栈:飞行航班数据]] | ||
+ | *[[Spark全栈:天气数据]] | ||
+ | *[[Spark全栈:敏捷数据科学中的数据处理]] | ||
+ | *[[Spark全栈:SQL vs.NoSQL]] | ||
+ | |||
+ | ==第4章 记录收集与展示== | ||
+ | *[[Spark全栈:攀登金字塔]] | ||
+ | *先备知识: | ||
+ | **[[PySpark实战:下载Spark]] | ||
+ | **[[PySpark实战:Linux搭建Spark环境]]、[[PySpark实战:Windows搭建Spark环境]] | ||
+ | **[[PySpark实战:用PySpark建立第一个Spark RDD]]、[[PySpark实战:PySpark Shell 建立RDD]]、[[PySpark实战:Python文件 建立RDD]] | ||
+ | **[[PySpark实战:DataFrame存储csv数据]] | ||
+ | *[[Spark全栈:航班数据收集与序列化]] | ||
− | *[[ | + | |
+ | *先备知识: | ||
+ | **[[PySpark实战:安装MongoDB]] | ||
+ | **[[PySpark实战:MongoDB基本操作]] | ||
+ | **[[PySpark实战:安装pymongo]] | ||
+ | **[[PySpark实战:安装MongoDB的Java驱动]] | ||
+ | |||
+ | 排错: | ||
+ | https://blog.csdn.net/zhangxiaohui4445/article/details/104412312 | ||
+ | |||
+ | https://blog.csdn.net/zhangxiaohui4445/article/details/104412312 | ||
+ | |||
+ | https://blog.csdn.net/qq_28626909/article/details/81636803 | ||
+ | |||
+ | **[[PySpark实战:安装mongo-spark]] | ||
+ | **[[MongoDB + Spark: 完整的大数据解决方案 https://blog.51cto.com/u_15486212/5239193]] | ||
+ | **[[PySpark实战:安装mongo-hadoop]] | ||
+ | **[[PySpark实战:安装pymongo_spark]] | ||
+ | *[[Spark全栈:航班记录处理与发布]] | ||
==第5章 使用图表进行数据可视化== | ==第5章 使用图表进行数据可视化== | ||
第7行: | 第50行: | ||
==第6章 通过报表探索数据== | ==第6章 通过报表探索数据== | ||
*[[Spark全栈:通过报表探索数据]] | *[[Spark全栈:通过报表探索数据]] | ||
+ | |||
+ | 参考文档:https://github.com/rjurney/Agile_Data_Code_2 |
2022年7月21日 (四) 10:35的最新版本
第1章 理论
第2章 敏捷工具
第3章 数据
第4章 记录收集与展示
排错: https://blog.csdn.net/zhangxiaohui4445/article/details/104412312
https://blog.csdn.net/zhangxiaohui4445/article/details/104412312
https://blog.csdn.net/qq_28626909/article/details/81636803