Spark运行架构

来自CloudWiki
Cloud17讨论 | 贡献2020年7月8日 (三) 08:03的版本
跳转至: 导航搜索

基本概念

在具体讲解Spark运行架构之前,需要先了解几个重要的概念:

RDD

  • RDD:是弹性分布式数据集(Resilient Distributed Dataset)的简称,是分布式内存的一个抽象概念,提供了一种高度受限的共享内存模型;

DAG

  • DAG:是Directed Acyclic Graph(有向无环图)的简称,反映RDD之间的依赖关系;

Executor

  • Executor:是运行在工作节点(Worker Node)上的一个进程,负责运行任务,并为应用程序存储数据;

应用

  • 应用:用户编写的Spark应用程序;

任务

  • 任务:运行在Executor上的工作单元;

作业

  • 作业:一个作业包含多个RDD及作用于相应RDD上的各种操作;

阶段

  • 阶段:是作业的基本调度单位,一个作业会分为多组任务,每组任务被称为“阶段”,或者也被称为“任务集”。