spark-scheduler
2016-07-09 00:09:55 0 举报
Spark-scheduler是Apache Spark中的一个核心组件,负责任务调度和资源分配。它的主要功能是根据应用程序的作业需求,将作业分解为一组相互依赖的并行任务,并将这些任务分配给集群中的不同节点进行执行。同时,spark-scheduler还需要考虑各种因素,如数据本地性、资源利用率等,以实现最优的任务调度策略。此外,spark-scheduler还支持多种调度模式,如FIFO(先进先出)、FAIR(公平)等,以满足不同场景下的需求。总之,spark-scheduler是Spark系统中至关重要的一个组件,它通过高效的任务调度和资源分配,确保了Spark应用程序的高性能运行。
作者其他创作
大纲/内容
line#845:ActiveJob
job满足以下所有条件,它将以本地模式运行:1.spark.localExecution.enabled=true2.用户程序显示指定可以本地运行3.finalStage没有parentStage4.仅有一个partition
SpakContext
ActiveJob
doOnReceive
getParentStagesAndId
#line603:runJob
line#612:awaitResult()
line#1052:submitTasks(TaskSet)
line#837:newResultStage
line#525:new ~(this)
new
TaskSchedulerImpl
Action
#line861:submitStage
line#559:submitJob返回一个JobWaiter对象
DAGScheduler
JobWaiter
runJob
line#375:getParentStages
line#1607:handleJobSubmitted
DAGSchedulerEventProcess'Loop
onReceive
line#921:submitMissingTasks
line#184:new ~(this)
line#583:post(JobSubmitted)
0 条评论
下一页