任务个数的问题
为什么最后会提交2个任务啊?
spark的时候也没有2个任务啊
flink 把driver和集群的分开执行了?
2
收起
正在回答
1回答
flink任务会根据任务逻辑进行切分,如果可以切分为多个job的话,每个job会单独启动一个任务,因为flink是流任务,这样多个job是可以并行执行的,并且稳定性也高。
相似问题
登录后可查看更多问答,登录/注册
恭喜解决一个难题,获得1积分~
来为老师/同学的回答评分吧
0 星