任务个数的问题

任务个数的问题

为什么最后会提交2个任务啊?

spark的时候也没有2个任务啊

flink 把driver和集群的分开执行了?

正在回答

登陆购买课程后可参与讨论,去登陆

1回答

flink任务会根据任务逻辑进行切分,如果可以切分为多个job的话,每个job会单独启动一个任务,因为flink是流任务,这样多个job是可以并行执行的,并且稳定性也高。

问题已解决,确定采纳
还有疑问,暂不采纳

恭喜解决一个难题,获得1积分~

来为老师/同学的回答评分吧

0 星
请稍等 ...
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号

在线咨询

领取优惠

免费试听

领取大纲

扫描二维码,添加
你的专属老师