spark on yarn模式启动为什么只需要客户端节点
有点不理解,on yarn 模式应该是让yarn来分配计算资源,但是真正的计算应该还是spark引擎完成的吧,但是yarn怎么知道spark 部署在那几台服务器呢?毕竟sprak都没启进程,spark客户端节点提交的时候也没有告诉hadoop,spark集群地址。
3
收起
正在回答
1回答
spark on yarn 模式,整个spark 任务是在 yarn 中执行的。
因为任务运行时需要的资源是由 yarn分配和管理的,分配之后就在 yarn中执行 spark任务了,所以不需要依赖于spark 集群。
恭喜解决一个难题,获得1积分~
来为老师/同学的回答评分吧
0 星