spark on yarn模式启动为什么只需要客户端节点
有点不理解,on yarn 模式应该是让yarn来分配计算资源,但是真正的计算应该还是spark引擎完成的吧,但是yarn怎么知道spark 部署在那几台服务器呢?毕竟sprak都没启进程,spark客户端节点提交的时候也没有告诉hadoop,spark集群地址。
2
收起
正在回答
1回答
spark on yarn 模式,整个spark 任务是在 yarn 中执行的。
因为任务运行时需要的资源是由 yarn分配和管理的,分配之后就在 yarn中执行 spark任务了,所以不需要依赖于spark 集群。
大数据工程师 2024 版
- 参与学习 1151 人
- 提交作业 5960 份
- 解答问题 1144 个
不用Java初级内容充数!不用与大数据岗位无关内容占课时!我们做的就是“精华版”大数据课程
了解课程
恭喜解决一个难题,获得1积分~
来为老师/同学的回答评分吧
0 星