生产中可以使用local模式吗

生产中可以使用local模式吗

因为我们公司目前只有一个项目用到spark,只分配了一台服务器用来部署spark,这样yarn模式好像没有意义

正在回答 回答被采纳积分+1

登陆购买课程后可参与讨论,去登陆

1回答
徐老师 2020-09-08 22:35:14

你们是在一台机器上部署的spark standalone模式?

其实可以这样做

只需要在客户端机器上配置好spark即可,不需要启动spark进程,使用spark on yarn模式,将任务提交到公共的yarn集群中执行,这样可以共用yarn集群资源,这样是最合适的方案

  • 提问者 孤独观测者 #1
    啊不,还没部署,正在看用什么模式,因为zk,hadoop和hbase都部署在一台机器了,我就想着能不能直接用local模式。 但好像生产不能用local,原因是啥?
    2020-09-08 22:46:49
  • 徐老师 回复 提问者 孤独观测者 #2
    Local模式不就成单机了,计算性能有限,就体现不出来分布式的效果了,所以生产环境不会这样用
    2020-09-08 22:48:35
问题已解决,确定采纳
还有疑问,暂不采纳

恭喜解决一个难题,获得1积分~

来为老师/同学的回答评分吧

0 星
请稍等 ...
意见反馈 帮助中心 APP下载
官方微信

在线咨询

领取优惠

免费试听

领取大纲

扫描二维码,添加
你的专属老师