老师,每个比较大的文件都会分割成块保存在DataNode中,那就说一个datanode坏了导致整个文件不可用,这样不就减低了可靠性吗?

老师,每个比较大的文件都会分割成块保存在DataNode中,那就说一个datanode坏了导致整个文件不可用,这样不就减低了可靠性吗?

​老师,每个比较大的文件都会分割成块保存在DataNode中,那就说一个datanode坏了导致整个文件不可用,这样不就减低了可靠性吗?

正在回答

登陆购买课程后可参与讨论,去登陆

1回答

hdfs默认有副本机制,一个文件分成多个block块,每个block默认会有3个副本(前提是hadoop集群至少要有3个从节点,每个上面节点上面保存一份,如果只有2个从节点的话,每个block最多只能有2份副本),这样就算某一个datanode挂了,文件也还是可用的

问题已解决,确定采纳
还有疑问,暂不采纳

恭喜解决一个难题,获得1积分~

来为老师/同学的回答评分吧

0 星
请稍等 ...
意见反馈 帮助中心 APP下载
官方微信

在线咨询

领取优惠

免费试听

领取大纲

扫描二维码,添加
你的专属老师