老师,每个比较大的文件都会分割成块保存在DataNode中,那就说一个datanode坏了导致整个文件不可用,这样不就减低了可靠性吗?

老师,每个比较大的文件都会分割成块保存在DataNode中,那就说一个datanode坏了导致整个文件不可用,这样不就减低了可靠性吗?

​老师,每个比较大的文件都会分割成块保存在DataNode中,那就说一个datanode坏了导致整个文件不可用,这样不就减低了可靠性吗?

正在回答

登陆购买课程后可参与讨论,去登陆

1回答

hdfs默认有副本机制,一个文件分成多个block块,每个block默认会有3个副本(前提是hadoop集群至少要有3个从节点,每个上面节点上面保存一份,如果只有2个从节点的话,每个block最多只能有2份副本),这样就算某一个datanode挂了,文件也还是可用的

问题已解决,确定采纳
还有疑问,暂不采纳

恭喜解决一个难题,获得1积分~

来为老师/同学的回答评分吧

0 星
请稍等 ...
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号

在线咨询

领取优惠

免费试听

领取大纲

扫描二维码,添加
你的专属老师