老师,每个比较大的文件都会分割成块保存在DataNode中,那就说一个datanode坏了导致整个文件不可用,这样不就减低了可靠性吗?
老师,每个比较大的文件都会分割成块保存在DataNode中,那就说一个datanode坏了导致整个文件不可用,这样不就减低了可靠性吗?
54
收起
正在回答
1回答
hdfs默认有副本机制,一个文件分成多个block块,每个block默认会有3个副本(前提是hadoop集群至少要有3个从节点,每个上面节点上面保存一份,如果只有2个从节点的话,每个block最多只能有2份副本),这样就算某一个datanode挂了,文件也还是可用的
大数据工程师 2024 版
- 参与学习 1151 人
- 提交作业 5960 份
- 解答问题 1144 个
不用Java初级内容充数!不用与大数据岗位无关内容占课时!我们做的就是“精华版”大数据课程
了解课程
恭喜解决一个难题,获得1积分~
来为老师/同学的回答评分吧
0 星