老师,每个比较大的文件都会分割成块保存在DataNode中,那就说一个datanode坏了导致整个文件不可用,这样不就减低了可靠性吗?
老师,每个比较大的文件都会分割成块保存在DataNode中,那就说一个datanode坏了导致整个文件不可用,这样不就减低了可靠性吗?
56
收起
正在回答
1回答
hdfs默认有副本机制,一个文件分成多个block块,每个block默认会有3个副本(前提是hadoop集群至少要有3个从节点,每个上面节点上面保存一份,如果只有2个从节点的话,每个block最多只能有2份副本),这样就算某一个datanode挂了,文件也还是可用的
恭喜解决一个难题,获得1积分~
来为老师/同学的回答评分吧
0 星