问题描述:
下午hadoop集群中的子节点磁盘满了,删除了hadoop_repo这个文件。
晚上操作hive插入数据时报错。
相关截图:
登陆购买课程后可参与讨论,去登陆吧
直接删除/data/hadoop_repo目录,hdfs就废了,你确认一下hdfs现在是否可以正常操作
跑计算的话好像就不行了。报这个错误。
那老师,如果就是这个文件占用太多了,需要怎么删除才不会影响hdfs集群。
可以了,老师。感谢老师。
恭喜解决一个难题,获得1积分~
来为老师/同学的回答评分吧
登录后可查看更多问答,登录/注册
不用Java初级内容充数!不用与大数据岗位无关内容占课时!我们做的就是“精华版”大数据课程
56 2
32 1
78 5
29 9
19 22
在线咨询
领取优惠
免费试听
领取大纲
恭喜解决一个难题,获得1积分~
来为老师/同学的回答评分吧
0 星