hive插入数据时报错

hive插入数据时报错

问题描述:

   下午hadoop集群中的子节点磁盘满了,删除了hadoop_repo这个文件。

    晚上操作hive插入数据时报错。

相关截图:

https://img1.sycdn.imooc.com//climg/62d9576c09ca4cce14350074.jpg

正在回答 回答被采纳积分+1

登陆购买课程后可参与讨论,去登陆

1回答
徐老师 2022-07-21 21:59:02

直接删除/data/hadoop_repo目录,hdfs就废了,你确认一下hdfs现在是否可以正常操作

  • 提问者 qq_慕神6504824 #1

    跑计算的话好像就不行了。报这个错误。

    https://img1.sycdn.imooc.com//climg/62d9635309bb9b6818920163.jpg

    那老师,如果就是这个文件占用太多了,需要怎么删除才不会影响hdfs集群。

    2022-07-21 22:32:41
  • 徐老师 回复 提问者 qq_慕神6504824 #2
    这个错误的意思是hdfs中的block块都丢失了。 删除hdfs中的数据需要使用hdfs的rm删除命令,不能手工去删除/data/hadoop_repo目录。 现在需要重新恢复hdfs,只能重新格式化集群了,按照下面的步骤做 1.停止hadoop集群 2.删除所有节点的/data/hadoop_repo,注意是所有节点 3.格式化集群 4.启动集群 5.验证hdfs是否可用,使用put上传数据验证一下 6.hdfs确认没问题以后再验证hive是否正常
    2022-07-22 09:07:52
  • 提问者 qq_慕神6504824 回复 徐老师 #3

    可以了,老师。感谢老师。

    https://img1.sycdn.imooc.com//climg/62da084f09bd941504990080.jpg

    2022-07-22 10:15:46
问题已解决,确定采纳
还有疑问,暂不采纳

恭喜解决一个难题,获得1积分~

来为老师/同学的回答评分吧

0 星
请稍等 ...
意见反馈 帮助中心 APP下载
官方微信

在线咨询

领取优惠

免费试听

领取大纲

扫描二维码,添加
你的专属老师