Flume集成kafka章节中数据传输问题

Flume集成kafka章节中数据传输问题

Flume集成kafka章节中,我往log日志中传入hello时,hdfs并没有接收到,检查端口什么都没问题,应该是什么原因导致kafka不能与hdfs进行数据传输
下载视频          

正在回答 回答被采纳积分+1

登陆购买课程后可参与讨论,去登陆

1回答
徐老师 2022-08-23 22:28:08

这个问题需要拆开来分析检查,分成两个采集任务去分析

1.首先检查数据是否进入了kafka,最好启动个kafka消费者验证一下

2.如果数据进入了kafka,再排查kafka到hdfs的流程

  • 提问者 大鑫啊1978 #1

    老师,数据能进入kafka,但kafka进入hdfs的流程应该怎样去梳理问题出在哪呢


    下载视频          
    2022-08-24 17:10:56
  • 徐老师 回复 提问者 大鑫啊1978 #2

    在运行kafka->hdfs的flume进程时,启动的时候把日志打印到控制台,观察控制台上的日志有没有什么异常的,然后手工开启一个kafka的生产者,手动模拟向这个topic中产生数据,看看数据能不能进入hdfs

    2022-08-24 17:15:29
  • 提问者 大鑫啊1978 回复 徐老师 #3

    在hadoop创建目录发现是处于安全模式并且有些块损坏了

    2022-08-29 17:03:07
问题已解决,确定采纳
还有疑问,暂不采纳

恭喜解决一个难题,获得1积分~

来为老师/同学的回答评分吧

0 星
请稍等 ...
意见反馈 帮助中心 APP下载
官方微信

在线咨询

领取优惠

免费试听

领取大纲

扫描二维码,添加
你的专属老师