手表网站,网站开发毕业设计文献综述,网页制作的常用工具,网站开发有必要用php框架一、目的
在实现Flume实时采集Linux中的Hive日志写入到HDFS后#xff0c;再做一个测试#xff0c;用Flume实时采集Linux中的目录文件#xff0c;即使用 Flume 监听Linux整个目录的文件#xff0c;并上传至 HDFS中
二、前期准备
#xff08;一#xff09;安装好Hadoop、…一、目的
在实现Flume实时采集Linux中的Hive日志写入到HDFS后再做一个测试用Flume实时采集Linux中的目录文件即使用 Flume 监听Linux整个目录的文件并上传至 HDFS中
二、前期准备
一安装好Hadoop、Hive、Flume等工具 二Linux中被Flume监控的文件目录
/opt/flume/upload 最初的文件目录为空没有任何文件
三在HDFS中创建文件夹/flume/upload即写入的HDFS文件路径 三、创建Flume的任务文件
[roothurys23 conf]# vi flume-dir-hdfs.conf
# agent a3 a3.sources r3 a3.sinks k3 a3.channels c3
# Describe/configure the source a3.sources.r3.type spooldira3.sources.r3.spoolDir /opt/flume/upload a3.sources.r3.fileSuffix .COMPLETED a3.sources.r3.fileHeader true #忽略所有以.tmp 结尾的文件不上传 a3.sources.r3.ignorePattern ([^ ]*\.tmp)
# Describe the sink a3.sinks.k3.type hdfsa3.sinks.k3.hdfs.path hdfs://hurys23:8020/flume/upload/%Y%m%d/%H #上传文件的前缀 a3.sinks.k3.hdfs.filePrefix upload- #是否按照时间滚动文件夹 a3.sinks.k3.hdfs.round true #多少时间单位创建一个新的文件夹 a3.sinks.k3.hdfs.roundValue 1 #重新定义时间单位 a3.sinks.k3.hdfs.roundUnit hour #是否使用本地时间戳 a3.sinks.k3.hdfs.useLocalTimeStamp true #积攒多少个 Event 才 flush 到 HDFS 一次 a3.sinks.k3.hdfs.batchSize 100 #设置文件类型可支持压缩 a3.sinks.k3.hdfs.fileType DataStream #多久生成一个新的文件 a3.sinks.k3.hdfs.rollInterval 60 #设置每个文件的滚动大小大概是 128M a3.sinks.k3.hdfs.rollSize 134217700 #文件的滚动与 Event 数量无关 a3.sinks.k3.hdfs.rollCount 0
# Use a channel which buffers events in memory a3.channels.c3.type memory a3.channels.c3.capacity 1000 a3.channels.c3.transactionCapacity 100
# Bind the source and sink to the channel a3.sources.r3.channels c3 a3.sinks.k3.channel c3 注意
1、配置文件中的各项参数需要调式这里只是为了演示实现目的、打通路径即可实际在项目中操作时需要调试参数。
2、a3.sources.r3.spoolDir /opt/flume/upload 为监控的目录文件在Linux中的路径
3、a3.sinks.k3.hdfs.path hdfs://hurys23:8020/flume/upload/%Y%m%d/%H 为写入的HDFS文件路径
四、启动Flume任务文件
[roothurys23 flume190]# bin/flume-ng agent -n a3 -f /usr/local/hurys/dc_env/flume/flume190/conf/flume-dir-hdfs.conf 五、在Linux中被监控的目录文件夹创建新的文件
一到Linux目录文件下
[roothurys23 ~]# cd /opt/flume/upload/
[roothurys23 upload]# ll 总用量 0
二创建.txt文件 .log文件 .tmp文件
[roothurys23 upload]# touch atguigu.txt[roothurys23 upload]# touch atguigu.log[roothurys23 upload]# touch atguigu.tmp
三创建文件后ll查看文件状态
[roothurys23 upload]# ll 总用量 0 -rw-r--r-- 1 root root 0 12月 5 16:08 atguigu.log.COMPLETED -rw-r--r-- 1 root root 0 12月 5 16:08 atguigu.tmp -rw-r--r-- 1 root root 0 12月 5 16:08 atguigu.txt.COMPLETED
由于配置文件中忽略所有以.tmp 结尾的文件不上传因此除了atguigu.tmp没变之外其他文件名都变了
#忽略所有以.tmp 结尾的文件不上传 a3.sources.r3.ignorePattern ([^ ]*\.tmp)
六、Flume任务运行时写入的HDFS文件状况
一目前时间戳
2023/12/5 16时 二HDFS生成了20231205文件夹、16文件夹及其upload文件 七、关闭Flume任务
首先jps查看Flume任务然后直接kill程序
[roothurys23 conf]# jps
28385 NodeManager 27938 SecondaryNameNode 16642 RunJar 27496 NameNode 27657 DataNode16113 Application 16310 Jps 28215 ResourceManager[roothurys23 conf]# kill -9 16113 Flume实时采集Linux中的目录文件写入到HDFS的测试就先到这里后面有问题的话再更新
这种需求在实际项目中目前还没遇到过就算提前熟悉一下吧万一后面碰到呢