当前位置: 首页 > news >正文

百度一下就知道了官网榡山东进一步优化

百度一下就知道了官网榡,山东进一步优化,wordpress导入文件,wordpress 如何修改关于我们1.Flume是什么#xff1a;Flume是Cloudera提供的一个高可用的#xff0c;高可靠的#xff0c;分布式的海量日志采集、聚合和传输的系统。Flume基于流式架构#xff0c;灵活简单。 Flume组成架构 下面我们来详细介绍一下Flume架构中的组件。 1#xff09; Agent#xff1…1.Flume是什么Flume是Cloudera提供的一个高可用的高可靠的分布式的海量日志采集、聚合和传输的系统。Flume基于流式架构灵活简单。 Flume组成架构 下面我们来详细介绍一下Flume架构中的组件。 1 Agent 是一个jvm程序它以事件的形式将数据从源头送至目的地是Flume数据传输的基本单元 Agent 主要有三个部分组成Source、Channel、Sinl 2 Source Source是负责接收数据到Flume Agent的组建。Source组建可以处理各种类型、各种格式的日志数据包括avro、thirft、exec、jms、spooling directory、netcat、sequence generator、syslog、http、legacy。 3 Channel Channel是位于Source和Sink之间的缓冲器 因此Channel允许SOurce和Sink运作在不同的速率上。Channel是线程安全的可以同时处理几个Source的写入操作和几个Sink的读取操作 Flume自带两种ChannelMemory Channel 和FIle Channel。 Memory Channel是内存中的队列。Memory Channel在不需要关系数据丢失的情况下适合用。如果需要关系数据丢失那么Memory Channel就不应该使用因为程序死亡、机器宕机货值重启都会导致数据丢失。 File Channel 将所有事件写到磁盘。因此在程序关系货值机器宕机的情况下不会丢失数据。 4 Sink Sink 不断地轮询Channel中的事件且批量地移除他们并将这些事件批量写入到存储或索引系统、或者被发送到另一个Flume Agent。 Sink是完全事务性的。在从Channel批量删除数据之间每个Sink用Channel启动一个事务。批量事件一旦成功写出到存储系统或下一个Flume AgentSink就利用Channel提交事务。事务一旦被提交该Channel从自己的内部缓冲区删除事件。 Sink组建目的地包括hdfs、logger、avro、thrift、ipc、file、null、Hbase、solr、自定义。 Event拓扑结构 Flume的拓扑结构如图 Flume Agent连接 单source多channel、sink Flume负载均衡 Flume Agent聚合 Flume Agent内部原理 Flume安装 1) 官网 2) 文档查看地址 3) 下载地址 安装部署 1将apache-flume-1.9.0-bin.tar.gz上传到linux的/usr/local/目录下 2解压apache-flume-1.9.0-bin.tar.gz到/usr/local/目录下 $ tar -zxf apache-flume-1.9.0-bin.tar.gz -C /usr/local/3修改apache-flume-1.9.0-bin的名称为flume $ mv apache-flume-1.9.0-bin flume4将flume/conf下的flume-env.sh.template文件修改为flume-env.sh并配置flume-env.sh文件 $ mv flume-env.sh.template flume-env.sh $ vi flume-env.sh export JAVA_HOME/home/hduser/software/jdk1.8.0_221案例 1 首先Flume监控本机44444端口然后通过telnet工具向本机44444端口发送消息最后Flume将监听的数据实时显示在控制台 需求分析 3实现步骤 安装telnet工具 检查是否已经安装telnet rpm -qa | grep telnet如果什么都没有就是没有安装接着下一步吧。 安装telnet及telnet-server注意需要root权限来安装。好像需要先按照server yum install telnet-server -y yum install telnet -y因为装好telnet服务之后默认是不开启服务的下面我们需要修改文件来开启服务。 注意centos7的telnet配置文件是/etc/xinetd.conf。centos7以前的是/etc/xinetd.d/telnet vim /etc/xinetd.d/telnet修改 disable yes 为 disable no 需要激活xinetd服务 systemctl start xinetd.service让xinetd开机自启 systemctl enable xinetd.service启动telnet服务 systemctl restart telnet.socket 设置让telnet服务开机自启 systemctl enable telnet.socket测试telnet是否成功开启 telnet localhost判断44444端口是否被占用 sudo netstat -tunlp | grep 44444 功能描述netstat命令是一个监控TCP/IP网络的非常有用的工具它可以显示路由表、实际的网络连接以及每一个网络接口设 备的状态信息。 基本语法netstat [选项] 选项参数-t或--tcp显示TCP传输协议的连线状况 -u或--udp显示UDP传输协议的连线状况-n或--numeric直接使用ip地址而不通过域名服务器 -l或--listening显示监控中的服务器的Socket -p或--programs显示正在使用Socket的程序识别码和程序名称创建Flume Agent配置文件flume-telnet-logger.conf 在flume目录下创建job文件夹并进入job文件夹 mkdir jobconf cd jobconf/在job文件夹下创建Flume Agent配置文件flume-telnet-logger.conf touch flume-telnet-logger.conf在flume-telnet-logger.conf文件中添加如下内容。 vim flume-telnet-logger.conf添加内容如下 # Name the components on this agent a1.sources r1 a1.sinks k1 a1.channels c1# Describe/configure the source a1.sources.r1.type netcat a1.sources.r1.bind localhost a1.sources.r1.port 44444# Describe the sink a1.sinks.k1.type logger# Use a channel which buffers events in memory a1.channels.c1.type memory a1.channels.c1.capacity 1000 a1.channels.c1.transactionCapacity 100# Bind the source and sink to the channel a1.sources.r1.channels c1 a1.sinks.k1.channel c1运行 先开启flume监听端口 bin/flume-ng agent --conf conf/ --name a1 --conf-file jobconf/flume-telnet-logger.conf -Dflume.root.loggerINFO,console参数说明 –conf conf/ 表示配置文件存储在conf/目录 –name a1 表示给agent起名为a1 –conf-file job/flume-telnet.conf flume本次启动读取的配置文件是在job文件夹下的flume-telnet.conf文件。 -Dflume.root.loggerINFO,console -D表示flume运行时动态修改flume.root.logger参数属性值并将控制台日志打印级别设置为INFO级别。日志级别包括:log、info、warn、error。 使用telnet工具向本机的44444端口发送内容 telnet localhost 44444在Flume监听页面观察接收数据情况 案例 2实时读取本地文件到HDFS案例 1Flume要想将数据输出到HDFS必须持有Hadoop相关jar包 将 commons-configuration-1.6.jar、 hadoop-auth-2.7.2.jar、 hadoop-common-2.7.2.jar、 hadoop-hdfs-2.7.2.jar、 commons-io-2.4.jar、 htrace-core-3.1.0-incubating.jar拷贝到/opt/module/flume/lib文件夹下。 2创建flume-file-hdfs.conf文件 创建文件 touch flume-file-hdfs.conf注要想读取Linux系统中的文件就得按照Linux命令的规则执行命令。由于Hive日志在Linux系统中所以读取文件的类型选择exec即execute执行的意思。表示执行Linux命令来读取文件。 vim flume-file-hdfs.conf添加如下内容 # Name the components on this agent a2.sources r2 a2.sinks k2 a2.channels c2# Describe/configure the source a2.sources.r2.type exec a2.sources.r2.command tail -F /udr/local/hive/logs/hive.log a2.sources.r2.shell /bin/bash -c# Describe the sink a2.sinks.k2.type hdfs a2.sinks.k2.hdfs.path hdfs://chun1:9000/flume/%Y%m%d/%H #上传文件的前缀 a2.sinks.k2.hdfs.filePrefix logs- #是否按照时间滚动文件夹 a2.sinks.k2.hdfs.round true #多少时间单位创建一个新的文件夹 a2.sinks.k2.hdfs.roundValue 1 #重新定义时间单位 a2.sinks.k2.hdfs.roundUnit hour #是否使用本地时间戳 a2.sinks.k2.hdfs.useLocalTimeStamp true #积攒多少个Event才flush到HDFS一次 a2.sinks.k2.hdfs.batchSize 1000 #设置文件类型可支持压缩 a2.sinks.k2.hdfs.fileType DataStream #多久生成一个新的文件 a2.sinks.k2.hdfs.rollInterval 600 #设置每个文件的滚动大小 a2.sinks.k2.hdfs.rollSize 134217700 #文件的滚动与Event数量无关 a2.sinks.k2.hdfs.rollCount 0 #最小冗余数 a2.sinks.k2.hdfs.minBlockReplicas 1# Use a channel which buffers events in memory a2.channels.c2.type memory a2.channels.c2.capacity 1000 a2.channels.c2.transactionCapacity 100# Bind the source and sink to the channel a2.sources.r2.channels c2 a2.sinks.k2.channel c23执行监控配置 bin/flume-ng agent --conf conf/ --name a2 --conf-file job/flume-file-hdfs.conf4开启Hadoop和Hive并操作Hive产生日志 sbin/start-dfs.sh sbin/start-yarn.sh bin/hive hive 5在HDFS上查看文件。 案例3 实时读取目录文件到HDFS案例 使用Flume监听整个目录的文件 3实现步骤 1创建配置文件flume-dir-hdfs.conf 创建一个文件 touch flume-dir-hdfs.conf打开文件 vim flume-dir-hdfs.conf添加如下内容 a3.sources r3 a3.sinks k3 a3.channels c3# Describe/configure the source a3.sources.r3.type spooldir a3.sources.r3.spoolDir /usr/local/flume-1.9.0/jobconf/upload a3.sources.r3.fileSuffix .COMPLETED a3.sources.r3.fileHeader true #忽略所有以.tmp结尾的文件不上传 a3.sources.r3.ignorePattern ([^ ]*\.tmp)# Describe the sink a3.sinks.k3.type hdfs a3.sinks.k3.hdfs.path hdfs://hadoop102:9000/flume/upload/%Y%m%d/%H #上传文件的前缀 a3.sinks.k3.hdfs.filePrefix upload- #是否按照时间滚动文件夹 a3.sinks.k3.hdfs.round true #多少时间单位创建一个新的文件夹 a3.sinks.k3.hdfs.roundValue 1 #重新定义时间单位 a3.sinks.k3.hdfs.roundUnit minute #是否使用本地时间戳 a3.sinks.k3.hdfs.useLocalTimeStamp true #积攒多少个Event才flush到HDFS一次 a3.sinks.k3.hdfs.batchSize 100 #设置文件类型可支持压缩 a3.sinks.k3.hdfs.fileType DataStream #多久生成一个新的文件 a3.sinks.k3.hdfs.rollInterval 600 #设置每个文件的滚动大小大概是128M a3.sinks.k3.hdfs.rollSize 134217700 #文件的滚动与Event数量无关 a3.sinks.k3.hdfs.rollCount 0 #最小冗余数 a3.sinks.k3.hdfs.minBlockReplicas 1# Use a channel which buffers events in memory a3.channels.c3.type memory a3.channels.c3.capacity 1000 a3.channels.c3.transactionCapacity 100# Bind the source and sink to the channel a3.sources.r3.channels c3 a3.sinks.k3.channel c32. 启动监控文件夹命令 bin/flume-ng agent --conf conf/ --name a3 --conf-file job/flume-dir-hdfs.conf说明 在使用Spooling Directory Source时 1)不要在监控目录中创建并持续修改文件 2)上传完成的文件会以.COMPLETED结尾 3)被监控文件夹每500毫秒扫描一次文件变动 3. 向upload文件夹中添加文件 在/opt/module/flume目录下创建upload文件夹 mkdir upload向upload文件夹中添加文件 touch atguigu.txt touch atguigu.tmp touch atguigu.log4. 查看HDFS上的数据
http://www.pierceye.com/news/850313/

相关文章:

  • 公司网站建设收费优化网站排名解析推广
  • 昆明快速建站模板汽车网站建设多少钱
  • 网站注销主体注销广州联享网站建设公司怎么样
  • 中山seo建站新手建站教程报价单
  • 台州制作网站软件陈坤做直播在哪个网站
  • 北湖区网站建设公司企业主题wordpress 含演示数据
  • 网站建设简历自我评价做招聘信息的网站有哪些内容
  • 怎么和其它网站做友情链接网络营销师证怎么考
  • 百度推广要自己做网站吗做的视频传到哪个网站好
  • 个人建设门户网站 如何备案网站推广服务报价表
  • 广州企业网站建设哪家服务好西安家政公司网站建设
  • 住房与城乡建设部网站 黑龙江wordpress 采集系统
  • 阜阳网站建设云平台玉溪建设局门户网站
  • 网站建设什么原因最主要怎么制作网站首页
  • 网站建设深圳赶集网网页设计工程师工资
  • 哪家企业网站建设好闵行区网站制作
  • 重庆行业网站建设陕西省建设监理协会查询官方网站
  • 手机网站 尺寸网站规划的认识
  • 永川网站制作联系电话wordpress 参数 传递
  • 西宁市网站建设高端网站开发人员要求
  • 前端做商城网站需要多久yum wordpress
  • 便宜网站建设成都免费建网站视频教程
  • 班级网站自助建设功能没有充值入口的传奇
  • 杭州网站seo免费网站建设
  • 好看的网站设计网站开发龙岗网站建设
  • 物流如何做网站wordpress qq互联插件
  • 权威发布李建济南做seo排名
  • 六安网站建设 220广州安尔捷做的网站好吗
  • 企业网站写好如何发布wordpress免插件生成地图
  • 公司 网站 苏州链接下载