当前位置: 首页 > news >正文

学院的网站建设的er图怎么画怎么建设自己网站

学院的网站建设的er图怎么画,怎么建设自己网站,个人公众号怎么赚钱,第三方商城网站建设1.Flink原理#xff08;角色分工#xff09; 2.Flink执行流程 on yarn版#xff1a; 3.相关概念 1#xff09;DataFlow#xff1a;Flink程序在执行的时候会被映射成一个数据流模型#xff1b; 2#xff09;Operator#xff1a;数据流模型中的每一个操作被称作Operat…1.Flink原理角色分工 2.Flink执行流程 on yarn版 3.相关概念 1DataFlowFlink程序在执行的时候会被映射成一个数据流模型 2Operator数据流模型中的每一个操作被称作OperatorOperator分为SourceTransformSink 3Partition数据流模型是分布式和并行的执行中会形成1-n个分区 4Subtask多个分区任务可以并行每一个都是独立运行在一个线程中的也就是一个SubTask子任务 5Parallelism并行度就是可以同时真正执行的子任务数/分区数。 6Operator传递模式 6-1One to One模式两个operator用此模式传递的时候会保持数据的分区数和数据的排序类似于spark中的窄依赖多个one to one 的operator可以合并为一个operator chain。 6-2Redistributing模式此模式会改变数据的分区数类似于Spark中的宽依赖 7TaskSlot and Slot Sharing 7-1TaskSlot任务槽 每个TaskManager是一个JVM进程为了控制一个TaskManagerworker能接收多少taskFlink通过Task slot来进行控制。TaskSlot数量是用来限制一个TaskManager工作进程中可以同时运行多少个工作线程TaskSlot是一个TaskManager中的最小资源分配单位一个TaskManager中有多少个TaskSlot就意味着能支持多少并发的Task处理。 7-2Slot Sharing槽共享 前面的Task Slot跑完一些线程任务之后Task Slot可以给其他线程任务使用这就是槽共享这样的好处是可以避免线程的重复创建和销毁。 8ExecutionGraphFlink执行图 解释上图 流程化StreamGraph最初的程序执行逻辑也就是算子之间的前后顺序 ---- 在Client上生成 优化合并JobGraph将One to One的Operator合并为OperatorChain ---- 在Client上生成 并行化ExecutionGraph将JobGraph根据代码中设置的并行度和请求的资源进行并行化规划 ---- 在JobManager上生成 将任务分配给具体的TaskSlot执行---落实执行线程化物理执行图将ExecutionGraph的并行计划落实到具体的TaskManager上将具体的SubTask落实到具体的TaskSlot内进行运行。 4.Flink流批一体API 前置知识 { Flink把流分为 有边界的流bounded Stream批数据 无边界的流unbounded Steam真正的流数据 流计算和批计算对比 数据时效性流式计算实时批计算非实时高延迟 数据特征不同流式计算的数据一般是动态的没有边界的而批处理的数据一般则是静态数据。 应用场景不同流式计算应用在实时场景时效性要求比较高的场景如实时推荐业务监控等批处理应用在实时性要求不高离线计算的场景下数据分析离线报表等。 运行方式不同流式计算的任务持续进行的批量计算的任务则一次性完成。 } 4-1Source数据从哪来 File-based基于文件 env.readTextFile(本地/HDFS文件/文件夹); Socket-based基于Socket连接 env.socketTextStream(主机名,端口号); Collection-based基于集合 env.fromElemnts(); env.fromCollection(); env.generateSequence(); env.fromSequence(); Custom自定义 Flink还提供了数据源接口我们实现了这些接口就可以实现自定义数据源获取数据不同接口有不同的功能接口如下 SourceFunction非并行数据源并行度1 RichSourceFunction多功能非并行数据源并行度1 ParallelSourceFunction并行数据源并行度可以 1 RichParallelSourceFunction多功能并行数据源并行度可以 1--- kafka数据源就使用该接口 --------------------------------------------------------------------------------------------------------------------------------- 4-2Transformation数据做怎样的操作处理 Transformation基本操作 mapj将函数作用在集合中的每一个元素上并返回作用后的结果。 flat Map将集合中的每个元素变成一个或者多个元素并返回扁平化之后的结果 keyBy按照指定的key来对流中的数据进行分组。注意流中没有groupBy而是keyBy filter按照指定的条件对集合中的元素进行过滤过滤出返回true/符合条件的元素 sum按照指定的字段对集合中的元素进行求和 reduce对集合中的元素进行聚合 Transformation合并和拆分 unionunion算子可以合并多个同类型的数据流并生成同类型的数据流即可以将多个DataStream[T]合并成为一个新的DataStream[T]。数据按照先进先出FIFO的模式合并。 connect 和union类似用来连接两个数据流区别在于connect只可以连接两个数据流union可以连接多个connect所连接的两个数据流的数据类型可以不一样unions所连接的两个数据流的数据类型必须一样 split已废除selectside output split就是将一个流分成多个流 select就是获取分流后对应的数据 side output可以使用process方法对流中的数据进行处理并针对不同的处理结果将数据收集到不同的OuputTag中。 rebalance重平衡分区 类似于Spark中的repartition算子功能更强可以直接解决数据倾斜Flink也有数据倾斜的情况如下图在内部使用round robin方法将数据均匀打散。 其他分区API dataStream.global(); 全部发往第一个Task dataStream.broadcast(); 广播 dataStream.forward(); 上下游并发度一样时一对一发送 dataStream.shuffle(); 随即均匀分配 dataStream.rebalance(); 轮流分配 dataStream.recale(); 本地轮流分配 dataStream.partitionCustom(); 自定义单播 --------------------------------------------------------------------------------------------------------------------------------  4-3Sink数据做怎样的输出 基于控制台和文件的Sink ds.print(); 直接输出到控制台 ds.printErr(); 直接输出到控制台用红色 ds.writeAsText().setParallelism(); 以多少并行度输出到某个文件路径  自定义的Sink。 -------------------------------------------------------------------------------------------------------------------------------- 4-4Connectors连接外部的工具 Connectors-JDBC Flink内已经提供了一些绑定的Connector例如Kafka source和sinkEs sink等。读写KafkaesrabiitMQ时可以直接使用相应的connector的API就可以了。 同样Flink内也提供了专门操作redis的RedisSink。查询接口文档使用就行了。 5.Flink高级API Flink四大基石 Flink流行的原因就是这四大基石CheckPointStateTimeWindow。 a.Flink-Windows操作 使用场景在流式处理中数据是源源不断的有时候我们需要做一些聚合类的处理。例如在过去一分钟内有多少用户点击了网页。此时我们可以定义一个窗口/window用来收集1分钟内的数据并对这个窗口内的数据进行计算。 Flink支持按照 用的多时间time每xx分钟统计最近xx分钟的数据 数量count每xx个数据统计最近xx个数据 两种类型的窗口形式 按照窗口的形式进行组合有四种窗口 基于时间的滑动窗口基于时间的滚动窗口基于数量的滑动窗口基于数量的滚动窗口。 --------------------------------------------------------------------------------------------------------------------------------- b.Flink-Time和Watermark 在Flink的流式处理中会涉及到时间的不同概念 事件时间EventTime事件真真正正发生/产生的时间重点关注事件时间 摄入时间IngestionTime事件到达Flink的事件 处理时间ProcessingTime事件真正被处理/计算的时间 事件时间能够真正反映/代表事件的本质所以一般在实际开发中会以事件时间作为计算标准。 总结 实际开发中我们希望基于事件时间来处理数据但因为数据可能因为网络延迟等原因出现了乱序或延迟到达那么可能处理的结果不是我们想要的甚至出现数据丢失的情况所以需要一种机制来解决一定程度上的数据乱序或延迟到底的问题!也就是Watermaker水印机制/水位线机制。 什么是Watermark 就是给数据额外的加的一个时间列也就是个时间戳。 Watermark 当前窗口的最大事件事件 - 最大允许的延迟时间或者乱序时间 这样可以保证Watermaker水位线会一直上升变大不会下降。 Watermark的作用用来触发窗口计算通过改变触发窗口计算的时机从而在一定程度上解决数据乱序的问题。 --------------------------------------------------------------------------------------------------------------------------------- c.Fink-状态管理 Flink支持状态的自动管理。在绝大多数情况下使用Flink提供的自动管理就行了极少数使用手动的状态管理。 无状态计算是什么意思就是不需要考虑历史的数据相同的输入得到相同的输出。 有状态计算Flink有自动状态管理了就少手动去维护状态管理了吧就是要考虑历史的数据相同而输入不一定得到相同的输出。 --------------------------------------------------------------------------------------------------------------------------------- d.Flink-容错机制 State和CheckPoint的区别 State 维护/存储的是某一个Operator的运行的状态/历史值,是维护在内存中! 一般指一个具体的Operator的状态(operator的状态表示一些算子在运行的过程中会产生的一些历史结果如前面的maxBy底层会维护当前的最大值,也就是会维护一个keyedOperator,这个State里面存放就是maxBy这个Operator中的最大值) CheckPoint 某一时刻,Flink中所有的Operator的当前State的全局快照,一般存在磁盘上一般放HDFS上。 表示了一个Flink Job在一个特定时刻的一份全局状态快照即包含了所有Operator的状态可以理解为Checkpoint是把State数据定时持久化存储了。 比如KafkaConsumer算子中维护的Offset状态,当任务重新恢复的时候可以从Checkpoint中获取。 6.状态恢复和重启策略 重启策略分类 默认重启策略配置了Checkpoint的情况下不做任务配置默认是无限重启并自动恢复可以解决小问题但是可能会隐藏掉真正的bug。 无重启策略使用API配置不重启即可。 固定延迟重启策略开发中使用调用API配置固定时间or多少次数重启 失败率重启策略开发偶尔使用调用API可以选择每个测量阶段内最大失败次数失败率测量的时间间隔两次连续重启的时间间隔来重启。 7.SavePoint本质就是手动的CheckPoint 实际开发中如果要对集群进行停机维护/扩容这个时候需要执行一次SavePoint也就是执行一次手动的CheckPoint那么这样的话程序所有的状态都会被执行快照并保存。当扩容/维护完毕后可以从上一次的checkpoint的目录中恢复。 8.Flink Table API 和 SQL重点 和HiveSpark SQL一样Flink也选择用SQL语言来进行业务程序的编写为什么 因为JavaScala等开发语言难度较高SQL语言简单能迅速上手因此Flink也是将Flink Table API SQL作为未来的核心API。 Flink Table API SQL的特点 声明式 --- 用户只关心做什么不用关心怎么去做 高性能 --- 支持查询优化可以获取更好的执行性能 流批统一 --- 相同的统计逻辑既可以支持流模式运行也可以支持批模式运行 标准稳定 --- 语音遵循SQL标准不易变动 易理解 --- 语义明确所见即所得 9.动态表和连续查询 动态表就是源源不断地数据不断地添加到表的末尾 连续查询连续查询需要借助state状态管理 10.Spark vs Flink 1应用场景 Spark主要做离线批处理对延时要求不高的实时处理微批 Flink主要用于实时处理Flink 1.12支持流批一体 2API上 SparkRDD不推荐/ DSteam不推荐/  DataFrame和DataSet FlinkDataSet软弃用和DataSteam / Tabel API SQL 3核心角色和原理 Spark Flink 4时间机制 SparkSparkSteaming只支持处理时间StructuredSteaming开始支持事件时间 Flink直接支持事件时间/处理时间/摄入时间 5容错机制 Spark缓存/ 持久化 checkpoint应用级别 FlinkState CheckPointOperator级别颗粒度更小 自动重启策略 SavePoint 6窗口 Spark中支持时间数量的滑动和滚动窗口要求windowDuration和SlideDuration必须是batchDuration的倍数 Flink中的窗口机制更加灵活/功能更多支持基于时间/数量的滑动/滚动 和 会话窗口 Flink保姆级教程超全五万字学习与面试收藏这一篇就够了_flink 教程-CSDN博客
http://www.pierceye.com/news/573062/

相关文章:

  • 做关于什么的网站莆田网站建设解决方案
  • 湖南长沙做网站那些网站可以做反链
  • 成都金牛网站建设公司高端网站配色
  • 做喜报的网站设计师的工作内容
  • 济南网站建设工作wordpress 资讯
  • 网站调用数据库平台公司名单
  • 移动网站怎么做成都设计公司名字
  • 杭州最好的网站设计公司服务器域名解析
  • 做试用网站的原理塘沽网吧开门了吗
  • 网站域名的作用古典网站源码
  • 做直播网站软件有哪些软件涿州网站建设有限公司
  • 易托管建站工具wordpress多个single
  • 建一个电影网站多大 数据库半厘米wordpress
  • 住房和建设厅网站首页网站源码怎么写
  • 宁波新亚建设公司网站简单网站建设
  • 做网站没赚到钱网站后台地址忘记了
  • 备案网站公共查询安阳县
  • wordpress 超级管理员seo优化网络公司
  • 商务推广网站宝塔做网站
  • 我想建一个网站怎么建python做的大型网站
  • 为网站设计手机版wordpress怎样比较安全
  • 网站优化方式重庆建设网站哪家专业
  • php做网站基本流程旅游网站论文
  • 网站前期准备网页制作需要学多久
  • 广园路建设公司网站建app网站要多少钱
  • 网站域名是什么东西wordpress农历插件
  • 专业网站建设公司首选公司wordpress fruitful
  • 微博wap版登录入口seo 网站标题长度
  • 网站面包屑导航设计即位置导航局域网安装wordpress
  • 泰安网站建设xtempire国家开放大学网站界面设计