自己怎么给网站做优化,磁力蜘蛛搜索引擎,广汉有没有做网站建设公司,汕头站扩建1.官方设计
1.1.分配读取拆分
Source通常有两个核心的部件#xff1a;当前的Source接口就是用来创建SplitEnumerator和Reader的工厂类
SplitEnumerator: 分片发现和分配#xff08;分片即文件、分区等#xff09;#xff0c;目前只运行一次#xff08;应该可以重复调用…1.官方设计
1.1.分配读取拆分
Source通常有两个核心的部件当前的Source接口就是用来创建SplitEnumerator和Reader的工厂类
SplitEnumerator: 分片发现和分配分片即文件、分区等目前只运行一次应该可以重复调用运行Reader: 从分片读取数据可以是一系列有界数据也可以是多个并行无界数据源
1.2.批流统一
FileSource 有界SplitEnumerator一次性抓取目录下所有文件并分配 无界SplitEnumerator定期获取目录下的所有文件并只分配新文件KafkaSource 有界列出所有分区并获取每个分区的最新偏移量并将其作为“结束偏移量”附加到分片 无界列出所有分区并将LONG_MAX作为“结束偏移量”附加到每个分片 无界还支持发现新分区的功能
2.基本方法
基本接口为Sourceflink-core中
getBoundedness 数据源的有界性包括无界数据源这里也可以设置界限createReader 创建一个reader去读取分配的数据分片读取是无状态的createEnumerator 创建一个SplitEnumeratorSplitEnumerator是分割枚举器的接口功能是发现reader读取器的分片并分配restoreEnumerator 从checkpoint恢复SplitEnumeratorgetSplitSerializer 为分片创建序列化器getEnumeratorCheckpointSerializer 为SplitEnumerator的checkpoint创建序列化器
3.FileSource 以FileSource举例说明大部分实现实际在AbstractFileSource
3.1.getBoundedness 由continuousEnumerationSettings决定是否有界
public Boundedness getBoundedness() {return continuousEnumerationSettings null? Boundedness.BOUNDED: Boundedness.CONTINUOUS_UNBOUNDED;
}continuousEnumerationSettings有专门的接口设置monitorContinuously在FileSystemTableSource以及WordCount用例里有实现。FileSystemTableSource里方式就是配置source.monitor-interval用来周期性扫描文件目录
3.2.createEnumerator 上节的continuousEnumerationSettings在createSplitEnumerator接口当中使用createSplitEnumerator接口由createEnumerator调用用于产生SplitEnumerator
public SplitEnumeratorSplitT, PendingSplitsCheckpointSplitT createEnumerator(SplitEnumeratorContextSplitT enumContext) {final FileEnumerator enumerator enumeratorFactory.create();// read the initial set of splits (which is also the total set of splits for bounded// sources)final CollectionFileSourceSplit splits;try {// TODO - in the next cleanup pass, we should try to remove the need to wrap unchecked// heresplits enumerator.enumerateSplits(inputPaths, enumContext.currentParallelism());} catch (IOException e) {throw new FlinkRuntimeException(Could not enumerate file splits, e);}return createSplitEnumerator(enumContext, enumerator, splits, null);
}FileEnumerator 在构建FileSource的时候确定有两个实现 BlockSplittingRecursiveEnumerator、NonSplittingRecursiveEnumerator BlockSplittingRecursiveEnumerator用于文件能拆分的会拆分文件块 NonSplittingRecursiveEnumerator文件不能拆分每个文件作为一个splitsplits 目前关联FileSource是实现了NonSplittingRecursiveEnumerator最终封装成了一个FileSourceSplit的List列表这里的参数Parallelism接口里没有用
final String[] hosts getHostsFromBlockLocations(fs.getFileBlockLocations(file, 0L, file.getLen()));
target.add(new FileSourceSplit(getNextId(),file.getPath(),0,file.getLen(),file.getModificationTime(),file.getLen(),hosts));FileSplitAssigner split分配器FileSource使用的是LocalityAwareSplitAssigner 这里会有本地文件和远程文件的识别分配但实际使用的时候还是依赖于上层SplitEnumerator的调用会传入host 最终是由这个类返回一个FileSourceSplitSplitEnumerator 注意这里传入的参数alreadyProcessedPaths是null也就是说对于FileSource每次都是全量扫描 AbstractFileSource里用到了两个实现 StaticFileSplitEnumerator、ContinuousFileSplitEnumerator分别用于处理有界和无界文件流
3.3.createReader 创建一个阅读器FileSource的实例是FileSourceReader大部分功能在基础SourceReaderBase接口中实现了 读取的触发应该由SourceOperator的emitNext接口调用最终调用到SourceReaderBase的pollNext接口里面有一个死循环 这里有三层关系fetch - split - record一层一层获取 循环中有两个处理1、record列表有数据走flink的算子间的数据传输流程2、无数据则走读取split的流程split也是一批批读取的所以这里面包好了两个方法从当前的split读取数据和读取下一个split fetch的获取由SplitFetcherManager控制最终由FetchTask获取。有一个在各个对象之间传递的elementsQueue对象存储了fetch列表FetchTask会向它增加元素在SourceReaderBase当中读取
3.4.用法 在WordCount里有样例
FileSource.FileSourceBuilderString builder FileSource.forRecordStreamFormat(new TextLineInputFormat(), params.getInputs().get());// If a discovery interval is provided, the source will
// continuously watch the given directories for new files.
params.getDiscoveryInterval().ifPresent(builder::monitorContinuously);text env.fromSource(builder.build(), WatermarkStrategy.noWatermarks(), file-input);forRecordStreamFormat接口定义数据格式会在创建FileSourceReader的时候使用 monitorContinuously就是配置流式监控文件 最终是通过env封装成Source
4.SourceTransformation\SourceOperator Flink数据源的执行表现形式还是SourceOperator所以最终的执行触发还是在这个结构。算子层面Source的表现形式为SourceTransformation由SourceTransformation触发构建SourceOperator 原生的Source是SourceTransformation的一个成员
public SourceTransformation(String name,SourceOUT, SplitT, EnumChkT source,WatermarkStrategyOUT watermarkStrategy,TypeInformationOUT outputType,int parallelism) {super(name, outputType, parallelism);this.source source;this.watermarkStrategy watermarkStrategy;
}SourceOperator里有三个核心方法 emitNext是Operator的统一数据流转接口即处理一次数据的接口 open\initReaderopen里也调用了initReade主要都是为了做初始化
4.1.initReader 这里面主要是创建了SourceReaderContextSourceReaderContext里有两个重要的方法负责向Coordinator发送请求
Override
public void sendSplitRequest() {operatorEventGateway.sendEventToCoordinator(new RequestSplitEvent(getLocalHostName()));
}Override
public void sendSourceEventToCoordinator(SourceEvent event) {operatorEventGateway.sendEventToCoordinator(new SourceEventWrapper(event));
}4.2.open 核心是对Reader的三步操作1、初始化即上面的initReader方法2、注册即向Coordinator发送请求注册reader3、启动调用Reader的启动接口
4.3.emitNext 核心是通过SourceReader获取数据
// short circuit the hot path. Without this short circuit (READING handled in the
// switch/case) InputBenchmark.mapSink was showing a performance regression.
if (operatingMode OperatingMode.READING) {return convertToInternalStatus(sourceReader.pollNext(currentMainOutput));
}
return emitNextNotReading(output);5.ScanTableSource 关键接口是getScanRuntimeProvider有子类实现返回一个运行时数据读取器
6.相关类集合
Source - 帮助在运行时创建SplitEnumerator和SourceReader的工厂样式类。SourceSplit - 所有拆分类型的接口。SplitEnumerator - 发现拆分并将它们分配给SourceReadersSplitEnumeratorContext - 向SplitEnumerator提供必要的信息以分配拆分并将自定义事件发送到SourceReaders。SplitAssignment - 一个容器类其中包含每个子任务的源拆分分配。SourceReader - 从SplitEnumerator分配的拆分中读取记录。SourceReaderContext - 为SourceReader提供必要的功能以与SplitEnumerator通信。SourceOutput - 收集器样式接口用于获取SourceReader发出的记录和时间戳。WatermarkOutput -用于发出水印并指示源空闲的接口。Watermark - 将在包org.apache.flink.api.common.eventtime 中创建一个新的 Watermark 类。 该类最终将替换org.apache.flink.streaming.api.watermark 中现有的 Watermark。 此更改允许 flink-core 保持独立于其他模块。鉴于我们最终会将所有水印生成放入源中因此此更改将是必要的。请注意此 FLIP 并不打算更改水印在源发出后可以在 DataStream 中覆盖的现有方式。
7.SourceCoordinator