当前位置: 首页 > news >正文

网站开发与管理的专业描述深圳网站制作公司平台

网站开发与管理的专业描述,深圳网站制作公司平台,标准化建设考评网站,台州免费自助建站模板【README】 本文记录了 kafka生产者开发方式#xff1b; 【1】生产者概览 【1.1】kafka发送消息过程 【1.2】创建kafka生产者 1#xff09;创建kafka生产者#xff0c; 有3个必选属性#xff1a; bootstrap.servers#xff1a; kakfa集群节点地址#xff1b;key.seri…【README】 本文记录了 kafka生产者开发方式 【1】生产者概览 【1.1】kafka发送消息过程 【1.2】创建kafka生产者 1创建kafka生产者 有3个必选属性 bootstrap.servers kakfa集群节点地址key.serializer 键序列化器value.serializer值序列化器 /* 1.创建kafka生产者的配置信息 */ Properties props new Properties(); /* 指定连接的kafka集群, broker-list */ props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, centos201:9092); /* key, value 的序列化类 */ props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName()); props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName()); /** 设置压缩算法 */ props.put(ProducerConfig.COMPRESSION_TYPE_CONFIG, snappy);/* 2.创建生产者对象 */ KafkaProducerString, String producer new KafkaProducer(props); 【2】发送消息到kafka 1发送消息有3种方式 发送并忘记把消息发送给服务器不管它是否到达同步发送调用send()方法 返回一个Future对象调用其get() 方法进入阻塞服务器响应时阻塞线程被唤醒并获得消息写入的元数据异步发送调用send() 方法并指定一个回调函数服务器在响应是调用该函数 【2.1】同步发送 /*** Description 同步发送生产者* author xiao tang* version 1.0.0* createTime 2021年12月09日*/ public class MyProducerSync {public static void main(String[] args) {// 1.创建kafka生产者的配置信息Properties props new Properties();// 指定连接的kafka集群, broker-listprops.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, 192.168.163.201:9092,192.168.163.202:9092,192.168.163.203:9092);// key, value 的序列化类props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());// 2.创建生产者对象KafkaProducerString, String producer new KafkaProducer(props);// 3.发送数据FutureRecordMetadata future producer.send(new ProducerRecordString, String(hello10,k1, v1));try {// 当前线程阻塞直到kafka响应返回写入消息的元数据RecordMetadata respMetadata future.get();System.out.println([生产者写入消息] 分区【 respMetadata.partition() 】-offset【 respMetadata.offset() 】);} catch (Exception e) {}// 关闭生产者producer.close();System.out.println(kafka生产者写入数据完成);} } kafka生产者一般发生两类错误 可重试错误如连接错误通过再次建立连接来解决无主错误通过重新分区选举首领解决不可重试错误如消息太大错误 【2.2】异步发送消息 带回调函数 /*** Description 【异步】发送生产者* author xiao tang* version 1.0.0* createTime 2021年12月09日*/ public class MyProducerAsync {public static void main(String[] args) {// 1.创建kafka生产者的配置信息Properties props new Properties();// 指定连接的kafka集群, broker-listprops.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, 192.168.163.201:9092,192.168.163.202:9092,192.168.163.203:9092);// key, value 的序列化类props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());// 2.创建生产者对象KafkaProducerString, String producer new KafkaProducer(props);// 3.发送数据producer.send(new ProducerRecordString, String(hello10,k1, v1), new MyProducerCallback());// 关闭生产者producer.close();System.out.println(kafka生产者写入数据完成);}/*** Description 生产者发送消息后回调类* author xiao tang* version 1.0.0* createTime 2021年12月09日*/private static class MyProducerCallback implements Callback {// kafka服务器响应时回调方法Overridepublic void onCompletion(RecordMetadata metadata, Exception exception) {if (exception null) {System.out.println([生产者写入消息成功] 分区【 metadata.partition() 】-offset【 metadata.offset() 】);} else {System.out.printf(写入kafka失败异常信息【%s】, exception);}}} } 【2.3】生产者配置 1acks 有3个可选项表示生产者消息被认为写入成功时需要写入的副本个数 0无需判断只要把消息发送出去就认为成功1仅首领副本all所有副本 2buffer.memory 设置生产者内存缓冲区大小用于缓冲发送到服务器的消息 若缓冲区不足send() 方法要么阻塞要么抛出异常取决于如何设置  max.block.ms 参数抛出异常前可以阻塞一段时间 3compression.type 压缩算法 默认不压缩可选压缩算法包括 snappy, gzip lz4 使用压缩可以降低网络传输开销和存储开销这是 kafka发送消息的瓶颈所在  4retries 发送消息失败时生产者可以重试的次数 如果达到这个次数生产者会放弃重试并返回错误 默认情况下生产者会在每次重试之间等待 100ms通过 retry.backoff.ms  参数来改变这个时间间隔一般情况下没必须处理可重试错误。但需要处理不可重试错误或重试次数超过上限的情况 5batch.size  生产者把多个消息放在同一个批次里该参数指定了一个批次可以使用的内存大小单位字节不过生产者不一定等到批次被填满才发送参考 linger.ms 6linger.ms指定生产者在发送批次前等待更多消息加入批次的时间 生产者会在批次填满或linger.ms 达到上限时把批次发送出去 建议把linger.ms 设置为大于0的数虽然增加了延时但提高了吞吐量 7client.id 任意字符串服务器用它识别消息来源还可以用在 日志和配额指标里 8max.in.flight.requests.per.connection 指定生产者在收到服务器响应前可以发送多少个消息 把它设置为1可以保证消息是按照顺序写入服务器的即使发生了重试 9timeout.ms  , request.timeout.ms 和 metadata.fetch.timeout.ms request.timeout.ms 指定了生产者在发送数据时等待服务器返回响应的时间metadata.fetch.timeout.ms  指定了生产者在获取元数据时等待服务器返回响应时间若等待超时要么重试要么抛出异常timeout.ms指定了broker等待同步副本返回消息确认的时间 与 acks 相匹配 10max.block.ms send() 方法或使用 partitionFor() 获取元数据时生产者的阻塞时间 当生产者发送缓冲区已满或没有可用的元数据这些方法就会阻塞在阻塞时间达到 该值时生产者抛出超时异常 11max.request.size 指定生产者发送的请求大小 可以指单个消息的最大值也可以指单个请求所有消息总大小如一批多个消息但走了一个请求注意 broker对可接受的消息最大值有自己的限制通过 message.max.bytes 指定  12receive.buffer.bytes 和 send.buffer.bytes 分别指定 TCP socket接收和发送数据包的缓冲区大小 如果设置为-1使用操作系统默认值【2.4】生产者常用配置代码示例 public class MyProducer {public static void main(String[] args) {/* 1.创建kafka生产者的配置信息 */Properties props new Properties();/*2.指定连接的kafka集群, broker-list */props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, centos201:9092);/*3.ack应答级别*/props.put(ProducerConfig.ACKS_CONFIG, all);/*4.重试次数*/props.put(ProducerConfig.RETRIES_CONFIG, 0);/*5.批次大小一次发送多少数据当数据大于16k生产者会发送数据到 kafka集群 */props.put(ProducerConfig.BATCH_SIZE_CONFIG, 16 * KfkNumConst._1K);/*6.等待时间 等待时间超过1毫秒即便数据没有大于16k 也会写数据到kafka集群 */props.put(ProducerConfig.LINGER_MS_CONFIG, 1);// 超时时间props.put(ProducerConfig.REQUEST_TIMEOUT_MS_CONFIG, 3000);props.put(ProducerConfig.MAX_BLOCK_MS_CONFIG, 3000);/*7. RecordAccumulator 缓冲区大小*/props.put(ProducerConfig.BUFFER_MEMORY_CONFIG, 32 * KfkNumConst._1M);/*8. key, value 的序列化类 */props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());/** 设置压缩算法 */props.put(ProducerConfig.COMPRESSION_TYPE_CONFIG, snappy);System.out.println(props);/* 9.创建生产者对象 */KafkaProducerString, String producer new KafkaProducer(props);/* 10.发送数据 */String now DateUtils.getNowTimestamp();int order 1;for (int i 0; i 50000; i) {for (int j 0; j 3; j) {FutureRecordMetadata future producer.send(new ProducerRecordString, String(hello10,j, , String.format([%s] , order) now DataFactory.INSTANCE.genChar(5)));try {System.out.println([生产者] 分区【 future.get().partition() 】-offset【 future.get().offset() 】);} catch (Exception e) {}}}/* 11.关闭资源 */producer.close();System.out.println(kafka生产者写入数据完成);} } 【3】分区 1使用消息的键来做hash以hash值作为分区号 2如果键为null则使用默认分区器默认使用 轮询Round Robin算法把消息均衡分布到各个分区上  【3.1】实现自定义分区策略 /*** Description 自定义分区策略的生产者* author xiao tang* version 1.0.0* createTime 2021年12月09日*/ public class MyProducerWithPartition {public static void main(String[] args) {// 1.创建kafka生产者的配置信息Properties props new Properties();// 指定连接的kafka集群, broker-listprops.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, 192.168.163.201:9092,192.168.163.202:9092,192.168.163.203:9092);// key, value 的序列化类props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());// 设置分区器props.put(ProducerConfig.PARTITIONER_CLASS_CONFIG, MyPartitioner.class.getName());// 2.创建生产者对象KafkaProducerString, String producer new KafkaProducer(props);// 3.发送数据FutureRecordMetadata future producer.send(new ProducerRecordString, String(hello10,31, v1));try {// 当前线程阻塞直到kafka响应返回写入消息的元数据RecordMetadata respMetadata future.get();System.out.println([生产者写入消息] 分区【 respMetadata.partition() 】-offset【 respMetadata.offset() 】);} catch (Exception e) {}// 关闭生产者producer.close();System.out.println(kafka生产者写入数据完成);} } 分区器  /*** Description 分区器* author xiao tang* version 1.0.0* createTime 2021年12月09日*/ public class MyPartitioner implements Partitioner {// 对键首位字符ascii取分区数的模获得分区号Overridepublic int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) {int partitionSize cluster.partitionCountForTopic(topic);int operand 0;if (key ! null String.valueOf(key).length() 0) {operand String.valueOf(key).codePointAt(0);}return operand % partitionSize;}Overridepublic void close() {}Overridepublic void configure(MapString, ? configs) {} } 【4】拦截器 定义拦截器设置拦截器属性可配置多个拦截器 /** 设置拦截器 */ props.put(ProducerConfig.INTERCEPTOR_CLASSES_CONFIG, Arrays.asList(TimeInterceptor.class.getName())); /*** Description 时间拦截器* author xiao tang* version 1.0.0* createTime 2021年12月10日*/ public class TimeInterceptor implements ProducerInterceptorString, String {Overridepublic ProducerRecordString, String onSend(ProducerRecordString, String record) {// 在消息被序列化以及计算分区前调用 追加时间戳偷梁换柱return new ProducerRecord(record.topic(), record.partition(), record.key(), record.value() [TimeInterceptor] DateUtils.getNowTimestamp());}Overridepublic void onAcknowledgement(RecordMetadata metadata, Exception exception) {// 在消息从 RecordAccumulator 成功发送到Kafka Broker之后或者在发送过程中失败时调用// 写入数据库}Overridepublic void close() {}Overridepublic void configure(MapString, ? configs) {} } 消费消息日志 消费者-分区【0】offset【7774】 - 2021-12-10 21:05:32--[1]  ABCDE[TimeInterceptor]2021-12-10 21:05:30 消费者-分区【1】offset【7644】 - 2021-12-10 21:05:32--[2]  ABCDE[TimeInterceptor]2021-12-10 21:05:32 消费者-分区【2】offset【7626】 - 2021-12-10 21:05:32--[3]  ABCDE[TimeInterceptor]2021-12-10 21:05:32
http://www.pierceye.com/news/889644/

相关文章:

  • 网站内容不被收录企业网站制作的市场
  • 个人网站 jsp 域名空间电商线上推广
  • 网站开发实战视频教程西安网站建设定
  • 有没有99块钱做网站邢台做网站的公司哪家好?
  • 物流网站设计与实现制作公司内部募捐网站
  • 新西兰注册公司做网站局域网网站
  • 做外贸要开通哪个网站网站建设模板
  • 广州专业做网站的科技公司维度网络做网站
  • l建设银行网站怎么注册网站
  • 网站设计多少钱wordpress调用菜单代码
  • 成都p2p网站建设手机网站和app有什么区别
  • 人像摄影作品网站怎么做多个网站单点登录
  • 企业网站设计推广方案外贸seo优化方法
  • 广州网站推广找哪家西安网站制作定制
  • 各大招聘网站上海网页制作方法
  • 舟山建设信息港门户网站网站用途及栏目说明
  • 在线留电话的广告专业搜索引擎seo服务商
  • 网站建设方案说明松山湖网站建设公司
  • 西安网站推广方案网站主机是服务器吗
  • seo站内优化培训北京社保网上服务平台官网
  • 滨海做网站价格呼和浩特市网站公司电话
  • vs2012网站开发环境logo免费下载网站
  • 手机网站懒人模板章丘网站优化
  • 常州做网站的企业中国十大动漫学校
  • 广东手机网站制作电话wordpress 被写入文件
  • 意大利之家设计网站什么是软件开发技术
  • 下载flash网站国外域名备案
  • 网站建设服务费应计入什么科目装饰公司简介内容
  • 淘宝客网站域名备案吗漂亮的ppt模板大全免费
  • 西安外贸网站开发网站后端做留言板功能