当前位置: 首页 > news >正文

WordPress建站 网盘视频做便宜网站

WordPress建站 网盘视频,做便宜网站,怎么给网站做百度优化,企业建设官方网站的目的一、前言 系统设计#xff1a;电商系统设计到开发01 第一版设计到编码-CSDN博客 接着上篇文章#xff1a;电商系统设计到开发02 单机性能压测-CSDN博客 本篇为大制作#xff0c;内容有点多#xff0c;也比较干货#xff0c;希望可以耐心看看 已经开发的代码#xff0…一、前言 系统设计电商系统设计到开发01 第一版设计到编码-CSDN博客 接着上篇文章电商系统设计到开发02 单机性能压测-CSDN博客 本篇为大制作内容有点多也比较干货希望可以耐心看看 已经开发的代码并对其下单接口进行了压力测试压力测试该接口一个请求需要查询数据库4次更新4次 插入2次总共访问数据库10次其中2个事务3次查询是加锁查询还有 1 次 rpc 请求单实例情况下吞吐量为110/s 今天我们将其引入Kafka看看吞吐量会有多少的提升又会引入什么新的问题呢 Kafka的安装流程SpringBoot3.1.7集成Kafka和Kafka安装-CSDN博客 二、流程图 三、要求 保证消息的精准一次不能多下单也不能少下单 因为订单提交改成了异步创建那么后端不会立即返回下单结果所以一般需要前端也配合着改动我们现在暂时不考虑前端的具体实现但是另外一个问题就是消息要做到精准一次不能多下订单也不能少下订单后面我们会进行破坏性测试然后验证是否可以做到保证消息的精准一次 1 生产者保证消息不丢失 配置生产者的acks  all 表示要等到Kafka集群中所有的isr队列里的的broker落盘以后才返回确认 2 kafka集群保证消息不丢失 要保证服务器不丢消息min.insync.replicas 要设置为1 (只要不是2台服务同时宕机就不会丢消息) Kafka 2.6.0 版本引入了针对 Topic 的 min.insync.replicas 配置允许您为每个 Topic 单独设置 ISR 的最小副本数。在这之前min.insync.replicas 配置是全局的适用于所有 Topic。 3  消费者保障消息不丢失 取消自动提交offsetspring: kafka: consumer:enable:auto:commit: false 等消息成功消费后手动提交消息的offset 4 保证消息不多发 enable.idempotence生产者配置可以保证消息不多发默认是true可以不用配置 四、Kafka集群服务端配置 条件有限我暂时在一台1核2G的Centos虚拟机上面配置并启动3个Kafka实例实现伪分布式集群启动模式采用的是Kraft模式Kafka集群端口分别为9093,9193,9293 1 复制3分Kafka实例 2 配置服务配置 kafka00/config/kraft/server.properties kafka01/config/kraft/server.properties kafka02/config/kraft/server.properties 3 初始化Kafka 先生成一个集群ID KAFKA_CLUSTER_ID$(bin/kafka-storage.sh random-uuid) 然后分别在Kafka00、Kafka01、Kafka02的目录下执行下面初始化命令 bin/kafka-storage.sh format -t $KAFKA_CLUSTER_ID -c config/kraft/server.properties 确认一下他们3个的集群ID是否相同 4 启动Kafka集群 编写启动脚本 nohup kafka00/bin/kafka-server-start.sh kafka00/config/kraft/server.properties kafka00/out.log 21 nohup kafka01/bin/kafka-server-start.sh kafka01/config/kraft/server.properties kafka01/out.log 21 nohup kafka02/bin/kafka-server-start.sh kafka02/config/kraft/server.properties kafka02/out.log 21 执行启动成功了 5 创建一个订单topic 找到Kafka目录输入bin/kafka-topics.sh如果不知道如何填参数可以先按下回车会列举所有的参数选项我这边创建一个topic名称为order-message-topic分区数为2副本为3 bin/kafka-topics.sh --bootstrap-server localhost:9092 --create --topic order-message-topic --partitions 2 --replication-factor 3 --config min.insync.replicas2 创建完成我们看一眼刚刚已创建的topic bin/kafka-topics.sh --bootstrap-server localhost:9092 --describe --topic order-message-topic 这里有个小插曲 本来想安装一个Kafka的可视化界面因为我使用的是去zookeeper化的Kraft模式启动市面上居然还没有支持这种模式的界面看看Kafka-manager CMAK 已经在催更了 五、应用程序开发 1 配置Kafka参数到应用程序的application.yml spring:kafka:bootstrap-servers: 192.168.31.114:9092,192.168.31.114:9192,192.168.31.114:9292producer:acks: alltimeout.ms: 5000retries: 3# 值序列化使用Jsonvalue-serializer: org.springframework.kafka.support.serializer.JsonSerializerkey-serializer: org.apache.kafka.common.serialization.LongSerializerenable:idempotence: true # 默认为True# 因为消费者需要更加细粒度的控制所以单独写配置文件 kafka-consumer:bootstrapServers: 192.168.31.114:9092,192.168.31.114:9192,192.168.31.114:9292groupId: goods-center#后台的心跳线程必须在30秒之内提交心跳,否则会reBalancesessionTimeOut: 30000autoOffsetReset: latest#取消自动提交,即便如此 spring会帮助我们自动提交enableAutoCommit: false#自动提交间隔autoCommitInterval: 1000#拉取的最小字节fetchMinSize: 1#拉去最小字节的最大等待时间fetchMaxWait: 500maxPollRecords: 100#300秒的提交间隔,如果程序大于300秒提交,会报错maxPollInterval: 300000#心跳间隔heartbeatInterval: 10000keyDeserializer: org.apache.kafka.common.serialization.LongDeserializervalueDeserializer: org.springframework.kafka.support.serializer.JsonDeserializer 2 编写生成者代码发送订单信息 kafkaTemplate.send 方法采用的是异步发送先将消息发送到缓冲区然后再批量打包异步发送出去从而提高Kafka的性能但是这样操作可能会导致消息的丢失然后前端认为消息已经发送出去了解决这种方式可以采用同步等待消息发送的结果代码如下 package com.ychen.goodscenter.fafka;import com.ychen.goodscenter.vo.req.SubmitOrderReq; import lombok.extern.slf4j.Slf4j; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.kafka.core.KafkaTemplate; import org.springframework.kafka.support.SendResult; import org.springframework.stereotype.Component;import java.util.concurrent.CompletableFuture;Component Slf4j public class MessageProducer {Autowiredprivate KafkaTemplateLong, SubmitOrderReq kafkaTemplate;public void sendOrderMessageSync(SubmitOrderReq msg) {CompletableFutureSendResultLong, SubmitOrderReq future kafkaTemplate.send(TopicConstants.ORDER_MESSAGE_TOPIC, msg.getOrderId(), msg);try {// 同步等待发送结果SendResultLong, SubmitOrderReq result future.get();// 处理成功发送的情况log.info(order-message-topic message send successfully: result.getRecordMetadata().toString());} catch (Exception e) {// 处理发送失败的情况log.info(order-message-topic message send error message: e.getMessage());throw new RuntimeException(e);}} }package com.ychen.goodscenter.controllers;import com.ychen.framework.utils.Result; import com.ychen.framework.utils.SnowFlakeUtils; import com.ychen.goodscenter.entity.OrderInfo; import com.ychen.goodscenter.fafka.MessageProducer; import com.ychen.goodscenter.service.OrderService; import com.ychen.goodscenter.vo.req.SubmitOrderReq; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.web.bind.annotation.PostMapping; import org.springframework.web.bind.annotation.RequestBody; import org.springframework.web.bind.annotation.RestController;RestController public class OrderController {Autowiredprivate MessageProducer messageProducer;PostMapping(/submitOrderAsync)public Result submitOrderAsync(RequestBody SubmitOrderReq req) {// 生成订单ID,消息幂等处理req.setOrderId(SnowFlakeUtils.nextId());messageProducer.sendOrderMessageSync(req);return Result.ok();} }3 编写消费者代码 为了更加细粒度的控制消费者的消费失败处理所以单独写配置文件并且通过自定义KafkaListenerContainerFactory的方式实现 手动提交消息消费失败重试3次重试3次仍然失败后会将消息保存到Kafka的死信队列 KafkaConsumerProperties package com.ychen.goodscenter.fafka;import lombok.Getter; import lombok.Setter; import org.apache.kafka.clients.consumer.ConsumerConfig; import org.springframework.boot.context.properties.ConfigurationProperties; import org.springframework.context.annotation.Configuration;import java.util.HashMap; import java.util.Map;Configuration //指定配置文件的前缀 ConfigurationProperties(prefix kafka-consumer) Getter Setter public class KafkaConsumerProperties {private String groupId;private String sessionTimeOut;private String bootstrapServers;private String autoOffsetReset;private boolean enableAutoCommit;private String autoCommitInterval;private String fetchMinSize;private String fetchMaxWait;private String maxPollRecords;private String maxPollInterval;private String heartbeatInterval;private String keyDeserializer;private String valueDeserializer;public MapString, Object consumerConfigs() {MapString, Object propsMap new HashMap();// 服务器地址propsMap.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapServers);// 是否自动提交propsMap.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, enableAutoCommit);// 自动提交间隔propsMap.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, autoCommitInterval);//会话时间propsMap.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, sessionTimeOut);//key序列化propsMap.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, keyDeserializer);//value序列化propsMap.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, valueDeserializer);// 心跳时间propsMap.put(ConsumerConfig.HEARTBEAT_INTERVAL_MS_CONFIG, heartbeatInterval);// 分组idpropsMap.put(ConsumerConfig.GROUP_ID_CONFIG, groupId);//消费策略propsMap.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, autoOffsetReset);// poll记录数propsMap.put(ConsumerConfig.MAX_POLL_RECORDS_CONFIG, maxPollRecords);//poll时间propsMap.put(ConsumerConfig.MAX_POLL_INTERVAL_MS_CONFIG, maxPollInterval);propsMap.put(spring.json.trusted.packages, com.ychen.**);return propsMap;}} KafkaConsumerConfig package com.ychen.goodscenter.fafka;import com.alibaba.fastjson2.JSONObject; import lombok.extern.slf4j.Slf4j; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.boot.context.properties.EnableConfigurationProperties; import org.springframework.context.annotation.Bean; import org.springframework.context.annotation.Configuration; import org.springframework.kafka.config.ConcurrentKafkaListenerContainerFactory; import org.springframework.kafka.config.KafkaListenerContainerFactory; import org.springframework.kafka.core.ConsumerFactory; import org.springframework.kafka.core.DefaultKafkaConsumerFactory; import org.springframework.kafka.core.KafkaTemplate; import org.springframework.kafka.listener.*; import org.springframework.util.backoff.BackOff; import org.springframework.util.backoff.FixedBackOff;import java.util.Map;Configuration EnableConfigurationProperties(KafkaConsumerProperties.class) Slf4j public class KafkaConsumerConfig {Autowiredprivate KafkaConsumerProperties kafkaConsumerProperties;Autowiredprivate KafkaTemplateString, String kafkaTemplate;Beanpublic KafkaListenerContainerFactoryConcurrentMessageListenerContainerString, String kafkaListenerContainerFactory() {ConcurrentKafkaListenerContainerFactoryString, String factory new ConcurrentKafkaListenerContainerFactory();factory.setConsumerFactory(consumerFactory());// 并发数 多个微服务实例会均分factory.setConcurrency(2); // factory.setBatchListener(true);factory.setCommonErrorHandler(commonErrorHandler());ContainerProperties containerProperties factory.getContainerProperties();// 是否设置手动提交containerProperties.setAckMode(ContainerProperties.AckMode.MANUAL_IMMEDIATE);return factory;}private ConsumerFactoryString, String consumerFactory() {MapString, Object consumerConfigs kafkaConsumerProperties.consumerConfigs();log.info(消费者的配置信息:{}, JSONObject.toJSONString(consumerConfigs));return new DefaultKafkaConsumerFactory(consumerConfigs);}public CommonErrorHandler commonErrorHandler() {// 创建 FixedBackOff 对象BackOff backOff new FixedBackOff(5000L, 3L);DefaultErrorHandler defaultErrorHandler new DefaultErrorHandler(new DeadLetterPublishingRecoverer(kafkaTemplate), backOff);return defaultErrorHandler;} }MessageListener package com.ychen.goodscenter.fafka;import com.ychen.goodscenter.service.OrderService; import com.ychen.goodscenter.vo.req.SubmitOrderReq; import lombok.extern.slf4j.Slf4j; import org.apache.kafka.clients.consumer.ConsumerRecord; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.dao.DuplicateKeyException; import org.springframework.kafka.annotation.KafkaListener; import org.springframework.kafka.support.Acknowledgment; import org.springframework.stereotype.Component;Component Slf4j public class MessageListener {Autowiredprivate OrderService orderService;KafkaListener(topics TopicConstants.ORDER_MESSAGE_TOPIC, containerFactory kafkaListenerContainerFactory)public void processMessage(ConsumerRecordLong, SubmitOrderReq record, Acknowledgment acknowledgment) {log.info(order-message-topic message Listener, Thread ID: Thread.currentThread().getId());try {log.info(order-message-topic message received, orderId: {}, record.value().getOrderId());orderService.submitOrder(record.value());// 同步提交acknowledgment.acknowledge();log.info(order-message-topic message acked: orderId: {}, record.value().getOrderId());} catch (DuplicateKeyException dupe) {// 处理异常情况log.error(order-message-topic message error DuplicateKeyException, dupe);// 重复数据忽略掉同步提交acknowledgment.acknowledge();}} } 六、整体并发测试 接着上次的测试进行改正电商系统设计到开发02 单机性能压测-CSDN博客 1 数据准备 用户数100w用户ID 1~100_0000每个用户余额 10w 商品数100w商品ID  1~100_0000 单价都为1元数量均为1亿件商家ID均为 100 模拟1w个用户同时抢购同一件商品 通过查询订单数账户总金额来核对来验证程序是否正确 测试前总金额为1000 0000 0000 通过查看Jmeter的聚合报告看接口的吞吐量 2 机器准备 我的本地window电脑作为测试机器i7 13代处理器32G内存1T固态硬盘 使用Wmware 虚拟了4台Centos机器分别是 Centos00 1CPU 2G内存  20G固态硬盘   |  部署 Consul serverSentinel Dashboard Centos01 1CPU 1G内存  20G固态硬盘   |  部署 MySQL5.7.44 Centos02 1CPU 1G内存  20G固态硬盘   |  部署 user-center Centos03 1CPU 1G内存  20G固态硬盘   |  部署 goods-center Centos04 1CPU 3G内存  20G固态硬盘   |  部署 kafka3.5 kraft 3个broker集群模式 3 压测脚本 随机1w个用户模拟下订单操作 4 压测 10000个样本 100个线程循环100次 查看结果 数据库 10000个订单符合预期总金额1000 0000 0000符合预期程序没有问题 聚合报告 用户请求的吞吐量为295 kafka消费者总耗时480秒  吞吐量 10000/480 20.8 5 压测总结 下图为没有使用kafka100个线程并发下单的接口测试报告 对比上次没由使用kafka的接口用户吞请求吐量增加了将近3倍平均响应时间下降为原来的1/3 但是业务吞吐量却只有原来的1/5 不到从查看消费者日志我们可以看到因为只有一台消费者且用的都是同一个线程自然吞吐量会很低下一步我们考虑如何提升消息吞吐量 七、提升生产者吞吐量 说明每一步性能的提升都可能会导致数据安全性的减少 1 生产者相应同步改异步 为了不受消费者影响我们在启动程序时先注销消费者代码 单独测试只有生产者代码时的吞吐量另外加大线上数和循环次数让差距更加明显一点 采用200线程200次循环 改造代码改成默认的异步发送到Kafka这个改动将有丢失消息的风险 改造前 public void sendOrderMessageSync(SubmitOrderReq msg) {CompletableFutureSendResultLong, SubmitOrderReq future kafkaTemplate.send(TopicConstants.ORDER_MESSAGE_TOPIC, msg.getOrderId(), msg);try {// 同步等待发送结果SendResultLong, SubmitOrderReq result future.get();// 处理成功发送的情况log.info(order-message-topic message send successfully: result.getRecordMetadata().toString());} catch (Exception e) {// 处理发送失败的情况log.info(order-message-topic message send error message: e.getMessage());throw new RuntimeException(e);}} 改造后 public void sendOrderMessage(SubmitOrderReq msg) {log.info(order-message-topic message sending, orderId: {}, msg.getOrderId());kafkaTemplate.send(TopicConstants.ORDER_MESSAGE_TOPIC, msg.getOrderId(), msg);log.info(order-message-topic message sent, orderId: {}, msg.getOrderId());} 改造前吞吐量595 改造后吞吐量663 这种改造提升不明显吞吐量有微量的提升不过中位数时延降的比较明显毕竟是异步立即返回 2 生产者ack all 改成ack 1 表示只要只要master收到消息并落盘就可以返回了 改造前吞吐量595 改造后吞吐量616 提升不是很明显可能是因为我使用的是伪集群模式3台实例都部署在同一个虚拟机中 八、提升消费者吞吐量 这一步没有部署监视器前面说了使用Kraft模式部署太新了目前可部署的监控还没找到只能我使用手动计时测试 统计5分钟数据库生成的订单数 改造前我们使用之前已经测试过的吞吐量数据 20  1 增加并发数 执行5分钟后生成的订单数为10114 吞吐量为 10114 / 300 33  原因因为我创建分区的时候指定的分区数为2那么即使并发数设置为8那么也最多只能运行2个线程消费从下面日志中能验证这一点 2 增加topic分区数 将分区数从2个增加到8个执行下面命令 bin/kafka-topics.sh --bootstrap-server localhost:9092 --alter --topic order-message-topic --partitions 8 然后发送一些消息到新的分区用于测试 消息准备的好了清空数据库的订单开始测试这次有8个线程进行消费了 测试结果 吞吐量为 17910/ 300 59 原因比原来的20吞吐量已经提升了将近3倍没有引入Kafka的情况下吞吐量为110毕竟只有8个线程消费最高吞吐量的线程数量 3 提交offset改成批量提交 代码改动如下 // 改动前 containerProperties.setAckMode(ContainerProperties.AckMode.MANUAL_IMMEDIATE);// 改动后 containerProperties.setAckMode(ContainerProperties.AckMode.MANUAL); 在本章第2步的基础上改进的所以一会对比第2步 测试结果 吞吐量为 18269/ 300 60 原因相对第二步提升不明显理论上能提升一点点但是不明显 4 增加消费者机器消费 仍然是8个分区由原来1台实例改成现在2台实例看看吞吐量 在本章第3步的基础改动 测试结果 吞吐量为 16878/ 300 56 原因可能是我本地Window的机器消费能力不如Linux虚拟机的消费能力但是大致看上去启动2台实例去消费8个分区和启动一台实例开启8个线程去消费8个分区的消费能力是差不多的当然需要的条件是吞吐量瓶颈不在CPU资源和网络资源上我的推断我的程序的瓶颈在于数据库那么8个线程用到的数据库连接数为8个那么这8个线程决定了吞吐量的大小为了验证这一猜想我决定还是增加一小节将分区数增加到20并发数增加到20 5 增加分区和并发数为20 20个分区的数据准备好了接下来开始测试吧 测试结果 吞吐量为 18882/ 300 62 原因相比于第3步增加的不是很明显说明再提升并发数性能已经不是很明显了说明瓶颈不是在这里要继续优化估计只能从代码处入手了。
http://www.pierceye.com/news/625789/

相关文章:

  • 英德市住房和城乡建设局手机网站html5手机网站模板下载
  • 网站建设手机建设网站 系统占用空间
  • 网站没内容网站域名.xin
  • 布吉建设网站网站是怎么制作出来的
  • 有赞网站开发凡科建站网
  • html5商业网站开发北大青鸟wordpress免费模版
  • 网站建设及那个科目提升网站页面打开速度
  • 直接玩的网页游戏关键词优化工具有哪些
  • 单页面网站如何优化引流四川网站建设贴吧
  • 贵州省建设银行网站wordpress首页调用文章缩略图
  • 项城市住房和城乡建设局网站融资平台公司
  • asp企业网站设计sage wordpress
  • 做视频网站需要哪些条件wordpress登录页面背景图片尺寸
  • 专门教做衣服的网站西宁电商网站建设
  • 无锡网站科技公司qq哪家公司开发的
  • 强化 门户网站建设今天的新闻大事
  • 专业做刀具网站的公司单页面网站模板
  • 企业网站制作及cms技术wordpress站点 HTML
  • 网络宣传网站建设制作加盟网络推广方案怎么写
  • 花店网站建设毕设介绍wordpress批量导入txt
  • 上海市网站建设定制百度推广怎么优化关键词的质量
  • 建设工程质量检测公司网站html5 响应式音乐网站
  • 网站建设托管推广海报中文域名做的网站
  • 临沂专业网站建设公司哪家好网站建设的网页
  • 当牛做吗网站源代码分享百度云帝国怎么做网站
  • 简约网站欣赏做美食网站赚钱吗
  • 一叶子网站建设目标教育平台oss做视频网站
  • 购物网站开发流程图wordpress 批量注册
  • 如何做网站优化的内容google网站推广
  • 网站模版亮点北京电商网站开发费用