当前位置: 首页 > news >正文

网站建设课程毕设wordpress 后台管理

网站建设课程毕设,wordpress 后台管理,wordpress 重置插件,网站开发前台实训本篇我们将主要介绍如何在 Ubuntu 22.04.2 LTS 环境下#xff0c;实现一个KafkaTelegrafCnosDB 同步实时获取流数据并存储的方案。在本次操作中#xff0c;CnosDB 版本是2.3.0#xff0c;Kafka 版本是2.5.1#xff0c;Telegraf 版本是1.27.1 随着越来越多的应用程序架构转… 本篇我们将主要介绍如何在 Ubuntu 22.04.2 LTS 环境下实现一个KafkaTelegrafCnosDB 同步实时获取流数据并存储的方案。在本次操作中CnosDB 版本是2.3.0Kafka 版本是2.5.1Telegraf 版本是1.27.1  随着越来越多的应用程序架构转向微服务或无服务器结构应用程序和服务的数量每天都在增加。用户既可以通过实时聚合也可以通过输出为测量或指标的计算来处理数量不断增加的时间序列数据。面对产生的海量数据用户可以通过多种方式来捕获和观察系统中数据的变化在云原生环境中最流行的一种是使用事件。 Apache Kafka是一个耐用、高性能的消息系统也被认为是分布式流处理平台。它可应用于许多用例包括消息传递、数据集成、日志聚合和指标。而就指标而言仅有消息主干或代理是不够的。虽然 Apache Kafka 很耐用但它并不是为运行指标和监控查询而设计的。这恰恰正是 CnosDB 的长处。 架构方案 通过将这Kafka、Telegraf和CnosDB 三者结合起来可以实现数据的完整流程 数据生成使用传感器、设备或其他数据源产生数据并将其发送到Kafka主题。Kafka 消息队列Kafka 接收并存储数据流确保数据安全和可靠性。Telegraf 消费者Telegraf 作为 Kafka 的消费者订阅 Kafka 主题并获取数据流。CnosDB 数据存储经过预处理的数据由 Telegraf 发送到 CnosDB 中进行时序数据的存储。 整体的应用程序架构如图所示 Kafka Apache Kafka 是一个开源分布式流处理平台它被设计用于处理实时数据流具有高可靠性、高吞吐量和低延迟的特点目前已经被大多数公司使用。它的使用方式非常多样化包括 流处理它通过存储实时事件以进行聚合、丰富和处理来提供事件主干。指标Apache Kafka 成为许多分布式组件或应用程序例如微服务的集中聚合点。这些应用程序可以发送实时指标以供其他平台使用包括 CnosDB。数据集成可以捕获数据和事件更改并将其发送到 Apache Kafka任何需要对这些更改采取行动的应用程序都可以使用它们。日志聚合Apache Kafka 可以充当日志流平台的消息主干将日志块转换为数据流。 几个核心概念 实例BrokerKafka的Broker是Kafka集群中的服务器节点负责存储和转发消息提供高可用性、容错性和可靠性。主题TopicApache Kafka 中的 topic 是逻辑存储单元就像关系数据库的表一样。主题通过分区通过代理进行分发提供可扩展性和弹性。生产者Producer生产者将消息发布到Kafka的指定主题。生产者可以选择将消息发送到特定的分区也可以让Kafka自动决定分配策略。消费者Consumer消费者从指定主题的一个或多个分区中读取消息。消费者可以以不同的方式进行组织如单播、多播、消费者组等。发布-订阅模式是指生产者将消息发布到一个或多个主题而消费者可以订阅一个或多个主题从中接收并处理消息。 简单来说就是当客户端将数据发送到 Apache Kafka 集群实例时它必须将其发送到某个主题。 此外当客户端从 Apache Kafka 集群读取数据时它必须从主题中读取。向 Apache Kafka 发送数据的客户端成为生产者而从 Kafka 集群读取数据的客户端则成为消费者。数据流向示意图如下 注这里没有引入更复杂的概念如topic分区、偏移量、消费者组等用户可自行参考官方指导文档学习 Kafka【https://kafka.apache.org/documentation/#gettingStarted】 部署 Kafka 下载并安装Kafka【https://kafka.apache.org/】 1.前提需确保有 JDK 环境和 Zookeeper 环境如果没有可以使用下面的命令进行安装 sudo apt install openjdk-8-jdk sudo apt install zookeeper 2.下载 Kafka 安装包并解压 wget https://archive.apache.org/dist/kafka/2.5.1/kafka_2.12-2.5.1.tgz tar -zxvf kafka_2.12-2.5.1.tgz 3.进入解压后的 Kafka 目录 cd kafka_2.12-2.5.1 4.修改$KAFKA_HOME/config/server.properties的配置文件可按需修改端口、日志路径等配置信息 5.保存并关闭编辑器。运行下面的命令来启动Kafka bin/kafka-server-start.sh config/server.properties Kafka 将在后台运行并通过默认的 9092 端口监听连接。 Telegraf Telegraf 是一个开源的服务器代理程序用于收集、处理和传输系统和应用程序的指标数据。Telegraf 支持多种输入插件和输出插件并且能够与各种不同类型的系统和服务进行集成。它可以从系统统计、日志文件、API 接口、消息队列等多个来源采集指标数据并将其发送到各种目标如 CnosDB 、Elasticsearch、Kafka、Prometheus 等。这使得 Telegraf 非常灵活可适应不同的监控和数据处理场景。 轻量级Telegraf被设计为一个轻量级的代理程序对系统资源的占用相对较小可以高效运行在各种环境中。插件驱动Telegraf使用插件来支持各种输入和输出功能。它提供了丰富的插件生态系统涵盖了众多的系统和服务。用户可以根据自己的需求选择合适的插件来进行指标数据的采集和传输。数据处理和转换Telegraf具有灵活的数据处理和转换功能可以通过插件链Plugin Chain来对采集到的指标数据进行过滤、处理、转换和聚合从而提供更加精确和高级的数据分析。 部署 Telegraf 1.安装 Telegraf sudo apt-get update sudo apt-get install telegraf 2.切换到 Telegraf 的默认配置文件所处目录 /etc/telegraf 下 3.在配置文件 telegraf.config 中添加目标 OUTPUT PLUGIN [[outputs.http]]url http://127.0.0.1:8902/api/v1/write?dbtelegraftimeout 5smethod POSTusername rootpassword data_format influxuse_batch_format truecontent_encoding identityidle_conn_timeout 10 按需修改的参数 urlCnosDB 地址和端口 username连接 CnosDB 的用户名 password连接 CnosDB 的用户名对应的密码 注其余参数可与上述配置示例中保持一致 4.在配置文件中将下面的配置注释放开可按需修改 [[inputs.kafka_consumer]] brokers [127.0.0.1:9092] topics [oceanic] data_format json 参数 brokersKafka 的 broker list topics指定写入 Kafka 目标的 topic data_format写入数据的格式 注其余参数可与上述配置示例中保持一致 5.启动 Telegraf telegraf -config /etc/telegraf/telegraf.conf CnosDB 部署 CnosDB 详细操作请参考 CnosDB 安装 【https://docs.cnosdb.com/zh/latest/start/install.html】 整合 Kafka创建topic 1.进入 kafka 的 bin 文件夹下 2.执行命令创建 topic ./kafka-topics.sh --create --topic oceanic --bootstrap-server localhost:9092 --partitions 1 --replication-factor 1 Python 模拟写入数据到Kakfa 1.编写代码 import time import json import randomfrom kafka import KafkaProducerdef random_pressure():return round(random.uniform(0, 10), 1)def random_tempreture():return round(random.uniform(0, 100), 1)def random_visibility():return round(random.uniform(0, 100), 1)def get_json_data():data {}data[pressure] random_pressure()data[temperature] random_temp_cels()data[visibility] random_visibility()return json.dumps(data) def main():producer KafkaProducer(bootstrap_servers[ip:9092])for _ in rang(2000):json_data get_json_data()producer.send(oceanic, bytes(f{json_data},UTF-8))print(fSensor data is sent: {json_data})time.sleep(5)if __name__ __main__:main() 2.运行Python脚本 python3 test.py 查看 kafka topic 中的数据 1.执行下面查看指定 topic 数据的命令 ./kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic oceanic --from-beginning 查看同步到 CnosDB 中的数据 1.使用工具连接到CnosDB cnosdb-cli 2.切换到指定库 \c public 3.查看数据 select * from kafka_consumer; 补充阅读 1.使用 Telegraf 采集数据并写入 CnosDB: https://docs.cnosdb.com/zh/latest/versatility/collect/telegraf.html 2.Python 连接器: https://docs.cnosdb.com/zh/latest/reference/connector/python.html 3.CnosDB 快速开始: https://docs.cnosdb.com/zh/latest/start/quick_start.html
http://www.pierceye.com/news/397939/

相关文章:

  • 医院网站建设公司价格低本地网站搭建视频教程
  • 黑客攻击的网站网站开发需要多少钱app
  • 海南建设厅评审网站织梦网站加网站地图
  • 清迈城市建设网站外贸搜索网站
  • 怎样做网站公司网站建设维护管理
  • 伊犁网站制作珠海做网站的公司
  • 乐山市规划和建设局网站房地产基础知识
  • 网站给假冒伪劣产品做推广鞍山网站制作一般需要多少钱
  • 番禺网站开发哪里好ppt模板免费下载完整版免费简约
  • 哪个公司做企业网站好济南网站优化推广公司电话
  • 深圳网站建设外包公司网站流量提供商
  • 网站建设优化服务信息wordpress下载类插件
  • 深圳做网站google推广百度优化是什么
  • 网站开发技术服务费分享经济网站怎么建设
  • 免费seo网站推广在线观看360免费wifi创建失败
  • 服装网站开发嵌入式硬件开发
  • 上海建设厅网站那些网站可以做自媒体
  • 如何查看一个网站流量网店美工课程心得体会
  • 邯郸的网站建设无锡做网站品牌公司
  • 汇编做网站门户网站建设 知乎
  • 教育云平台网站建设云南小程序定制开发
  • 企业自助建站策划方案横沥网站设计
  • 网站开发搜索功能怎么实现中小网站建设都有哪些方案
  • 学科网站建设网页制作和网页制作
  • 公司网站模板大全网站文章编辑
  • 旅游网站建设的总结wordpress多域名移动主题
  • 深圳做网站推荐哪家公司好附近广告公司联系电话
  • 网站建设和网站优化哪个更重要提供邯郸网站建设
  • 做网站一般把宽度做多少合肥优化
  • 石家庄做网站公司汉狮价格猴痘的治疗方法