当前位置: 首页 > news >正文

a做爰视频免费观费网站网站开发要会英语吗

a做爰视频免费观费网站,网站开发要会英语吗,网站开发所需配置,沈阳大型网站制作公司文章目录 1 Kafka1.1 Kerberos安全模式的认证与环境准备1.2 创建一个测试主题1.3 消费主题的接收测试 2 Flink1.1 Kerberos安全模式的认证与环境准备1.2 Flink任务的开发 3 HDFS与Hive3.1 Shell脚本的编写思路3.2 脚本测试方法 4 DolphinScheduler 该需求为实时接收对手Topic并进行消费落盘至Hive。 在具体的实施中基于华为MRS 3.2.0安全模式带kerberos认证的Kafka2.4、Flink1.15、Hadoop3.3.1、Hive3.1调度平台为开源dolphinscheduler。 本需求的完成全部参考华为官方MRS3.2.0开发文档相关章节是普通版的安全模式。 华为官方文档https://support.huaweicloud.com/cmpntguide-mrs/mrs_01_1031.html 1 Kafka 1.1 Kerberos安全模式的认证与环境准备 着手开发前需要将FushionInsight租户加入kafkaadmin组保证有创建主题和消费主题的权限在得到此权限时切勿对集群中的主题进行危险操作。 保证租户权限后开始准备开发环境。该步骤需要安装Idea客户端在windows本地同时安装兼容的maven版本华为MRS需要安装至少OpenJDK 1.8.0_332的版本。 运行环境的配置则需要在FushionInsight的web管理界面下载kafka的完整客户端包括config配置文件也需要下载。另外windows本地的hosts文件中要和FushionInsight中的集群地址有映射可手动添加同时应保证本地和集群能ping通。 参考文档https://support.huaweicloud.com/devg3-mrs/mrs_07_130006.html 1.2 创建一个测试主题 在Linux环境中执行 bin/kafka-topics.sh --create --bootstrap-server Kafka集群IP:21007 --command-config config/client.properties --partitions 1 --replication-factor 1 --topic testTopic 创建一个测试testTopic创建成功后FushionInsight的web界面会报topic只有一个分区副本的警告请忽略它。 同时也可以开启两个新的终端窗口用于测试生产者和消费者 bin/kafka-console-producer.sh --broker-list Kafka集群IP:21007 --topic Topic名称 --producer.config config/producer.propertiesbin/kafka-console-consumer.sh --topic Topic名称 --bootstrap-server Kafka集群IP:21007 --consumer.config config/consumer.properties 参考文档https://support.huaweicloud.com/devg3-mrs/mrs_07_130031.html 1.3 消费主题的接收测试 通过以下网站下载华为MRS所需的样例代码 https://github.com/huaweicloud/huaweicloud-mrs-example/tree/mrs-3.2.0 下载样例代码之后需要在华为镜像站下载代码所需依赖华为MRS所需的组件依赖不同于apache的开源版本需要单独配置maven的setting文件华为中央仓库进行下载在开发时组件相关的依赖都需要用下载华为的。 镜像地址 https://repo.huaweicloud.com/repository/maven/huaweicloudsdk/org/apache/ 华为开源镜像站 https://mirrors.huaweicloud.com/home 完成依赖和样例代码项目创建即可开发在开发程序时需要将用于安全认证的keytab文件即“user.keytab”和“krb5.conf”文件以及config所有配置文件放置在样例工程的“kafka-examples\src\main\resources”目录下。 在开发时这些安全认证只需要生成一个jaas文件并设置相关环境变量即可。华为提供了LoginUtil相关接口来完成这些配置样例代码中只需要配置用户自己租户名称和对应的keytab文件名称即可。 创建生产测试时首先需要修改KafkaProperties类中的生产主题名接下来在com.huawei.bigdata.kafka.example.Producer类中修改租户账号keytab位置即可运行成功后会向主题推送100条测试数据此时我们在1.2小节中开启的消费者窗口就能接受到生产的数据。 在具体的测试中需要控制消息发送的间隔和消息次数方便后续开发Flink。一般来说每秒发送一条一直发送即可。 至此Kafka的主题消费测试完成接下来需要用Flink将主题落盘到HDFS。 如果运行代码时报和clock相关的错误是因为本地时间和FushionInsight集群时间不一致所致请将本地时间和服务器时间差控制在5分钟内。 参考文档 https://support.huaweicloud.com/devg3-mrs/mrs_07_130012.html 2 Flink 1.1 Kerberos安全模式的认证与环境准备 用户在提交Flink应用程序时需要与Yarn、HDFS等之间进行通信。那么提交Flink的应用程序中需要设置安全认证确保Flink程序能够正常运行。 图为Flink在华为MRS安全模式的认证体系。 对于Kafka的权限在章节1.1已经获取另外要保证有yarn资源的使用权限还需要对HDFS的/flink、/flink-checkpoint目录获取权限保证读写执行。有了相关权限之后再下载kerberos认证凭据文件keytab和conf。准备运行环境同Kafka类似需要对Flink客户端进行配置注意config文件应该在权限修改之后获取。 Flink整个系统存在三种认证方式使用kerberos认证、使用security cookie进行认证、使用YARN内部的认证机制。在进行安全认证时可以用flink自带的wordcount样例程序进行提交测试根据提交结果反馈再进行适配直到提交成功。如果报auth相关的错误可能还是权限问题可以尝试先将租户权限给到最大谨慎操作先保证代码能通。 参考文档 https://support.huaweicloud.com/devg3-mrs/mrs_07_050010.html 1.2 Flink任务的开发 最终在yarn队列运行的flink程序是从本地idea打包通过flink run提交的。前面安全模式已经打通在开发时仍然是使用华为官方的flink样例代码进行修改调试。 在具体的flink程序开发中由于是开启了kerberos认证的安全模式需要加入判断安全模式登录的代码段在main方法以下代码来自华为官方样例: if (LoginUtil.isSecurityModel()) {try {LOG.info(Securitymode start.);//!!注意安全认证时需要用户手动修改为自己申请的机机账号LoginUtil.securityPrepare(USER_PRINCIPAL, USER_KEYTAB_FILE);} catch (IOException e) {LOG.error(Security prepare failure.);LOG.error(The IOException occured : {}., e);return;}LOG.info(Security prepare success.);}对于具体需求的开发参照开源Flink的apache官方文档即可只需要保证依赖是华为官方镜像站的。 在该需求中是将消费的数据落盘到HDFS中。开发中要用到FlinkKafkaConsumer方法创建kafka消费者拿到流数据。该方法在Flink1.17版本被弃用但是Flink1.15仍然可以用具体开发方法可参考Flink1.13的官方文档Apache Kafka 连接器。 FlinkKafkaConsumer方法参考文档 https://nightlies.apache.org/flink/flink-docs-release-1.13/zh/docs/connectors/datastream/kafka/ 接收的Kafka数据我们不需要处理测试时直接测试主题的数据写入HDFS即可需要用StreamingFileSink方法。该方法可以设置按照日期分桶我们设置.withBucketAssigner为每天一个桶保证每天消费的数据在一个文件中同时用该方法传入日期格式参数yyyy-MM-dd这样便于使用shell调度每日增量数据时日期变量的传递。 FileSink方法参考文档 https://nightlies.apache.org/flink/flink-docs-release-1.13/zh/docs/connectors/datastream/file_sink/ 另外关于Sink到HDFS的数据文件part file 生命周期有几种状态其中当文件名为in-progress表示当前文件正在写入中此时的文件是不能被Hive读到的我们需要将该文件的状态通过checkpoint机制转变为Finished。需要配置env.enableCheckpointing(60000)开启checkpoint该参数是60秒开启一次。 完成代码开发后无法在本地测试只能通过maven打包到华为服务器通过flink run提交到yarn此时可以指定并行度及其他配置。 通过以上方法即可实现将我们测试主题中的数据存储在按照每天一个yyyy-mm-dd命名的文件夹中。 3 HDFS与Hive HDFS与Hive的交互也可以使用FlinkSQL但是考虑到未来对数据的加工过滤在此需求中选择将数据落盘HDFS再通过Shell命令调度至Hive。 3.1 Shell脚本的编写思路 source华为的环境认证状态成功 创建日期变量c_date$(date %Y-%m-%d) 在beeline -u中执行HiveSQL代码 使用beeline的变量函数--hivevar将在外部注册的c_date变量注册为hive beeline的变量 创建临时外部表映射字段一行数据建表语句中指定位置为Flink写入的当日日期变量的HDFS数据文件夹 将临时表中的数据解析一般是json数据可通过get_json_object函数解析为字段insert into table存入贴源层正式表 删除临时表 有需要的话也可以添加日志路径将执行结果追加至日志。 3.2 脚本测试方法 该脚本的执行原理是首先在刷新华为租户环境然后创建时间变量并且是yyyy-mm-dd格式与flink写入在HDFS中的每日增量文件夹名相同; 然后在beeline客户端中注册beeline的变量将linux的时间变量传入beeline; 解下来是建临时表将HDFS中的增量数据先写入再解析字段到下一层标准表同时删除临时表通过此方法即完成每天新增数据的导入。 需要注意的是hive -e命令似乎由于认证安全设置无法在华为集群节点机使用。 4 DolphinScheduler 通过将脚本文件挂在DS调度中每天在Flink完成消费落盘后即可执行该shell。DS的部署不在华为MRS集群在客户端节点中使用开源版本即可DS更方便查看每天的调度执行日志。 需要注意的是目前我的需求中每天的新增数据大约2000-10000条可以在短时间内完成调度执行。
http://www.pierceye.com/news/341966/

相关文章:

  • 苏州做网站优化的公司国外 网站页面
  • 网站建设流程发布网站和网页制作鲜花网站建设论文百度文库
  • 建个人网站赚钱吗手机网站页面大小
  • php简单购物网站源码海口网红美食餐厅
  • 傻瓜式建站软件长沙做软件的公司
  • 旅行社营业网点可以做网站吗别人网站建设多少钱
  • 南宁设计网站建设教程网站建设
  • 柯城区住房和城乡建设局网站wordpress仿fe素材
  • 黄岛建设局网站用什么建设网站
  • 桂林dj网站郑州上海做网站的公司
  • 进入江苏省住房和城乡建设厅网站网络舆情监测 toom
  • 延安市建设工程交易中心网站seo网络营销推广优化
  • 网站一条龙服务教育类网站前置审批
  • 安徽省建设厅网站首页wordpress和typecho
  • 网站开发考试题torrentkitty磁力猫引擎
  • 如何把电脑改成服务器 做网站微信网站背景图片
  • 淘宝客网站建设详细教程链接交换平台
  • 外贸门户网站深圳网站制作开发排名
  • 如何建设一个稳定的网站photoshop网页制作视频教程
  • 企业网站建设合作合同28招商加盟网
  • 国外设计灵感网站WordPress数据库添加管理员
  • 山东省建设备案网站审批表免费设计手写签名
  • 家庭电脑做网站深圳罗湖网站制作公司
  • 聊城做wap网站服务有哪些做特卖的网站有哪些
  • wordpress後台建站flash美食网站论文
  • 网站服务器ip地址在哪里看用记事本做电影介绍的网站
  • 重庆企业建站公司沧浪企业建设网站价格
  • 免费建单页网站厂房出租做推广什么网站好
  • jquery网站模板下载做的网站显示不了背景图片
  • 图书管理系统网站开发教程怎么创建自己的网址