当前位置: 首页 > news >正文

做电商网站就业岗位晋升杭州企业宣传片制作

做电商网站就业岗位晋升,杭州企业宣传片制作,wordpress 待审文章,未成年人思想道德建设网站1、概述 本节中的指南将向您展示如何通过流行的构建工具(Maven, Gradle)配置项目#xff0c;添加必要的依赖项(即连接器和格式#xff0c;测试)#xff0c;并涵盖一些高级配置主题。 每个Flink应用程序都依赖于一组Flink库。至少#xff0c;应用程序依赖于Flink api…1、概述 本节中的指南将向您展示如何通过流行的构建工具(Maven, Gradle)配置项目添加必要的依赖项(即连接器和格式测试)并涵盖一些高级配置主题。 每个Flink应用程序都依赖于一组Flink库。至少应用程序依赖于Flink api此外还依赖于某些连接器库(如Kafka, Cassandra)和第三方依赖用户需要开发自定义函数来处理数据。 1.1 开始进行 要开始使用Flink应用程序请使用以下命令、脚本和模板来创建Flink项目。 Maven 您可以使用下面的Maven命令基于 Archetype创建一个项目或者使用提供的快速入门bash脚本。 所有Flink Scala api都已弃用并将在未来的Flink版本中删除。您仍然可以在Scala中构建应用程序但是应该使用Java版本的DataStream和/或Table API。 See FLIP-265 Deprecate and remove Scala API support Maven command $ mvn archetype:generate \-DarchetypeGroupIdorg.apache.flink \-DarchetypeArtifactIdflink-quickstart-java \-DarchetypeVersion1.18.0这允许您命名新创建的项目并将交互地询问您的groupId、artifactId和包名。 Quickstart script $ curl https://flink.apache.org/q/quickstart.sh | bash -s 1.18.01.2 您需要哪些依赖项? 要开始处理Flink作业通常需要以下依赖项: Flink APIs以开发您的工作连接器和格式以便将您的作业与外部系统集成测试实用程序以测试您的工作 除此之外您可能还需要添加开发自定义功能所需的第三方依赖项。 1.3 Flink APIs Flink提供了两个主要的API:数据流API和表API SQL。它们可以单独使用也可以混合使用这取决于你的用例: 想要使用的APIs需要添加的依赖项DataStreamflink-streaming-javaDataStream with Scalaflink-streaming-scala_2.12Table APIflink-table-api-javaTable API with Scalaflink-table-api-scala_2.12Table API DataStreamflink-table-api-java-bridgeTable API DataStream with Scalaflink-table-api-scala-bridge_2.12 1.3 运行和打包 如果您希望通过简单地执行主类来运行作业则需要在类路径中使用flink-clients。对于Table API程序您还需要flink-table-runtime和flink-table-planner-loader。 根据经验我们建议将应用程序代码及其所需的所有依赖项打包到一个fat/uber JAR中。这包括作业的打包连接器、格式和第三方依赖项。此规则不适用于 Java APIs、DataStream Scala api和前面提到的运行时模块这些模块已经由Flink自己提供不应该包含在job uber JAR中。这个作业JAR可以提交到已经运行的Flink集群或者添加到Flink应用程序容器映像中而无需修改发行版。 1.4 What’s next? 要开始开发您的工作请查看数据流API和表API SQL。有关如何根据构建工具打包作业的详细信息请查看以下特定指南 Maven Gradle有关项目配置的更高级主题请查看高级主题部分。 2、如何使用Maven来配置您的项目 本指南将向您展示如何使用Maven配置Flink作业项目Flink job projectMaven是由Apache Software Foundation开发的开源构建自动化工具使您能够构建、发布和部署项目。您可以使用它来管理软件项目的整个生命周期。 2.1 要求 Maven 3.8.6 (recommended or higher)Java 8 (deprecated) or Java 11 2.2 将项目导入到IDE中 一旦创建了项目文件夹和文件我们建议您将该项目导入到IDE中进行开发和测试。 IntelliJ IDEA支持开箱即用的Maven项目。Eclipse提供了m2e插件来导入Maven项目。 注意:对于Flink来说Java的默认JVM堆大小可能太小您必须手动增加它。在Eclipse中选择“Run Configurations - Arguments”在“VM Arguments”中输入“-Xmx800m”。在IntelliJ IDEA中建议从Help |编辑自定义虚拟机选项菜单中更改JVM选项。有关详细信息请参阅本文。 关于IntelliJ的注意事项:要使应用程序在IntelliJ IDEA中运行必须在运行配置中勾选Include dependencies with Provided scope框。如果这个选项不可用(可能是由于使用较旧的IntelliJ IDEA版本)那么一个变通方法是创建一个调用应用程序的main()方法的测试。 2.3 构建项目 如果你想构建/打包你的项目导航到你的项目目录并运行mvn clean package’ 命令。您将在这里找到一个JAR文件其中包含您的应用程序(以及您可能作为依赖项添加到应用程序中的连接器和库):target/artifact-id-version.jar 注意:如果您使用与DataStreamJob不同的类作为应用程序的主类/入口点我们建议您相应地更改pom.xml文件中的mainClass设置以便Flink可以从JAR文件运行应用程序而无需额外指定主类。 2.4 向项目添加依赖项 在项目目录中打开pom.xml文件并在dependencies 选项卡之间添加依赖项 例如你可以像这样添加Kafka连接器作为依赖项: dependenciesdependencygroupIdorg.apache.flink/groupIdartifactIdflink-connector-kafka/artifactIdversion1.18.0/version/dependency/dependencies然后在命令行上执行mvn install。 从Java Project Template、 Scala Project Template或Gradle创建的项目被配置为在运行mvn clean package时自动将应用程序依赖项包含到应用程序JAR中。对于没有从这些模板中设置的项目我们建议添加Maven Shade Plugin来构建包含所有必需依赖项的应用程序jar。 重要:请注意所有这些核心API依赖项都应该将它们的作用域设置为 provided。这意味着需要对它们进行编译但是不应该将它们打包到项目的最终应用程序JAR文件中。如果没有设置为provided最好的情况是最终的JAR变得过大因为它还包含所有Flink核心依赖项。最坏的情况是添加到应用程序JAR文件中的Flink核心依赖项与您自己的一些依赖项版本发生冲突(通常可以通过反向类加载来避免这种情况)。 要正确地将依赖项打包到应用程序JAR中必须将Flink API依赖项设置为compile 范围。 2.5 打包应用程序 根据您的用例在将Flink应用程序部署到Flink环境之前可能需要以不同的方式对其进行打包。 如果你想为Flink Job创建一个JAR并且只使用Flink依赖关系而不使用任何第三方依赖关系(即使用JSON格式的文件系统连接器)你不需要创建一个uber/fat JAR或遮挡任何依赖关系。 如果您想为Flink Job创建一个JAR并使用Flink发行版中没有内置的外部依赖项您可以将它们添加到发行版的类路径中或者将它们隐藏到您的uber/fat应用程序JAR中。 有了生成的uber/fat JAR你可以通过以下命令将其提交到本地或远程集群: bin/flink run -c org.example.MyJob myFatJar.jar要了解有关如何部署Flink作业的详细信息请查看部署指南。 2.6 用于创建带有依赖项的uber/fat JAR的模板 要构建一个包含声明的连接器和库所需的所有依赖项的应用程序JAR您可以使用以下插件定义: buildpluginsplugingroupIdorg.apache.maven.plugins/groupIdartifactIdmaven-shade-plugin/artifactIdversion3.1.1/versionexecutionsexecutionphasepackage/phasegoalsgoalshade/goal/goalsconfigurationartifactSetexcludesexcludecom.google.code.findbugs:jsr305/exclude/excludes/artifactSetfiltersfilter!-- Do not copy the signatures in the META-INF folder.Otherwise, this might cause SecurityExceptions when using the JAR. --artifact*:*/artifactexcludesexcludeMETA-INF/*.SF/excludeexcludeMETA-INF/*.DSA/excludeexcludeMETA-INF/*.RSA/exclude/excludes/filter/filterstransformerstransformer implementationorg.apache.maven.plugins.shade.resource.ManifestResourceTransformer!-- Replace this with the main class of your job --mainClassmy.programs.main.clazz/mainClass/transformertransformer implementationorg.apache.maven.plugins.shade.resource.ServicesResourceTransformer//transformers/configuration/execution/executions/plugin/plugins /build默认情况下Maven阴影插件将包括runtime 和compile范围内的所有依赖项。 3、连接器和格式 Flink应用程序可以通过连接器读取和写入各种外部系统。它支持多种格式以便编码和解码数据以匹配Flink的数据结构。 数据流和Table API/SQL的可用连接器和格式概述。 3.1 Available artifacts 为了使用连接器和格式您需要确保Flink能够访问实现它们的构件。对于Flink社区支持的每个连接器我们在Maven Central上发布两个工件: flink-connector-NAME 它是一个瘦JAR只包括连接器代码但不包括最终的第三方依赖flink-sql-connector-NAME 它是一个超级JAR可以与所有连接器第三方依赖项一起使用 这同样适用于格式formats。注意有些连接器可能没有相应的flink-sql-connector-NAME构件因为它们不需要第三方依赖项。 uber/fat jar主要用于与SQL客户端一起使用但您也可以在任何数据流/表应用程序中使用它们。 3.2 Using artifacts 为了使用连接器/格式模块你可以: 在您的作业JAR中为瘦JAR及其传递依赖项 Shade在你的工作JAR中添加超级JAR将uber JAR直接拷贝到Flink发行版的/lib文件夹中 对于shading 依赖请查看特定的Maven和Gradle指南。有关Flink分布的参考请查看Flink分布的解剖。 决定是shade uber JAR、瘦JAR还是仅仅在发行版中包含依赖取决于您和您的用例。如果您为依赖项添加阴影您将对作业JAR中的依赖项版本有更多的控制。在对瘦JAR进行shade 的情况下您将对传递依赖项有更多的控制因为您可以在不更改连接器版本的情况下更改版本(允许二进制兼容性)。如果在Flink分发/lib文件夹中直接嵌入连接器uber JAR您将能够在一个地方控制所有作业的连接器版本。 4、测试依赖 Flink提供了用于测试作业的实用程序您可以将其添加为依赖项。 4.1 DataStream API Testing 如果要为使用DataStream API构建的作业开发测试则需要添加以下依赖项: dependencygroupIdorg.apache.flink/groupIdartifactIdflink-test-utils/artifactIdversion1.18.0/versionscopetest/scope /dependency在各种测试实用程序中该模块提供了MiniCluster这是一个轻量级的可配置Flink集群可在JUnit测试中运行可以直接执行作业。 有关如何使用这些实用程序的更多信息请参阅DataStream API测试一节 4.2 Table API Testing 如果你想在IDE中本地测试Table API SQL程序除了前面提到的flink-test-utils之外你可以添加以下依赖项: dependencygroupIdorg.apache.flink/groupIdartifactIdflink-table-test-utils/artifactIdversion1.18.0/versionscopetest/scope /dependency这将自动引入查询规划器和运行时它们分别用于规划和执行查询。 Flink -table-test-utils模块已在Flink 1.15中引入被认为是实验性的。 5、高级配置主题 5.1 Flink分布的解剖 Flink本身由一组类和依赖项组成这些类和依赖项构成了Flink运行时的核心并且在启动Flink应用程序时必须出现。运行系统所需的类和依赖关系处理诸如协调、网络、检查点、故障转移、api、操作符(如窗口)、资源管理等领域。 这些核心类和依赖项被打包在flink-dist.jar中它可以在下载的发行版的/lib文件夹中获得并且是基本Flink容器映像的一部分。您可以将这些依赖关系看作类似于Java的核心库其中包含String和List之类的类。 为了保持核心依赖尽可能小并避免依赖冲突Flink核心依赖不包含任何连接器或库(即CEP, SQL, ML)以避免在类路径中有过多的默认类和依赖。 Flink发行版的/lib目录还包含各种jar其中包括常用模块例如执行Table作业所需的所有模块以及一组连接器和格式。这些是默认加载的可以通过从/lib文件夹中删除它们来从类路径中删除。 Flink还在/opt文件夹下提供了额外的可选依赖项这可以通过移动/lib文件夹中的jar来启用。 有关类加载的更多信息请参阅Flink中的类加载一节。 5.2 Scala版本 不同的Scala版本之间不是二进制兼容的。所有(传递地)依赖于Scala的Flink依赖都以其构建的Scala版本为后缀(例如:flink-streaming-scala_2.12)。 如果你只使用Flink的Java api你可以使用任何Scala版本。如果您正在使用Flink的Scala api则需要选择与应用程序的Scala版本匹配的Scala版本。 有关如何为特定的Scala版本构建Flink的详细信息请参阅构建指南。 2.12.8之后的Scala版本与之前的2.12.x 版本不兼容。这将阻止Flink项目升级其2.12.X版本在2.12.8之后。您可以按照构建指南在本地为以后的Scala版本构建Flink。为此您需要添加-Djapicmp.skip在构建时跳过二进制兼容性检查。 5.3 表依赖剖析 Flink发行版默认包含执行Flink SQL作业所需的jar(在/lib文件夹中)特别是: flink-table-api-java-uber-1.18.0.jar → contains all the Java APIsflink-table-runtime-1.18.0.jar → contains the table runtimeflink-table-planner-loader-1.18.0.jar → contains the query planner 以前这些jar都打包到flink-table.jar中。从Flink 1.15开始为了允许用户将flink-table-planner-loader-1.18.0.jar 与flink-table-planner_2.12-1.18.0.jar交换这个文件现在被分成三个jar。 虽然 Table Java API构件内置于发行版中但默认情况下不包括表Scala API构件。当使用Flink Scala API的格式和连接器时您需要手动下载并将这些JAR包含在distribution /lib文件夹中(推荐)或者将它们打包为Flink SQL作业的uber/fat JAR中的依赖项。 有关更多详细信息请查看如何连接到外部系统。 Table Planner and Table Planner Loader 从Flink 1.15开始该分布包含两个规划器: flink-table-planner_2.12-1.18.0.jar, in /opt, contains the query plannerflink-table-planner-loader-1.18.0.jar, loaded by default in /lib, contains the query planner hidden behind an isolated classpath (you won’t be able to address any io.apache.flink.table.planner directly) 这两个规划器jar包含相同的代码但是它们的打包不同。在第一种情况下必须使用相同的Scala版本的JAR。在第二种情况下您不需要考虑Scala因为它隐藏在JAR中。 默认情况下发行版使用flink-table-planner-loader。如果需要访问和使用查询规划器的内部可以交换jar(在distribution /lib文件夹中复制并粘贴flink-table-planner_2.12.jar)。请注意您将被限制使用您正在使用的Flink发行版的Scala版本。 这两个计划器不能同时存在于类路径中。如果将它们都加载到/lib中则表作业将失败。 在即将到来的Flink版本中我们将停止在Flink发行版中发布flink-table-planner_2.12工件。我们强烈建议迁移作业和自定义连接器/格式以使用API模块而不依赖于规划器内部。如果您需要来自计划器的一些功能这些功能目前没有通过API模块公开请打开一个票证以便与社区讨论。 5.4 Hadoop的依赖性 一般规则:没有必要将Hadoop依赖项直接添加到应用程序中。如果你想在Hadoop中使用Flink你需要有一个包含Hadoop依赖项的Flink设置而不是将Hadoop作为一个应用程序依赖项添加。换句话说Hadoop必须依赖于Flink系统本身而不是包含应用程序的用户代码。Flink将使用由HADOOP_CLASSPATH环境变量指定的Hadoop依赖项可以这样设置: export HADOOP_CLASSPATHhadoop classpath这种设计有两个主要原因: 一些Hadoop交互发生在Flink的核心可能在用户应用程序启动之前。其中包括为检查点设置HDFS通过Hadoop的Kerberos令牌进行身份验证或者部署在YARN上。Flink的反向类加载方法从核心依赖项中隐藏了许多传递依赖项。这不仅适用于Flink自己的核心依赖也适用于安装过程中出现的Hadoop依赖。这样应用程序就可以使用相同依赖项的不同版本而不会遇到依赖冲突。当依赖树变得非常大时这非常有用。 如果你在IDE中开发或测试时需要Hadoop依赖项(例如HDFS访问)你应该将这些依赖项配置为类似于依赖项的范围(例如test 或provided)。
http://www.pierceye.com/news/598185/

相关文章:

  • 浙江省建设厅查询官方网站外贸业务员
  • 乐清公司网站建设高端网站有哪些
  • 网站备案状态查询漳州北京网站建设
  • wordpress oss ftp湖北百度seo排名
  • 深圳福田站弹簧机东莞网站建设
  • 网站美工要求企业建设网站风险
  • 网站建设项目资金申请报告semen
  • 阿里巴巴上做网站要多少钱信息网络工程师
  • 网站建设与网页设计心得体会淘宝网页制作素材
  • 男女做床网站装酷网装修平台
  • 网站引导页动画华为网站哪个公司做的
  • 网站开发用了哪些技术上海建设网站制作
  • 惠州微网站建设胶州家园网站建设
  • 建设配资网站有要求吗网站的内部链接如何做
  • 济南专业做公司网站的机构评价一个网站的优缺点
  • 广东省石油化工建设集团公司网站炫酷个人网站
  • 石家庄模板建站代理什么网站可以自己做字
  • 公司想做个网站应该怎么做河南郑州网站设计公司
  • 建电影网站赚钱挣钱吗网站互动功能
  • 流浪动物网站开发巴中手机网站建设
  • 吕梁网站建设kuyiso手机网站建设 jz.woonl
  • 电脑和手机都能浏览的网站开发设计学类包括哪些专业
  • 网站规划与建设评分标准网站中竖导航栏怎么做
  • 网站备案规定周到的商城网站建设
  • 考幼师证去哪个网站做试题如何分析网站建设
  • 济南智能网站建设哪家好化工网站建设推广
  • 福州 网站定制设计稿定设计官方免费下载
  • 统计局网站建设情况南宁做网站优化的公司
  • 免费的软件网站建设北京建设厅网站查询
  • 没有公司做网站短网址短链接生成器