当前位置: 首页 > news >正文

网站建设框架文档wordpress怎么添加留言板

网站建设框架文档,wordpress怎么添加留言板,外网网站,用dw做网页的步骤本文介绍hadoop中的MapReduce技术的应用#xff0c;使用java API。操作系统#xff1a;Ubuntu24.04。 MapReduce概述 MapReduce概念 MapReduce是一个分布式运算程序的编程框架#xff0c;核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序…本文介绍hadoop中的MapReduce技术的应用使用java API。操作系统Ubuntu24.04。 MapReduce概述 MapReduce概念 MapReduce是一个分布式运算程序的编程框架核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序并发运行在一个Hadoop集群上。 MapReduce核心思想 分布式的运算程序往往需要分成至少2个阶段。 第一个阶段的MapTask并发实例完全并行运行互不相干。 第二个阶段的ReduceTask并发实例互不相干但是他们的数据依赖于上一个阶段的所有MapTask并发实例的输出。 MapReduce编程模型只能包含一个Map阶段和一个Reduce阶段如果用户的业务逻辑非常复杂那就只能多个MapReduce程序串行运行。 MapReduce 进程 MrAppMaster负责整个程序的过程调度及状态调度 MapTask负责 Map 阶段的整个数据处理流程 ReduceTask负责 Reduce 阶段的整个数据处理流程 创建软件包 新建一个MapReduce软件包 编写Mapper类 Mapper类将单词文本进行切割切割成一个个的单词写入到上下文中 1按行读取通过split函数进行切割将切割出来的一个个单词放到数组words中 2遍历数组words将存在的单词数据存储到word中然后将word写入到context上下文使Redcue程序能访问到数据 核心代码 package MapReduce;import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Mapper;import java.io.IOException;public class WordCountMapper extends MapperLongWritable, Text, Text, IntWritable {// 输出Text k new Text();IntWritable v new IntWritable(1);Overrideprotected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {// 1 获取一行String line value.toString();// 2 切割String[] words line.split( );// 3 输出for (String word : words) {k.set(word);context.write(k, v);}} }编写Reducer类 Reducer类 1将每个单词统计次数结果进行求和合并 2把统计结果依次写入到context上下文中 核心代码 package MapReduce;import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Reducer;import java.io.IOException;public class WordCountReducer extends ReducerText, IntWritable, Text, LongWritable {Overrideprotected void reduce(Text key, IterableIntWritable values, Context context) throws IOException, InterruptedException {// 声明变量 用于存储聚合完的结果long count 0;// 遍历相同的 key 获取对应的所有 valuefor (IntWritable value : values) {count value.get();}// 将聚合完的结果写到 MapReduce 框架context.write(key, new LongWritable(count));} }编写Driver类 Driver类中需要进行以下操作 获取job 设置jar包路径 关联Mapper、Reducer 设置map输出的k,v类型 最终输出的k,v类型 设置输入路径和输出路径 提交job 核心代码 package MapReduce;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;import java.io.IOException;public class WordCountDriver {public static void main(String[] args) throws IOException, InterruptedException, ClassNotFoundException {// 0. 自定义配置对象Configuration conf new Configuration();// 1. 创建 Job 对象参数可取消Job job Job.getInstance(conf);// 2. 给 Job 对象添加 Mapper 类的 Classjob.setMapperClass(WordCountMapper.class);// 3. 给 Job 对象添加 Reduce 类的 Classjob.setReducerClass(WordCountReducer.class);// 4. 给 Job 对象添加 Driver 类的 Classjob.setJarByClass(WordCountDriver.class);// 5. 设置 Mapper 输出的数据的 key 类型job.setMapOutputKeyClass(Text.class);// 6. 设置 Mapper 输出的数据的 value 类型job.setMapOutputValueClass(IntWritable.class);// 7. 设置 Reduce 输出的数据的 key 类型job.setOutputKeyClass(Text.class);// 8. 设置 Reduce 输出的数据的 value 类型job.setOutputValueClass(LongWritable.class);// 定义uri字符串// String uri hdfs://master:9000;// 9. 设置 MapReduce 任务的输入路径FileInputFormat.setInputPaths(job, new Path(args[0]));// 10.设置 MapReduce 任务的输出路径FileOutputFormat.setOutputPath(job, new Path(args[1]));// 11.提交任务boolean result job.waitForCompletion(true);// 12.退出返回System.exit(result ? 0 : 1);} }打包 在IDEA中选择最右边的“Maven”选项卡展开旁边的” Lifecycle → package”双击在最左边的Project面板中找到” src → target”就能发现生成了一个jar文件我这里是“Spark-1.0-SNAPSHOT.jar”。 找到这个文件在文件资源管理器打开上传这个文件。可以修改成一个简单的名字如“mr.jar”然后放到一个你容易找到的地方例如桌面上。利用XShell把这个文件上传到hadoop集群中 在hadoop集群中执行MapReduce程序 先准备好需要统计词频的文件用浏览器打开hadoop的Web UI输入地址 http://hadoop101:9870/ 然后选择“Utilities”菜单下的“Browser the file system”我创建了一个文件夹“wordcount” 进入“wordcount”文件夹我继续创建了一个文件夹“input”。继续进入“input”文件夹我上传了两个文件“”file01.txt 和“file02.txt”内容分别为 Hello MapReduce Bye MapReduce Hello Hadoop Goodbye Hadoop 进入主机master打开命令行窗口输入下列命令来执行上传的MapReduce程序 cd /home/youka hadoop jar mr.jar mr.WordCountDriver /wordcount/input /wordcount/output 系统执行后报错了 Could not find or load main class org.apache.hadoop.mapreduce.v2.app.MRAppMaster 这里给出的报错信息非常明确就是mapreduce配置文件没有配好先打开hadoop中mapreduce配置文件 vim /usr/local/hadoop/etc/hadoop/mapred-site.xml 在configuration中增加一下配置 propertynameyarn.app.mapreduce.am.env/namevalueHADOOP_MAPRED_HOME${HADOOP_HOME}/value /property propertynamemapreduce.map.env/namevalueHADOOP_MAPRED_HOME${HADOOP_HOME}/value /property propertynamemapreduce.reduce.env/namevalueHADOOP_MAPRED_HOME${HADOOP_HOME}/value /property重新执行成功 在“wordcount”中增加了一个”output”文件夹 打开后多了两个文件 “part-r-00000”文件显示了统计结果
http://www.pierceye.com/news/891192/

相关文章:

  • 做下载网站用什么程序好深圳公司注册服务
  • 猎头网站模板济源专业网站建设(制作网站)
  • kotlin做网站单页应用网站
  • 邢台网站改版开发长沙教育网站开发
  • 网站开发人员必备技能网站背景图片自动切换
  • 企业网站建立策划书有网站吗给一个
  • 外贸建站有哪些公司建设主管部门网站查询
  • 泰安市网站建设广州优化公司哪家好
  • 手机网游传奇西安关键词优化平台
  • 网站建设公司权威机构3d虚拟人物制作软件
  • 北京网站建设seo公司哪家好阿里巴巴企业邮箱登录入口
  • 广州shopify代建站新产品代理
  • html5网站特点在线搜索引擎
  • 网站搭建服务平台网站备案 关闭网站
  • 高端建站收费标准宣传设计网站
  • 视频网站数据库设计手机企业网站设计
  • 广安发展建设集团有限公司门户网站竞价推广代运营服务
  • 济南mip网站建设公司山西住房建设厅网站
  • 兰州需要做网站的公司有哪些做词云的网站
  • 红酒公司网站建设模板6841如何通过网站获取qq
  • 写一张营销型网站页面多长时间微动漫怎么制作
  • 网站架构设计师月薪多少柳州团购网站建设
  • 深圳宝安沙井网站建设网络营销推广主要做什么?有哪些方法和技巧?
  • 图书馆门户网站建设的意义开票 网站建设
  • 如何用家用电脑做网站wordpress的伪静态
  • 东营市城市和建设管理局网站网络基础知识点
  • 怎么制作网站链接转发视频网页游戏开服表怎么取消
  • 360网站seo怎么做北京商场关闭通知
  • 连云港建设公司网站工程承包信息
  • 互动网站制作建设医院网站服务