当前位置: 首页 > news >正文

网站开发定制方案wordpress安装页面错乱

网站开发定制方案,wordpress安装页面错乱,上海网站制作公司介绍,西安网站公司建设了解了什么是Hadoop之后#xff0c;让我们在单机上启动Hadoop#xff1a; 这篇文章包含在ubuntu上安装Hadoop的说明。 这是Hadoop安装的快速分步教程。 在这里#xff0c;您将获得以独立模式 #xff08;单节点集群#xff09;安装Hadoop所需的所有命令及其说明#xff0… 了解了什么是Hadoop之后让我们在单机上启动Hadoop 这篇文章包含在ubuntu上安装Hadoop的说明。 这是Hadoop安装的快速分步教程。 在这里您将获得以独立模式 单节点集群安装Hadoop所需的所有命令及其说明   伪分布式模式下的Hadoop 单节点群集和分布式模式下的Hadoop 多节点群集。 本教程的主要目标是启动并运行“简单的” Hadoop安装以便您可以试用该软件并了解更多信息。 本教程已经过测试 Ubuntu Linux10.04 LTS Hadoop 0.20.2 先决条件 安装Java 推荐将Java 1.6.xSun Java或Open Java用于Hadoop 1.将Canonical合作伙伴存储库添加到您的apt存储库中 $ sudo add-apt-repository deb http://archive.canonical.com/ lucid partner 2.更新源列表 $ sudo apt-get update 3.安装sun-java6-jdk $ sudo apt-get install sun-java6-jdk 4.安装后快速检查Sun的JDK是否正确设置 userubuntu:~# java -version java version 1.6.0_20 Java(TM) SE Runtime Environment (build 1.6.0_20-b02) Java HotSpot(TM) Client VM (build 16.3-b01, mixed mode, sharing) 添加专用的Hadoop系统用户 我们将使用专用的Hadoop用户帐户来运行Hadoop。 虽然这不是必需的但建议这样做因为它有助于将Hadoop安装与同一计算机上运行的其他软件应用程序和用户帐户分开请考虑安全性权限备份等 $ sudo adduser hadoop_admin 登录到hadoop_admin用户 userubuntu:~$ su - hadoop_admin Hadoop安装 $ cd /usr/local $ sudo tar xzf hadoop-0.20.2.tar.gz $ sudo chown -R hadoop_admin /usr/local/hadoop-0.20.2 定义JAVA_HOME 编辑配置文件/usr/local/hadoop-0.20.2/conf/hadoop-env.sh并设置JAVA_HOME 导出JAVA_HOME 要成为Java安装根目录的路径例如/ usr / lib / jvm / java-6-sun $ vi conf/hadoop-env.sh 进入您的hadoop安装目录HADOOP_HOME即/usr/local/hadoop-0.20.2/ $ bin/hadoop 它将生成以下输出 Usage: hadoop [--config confdir] COMMAND where COMMAND is one of: namenode -format format the DFS filesystem secondarynamenode run the DFS secondary namenode namenode run the DFS namenode datanode run a DFS datanode dfsadmin run a DFS admin client mradmin run a Map-Reduce admin client fsck run a DFS filesystem checking utility fs run a generic filesystem user client balancer run a cluster balancing utility jobtracker run the MapReduce job Tracker node pipes run a Pipes job tasktracker run a MapReduce task Tracker node job manipulate MapReduce jobs queue get information regarding JobQueues version print the version jar jar run a jar file distcp srcurl desturl copy file or directories recursively archive -archiveName NAME src*dest create a hadoop archive daemonlog get/set the log level for each daemon or CLASSNAME run the class named CLASSNAME Most commands print help when invoked w/o parameters: 独立模式下的Hadoop安装已完成……。!!!!!!! 现在运行一些示例 1.运行经典Pi示例 $ bin/hadoop jar hadoop-*-examples.jar pi 10 100 2.运行grep示例 $ mkdir input $ cp conf/*.xml input $ bin/hadoop jar hadoop-*-examples.jar grep input output dfs[a-z.] $ cat output/* 3.运行字数示例 $ mkdir inputwords $ cp conf/*.xml inputwords $ bin/hadoop jar hadoop-*-examples.jar wordcount inputwords outputwords 如果发现任何错误请访问Hadoop故障排除 在独立模式下运行Hadoop之后让我们以伪分布式模式 单节点集群启动Hadoop 配置SSH Hadoop需要SSH访问权限来管理其节点即远程计算机和本地计算机。 因此对于我们的Hadoop单节点设置我们需要为hadoop_admin用户配置对localhost的SSH访问 userubuntu:~$ su - hadoop_admin hadoop_adminubuntu:~$ sudo apt-get install openssh-server openssh-clienthadoop_adminubuntu:~$ ssh-keygen -t rsa -P Generating public/private rsa key pair. Enter file in which to save the key (/home/hadoop_admin/.ssh/id_rsa): Created directory /home/hadoop_admin/.ssh. Your identification has been saved in /home/hadoop_admin/.ssh/id_rsa. Your public key has been saved in /home/hadoop_admin/.ssh/id_rsa.pub. The key fingerprint is: 9b:82:ea:58:b4:e0:35:d7:ff:19:66:a6:ef:ae:0e:d2 hadoop_adminubuntu The keys randomart image is: [...snipp...] hadoop_adminubuntu:~$ 启用S​​SH访问本地计算机并使用ssh连接 $ cat $HOME/.ssh/id_rsa.pub $HOME/.ssh/authorized_keys $ ssh localhost The authenticity of host localhost (::1) cant be established. RSA key fingerprint is e7:89:26:49:ae:02:30:eb:1d:75:4f:bb:44:f9:36:29. Are you sure you want to continue connecting (yes/no)? yes Warning: Permanently added localhost (RSA) to the list of known hosts. Linux ubuntu 2.6.32-22-generic #33-Ubuntu SMP Wed Apr 30 13:27:30 UTC 2010 i686 GNU/Linux Ubuntu 10.04 LTS [...snipp...] $ 编辑配置文件 $ vi conf/core-site.xml configuration property namefs.default.name/name valuehdfs://localhost:9000/value /propertyproperty namehadoop.tmp.dir/name value/tmp/hadoop-${user.name}/value /property/configuration 如果提供其他路径请确保该目录中的hadoop_admin用户具有读写权限sudo chown hadoop_admin / your / path $ vi conf/hdfs-site.xml configuration property namedfs.replication/name value1/value /property /configuration$ vi conf/mapred.xml configuration property namemapred.job.tracker/name valuelocalhost:9001/value /property /configuration 格式化名称节点 $ /hadoop/bin/hadoop namenode -format 它将生成以下输出 $ bin/hadoop namenode -format 10/05/10 16:59:56 INFO namenode.NameNode: STARTUP_MSG: /************************************************************ STARTUP_MSG: Starting NameNode STARTUP_MSG: host ubuntu/127.0.1.1 STARTUP_MSG: args [-format] STARTUP_MSG: version 0.20.2 STARTUP_MSG: build https://svn.apache.org/repos/asf/hadoop/common/branches/branch-0.20 -r 911707; compiled by chrisdo on Fri Feb 19 08:07:34 UTC 2010 ************************************************************/ 10/05/10 16:59:56 INFO namenode.FSNamesystem: fsOwnerhadoop_admin,hadoop 10/05/08 16:59:56 INFO namenode.FSNamesystem: supergroupsupergroup 10/05/08 16:59:56 INFO namenode.FSNamesystem: isPermissionEnabledtrue 10/05/08 16:59:56 INFO common.Storage: Image file of size 96 saved in 0 seconds. 10/05/08 16:59:57 INFO common.Storage: Storage directory .../.../dfs/name has been successfully formatted. 10/05/08 16:59:57 INFO namenode.NameNode: SHUTDOWN_MSG: /************************************************************ SHUTDOWN_MSG: Shutting down NameNode at ubuntu/127.0.1.1 ************************************************************/ $ 启动单节点集群 $ /bin/start-all.sh 它将生成以下输出 hadoop_adminubuntu:/usr/local/hadoop$ bin/start-all.sh starting namenode, logging to /usr/local/hadoop/bin/../logs/hadoop-hadoop-namenode-ubuntu.out localhost: starting datanode, logging to /usr/local/hadoop/bin/../logs/hadoop-hadoop-datanode-ubuntu.out localhost: starting secondarynamenode, logging to /usr/local/hadoop/bin/../logs/hadoop-hadoop-secondarynamenode-ubuntu.out starting jobtracker, logging to /usr/local/hadoop/bin/../logs/hadoop-hadoop-jobtracker-ubuntu.out localhost: starting tasktracker, logging to /usr/local/hadoop/bin/../logs/hadoop-hadoop-tasktracker-ubuntu.out hadoop_adminubuntu:/usr/local/hadoop$ 检查jps是否正在运行预期的Hadoop进程 $ jps 14799 NameNode 14977 SecondaryNameNode 15183 DataNode 15596 JobTracker 15897 TaskTracker 伪分布式模式下的Hadoop安装已完成……。!!!!!!! 停止单节点集群 $ /bin/stop-all.sh 它将生成以下输出 $ bin/stop-all.sh stopping jobtracker localhost: stopping tasktracker stopping namenode localhost: stopping datanode localhost: stopping secondarynamenode $ 您可以在oder中运行与独立模式下相同的示例集以检查安装是否成功 基于Web的NameNode接口 http//本地主机50070 基于Web的JobTracker界面 http//本地主机50030 基于Web的TaskTracker界面 http//本地主机50060 在以独立模式运行Hadoop之后让我们以分布式模式 多节点集群启动Hadoop。 先决条件在分布式模式下启动hadoop之前必须在伪分布式模式下设置hadoop并且至少需要两台计算机其中一台用于主服务器另一台用于从服务器您可以在一台计算机上创建多台虚拟机。 命令 描述 $ bin / stop-all.sh 在以分布式模式启动hadoop之前请先停止每个集群。 在群集中的所有计算机主服务器和从服务器上运行此cmd   $ vi / etc / hosts 然后输入 IP添加主机例如192.168.0.1主机 IP添加从站例如192.168.0.2从站 在群集中的所有计算机主服务器和从服务器上运行此cmd   $ ssh-copy-id -i $ HOME / .ssh / id_rsa.pub从属 设置无密码的SSH 在所有计算机上您必须使用相同的用户名登录 在master上运行此cmd 要么 $ cat .ssh / id_rsa.pub 然后将其内容复制到 从属服务器的$ .ssh / authorized_keys文件您希望在不提示输入密码的情况下SSH登录的系统 我们还可以手动设置无密码的ssh $ vi conf / master 然后输入master conf / masters文件定义了我们的多节点集群的名称节点 在master上运行此cmd   $ vi conf /从属 然后输入slave 此conf / slaves文件列出了主机每行一个将在其中运行Hadoop从属守护程序数据节点和任务跟踪器。 在群集中的所有计算机主服务器和从服务器上运行此cmd     $ vi conf / core-site.xml 然后输入 属性 name fs.default.name / name value hdfs// master54310 / value / property 编辑配置文件core-site.xml 在群集中的所有计算机主服务器和从服务器上运行此cmd   $ vi conf / mapred-site.xml 然后输入 属性 name mapred.job.tracker / name value master54311 / value / property 编辑配置文件mapred-site.xml 在群集中的所有计算机主服务器和从服务器上运行此cmd   $ vi conf / hdfs-site.xml 然后输入 属性 name dfs.replication / name value 2 / value / property 编辑配置文件hdfs-site.xml 在群集中的所有计算机主服务器和从服务器上运行此cmd $ vi conf / mapred-site.xml 然后输入 属性 name mapred.local.dir / name value $ {hadoop.tmp.dir} / mapred / local / value / property 属性 name mapred.map.tasks / name value 20 / value / property 属性 name mapred.reduce.tasks / name value 2 / value / property 编辑配置文件mapred-site.xml 在master上运行此cmd $ bin / start-dfs.sh 启动多节点集群。 首先启动HDFS守护程序。 namenode守护程序在主服务器上启动而datanode守护程序在所有从属服务器上启动 在master上运行此cmd     $ jps 它应该给出如下输出 14799 NameNode 15314秒 16977 secondaryNameNode 在master上运行此cmd $ jps 它应该给出如下输出 15183数据节点 15616 Jps 在所有奴隶上运行此cmd $ bin / start-mapred.sh MapReduce守护程序已启动jobtracker在主服务器上启动而tasktracker守护程序在所有从服务器上启动 在master上运行此cmd   $ jps 它应该给出如下输出 16017跳 14799 NameNode 15596 JobTracker 14977 SecondaryNameNode 在master上运行此cmd   $ jps 它应该给出如下输出 15183数据节点 15897 TaskTracker 16284每秒 在所有奴隶上运行此cmd   恭喜Hadoop安装完成 http// localhost50070 / 基于Web的名称节点界面 http// localhost50030 / 基于Web的作业跟踪器界面 现在运行一些示例 $ bin / hadoop jar hadoop-*-examples.jar pi 10 100 运行pi示例 $ bin / hadoop dfs -mkdir输入 $ bin / hadoop dfs -put conf输入 $ bin / hadoop jar hadoop-*-examples.jar grep输入输出dfs [az。] $ bin / hadoop dfs -cat输出/ * 运行grep示例 $ bin / hadoop dfs -mkdir输入字 $ bin / hadoop dfs -put conf输入字 $ bin / hadoop jar hadoop-*-examples.jar字数输入词输出词 $ bin / hadoop dfs -cat outputwords / * 运行wordcount示例 $ bin / stop-mapred.sh $ bin / stop-dfs.sh 阻止恶魔 在master上运行此cmd    参考来自JCG合作伙伴的 独立模式下的 Hadoop伪分布式模式下的 Hadoop和分布式模式 下的 Hadoop   Rahul Patodi在高性能计算博客上。 翻译自: https://www.javacodegeeks.com/2012/01/hadoop-modes-explained-standalone.html
http://www.pierceye.com/news/332965/

相关文章:

  • 提升网站建设品质信息设计软件排行
  • 温州网站建设优化公司网站营销管理培训班
  • 昆明企业网站开发深圳航空公司最新官网
  • 青浦网站开发泸州建设网站
  • 福建省建设行业企业资质查询网站企业数据查询网站
  • wordpress 英文企业站东城手机网站制作
  • 搭建企业网站需要什么微商城系统网站模板
  • 班级网站怎样做ppt模板免费素材
  • 网站建设及运营 多少钱域名抢注哪个平台好
  • 抚顺营销型网站建设吴江开发区人才网
  • 余姚建设网站wordpress百度分享插件
  • iis网站服务器 建立出现问题吉林市城市建设档案馆官方网站
  • wordpress网站图片迁移打开一个网站为繁体字是怎么做的
  • 东莞规划局官方网站做网站要学一些什么
  • 网站动效是代码做的吗网站模板侵权问题
  • 网站开发语言总结有哪些怎么样让网站宣传自己
  • 网站建设公司哪家好找建设网站公司哪家好
  • 网站建设网上学a8直播免费版
  • 网上下载的免费网站模板怎么用灯箱网站开发
  • 四平市建设局网站贵州省民贸民品企业信息管理系统
  • 周口网站制作公司哪家好河南省信息服务平台官网
  • 然后建设自营网站湘潭市优化办
  • 大兴专业网站开发公司皮具网站建设策划书
  • 广告投放跟网站建设一样吗呼和浩特免费制作网站
  • 个人做网站的时代已经过去个人手机网站
  • 用vps做网站深圳广告公司招聘安装工人
  • 建设电影网站怎么上传电影如何建企业网站
  • 响应式网站制作公司org域名购买
  • 石家庄网站建设德信互联科技有限公司爬取漫画数据做网站
  • 国内免费iphone网站百度自然排名优化