当前位置: 首页 > news >正文

手机网站怎么布局wordpress放作品

手机网站怎么布局,wordpress放作品,万网域名注册官网,出入郑州最新通知今天迁移类型 同时迁移表及其数据#xff08;使用import和export#xff09; 迁移步骤 将表和数据从 Hive 导出到 HDFS将表和数据从 HDFS 导出到本地服务器将表和数据从本地服务器复制到目标服务器将表和数据从目标服务器上传到目标 HDFS将表和数据从目标 HDFS 上传到目标 Hiv…迁移类型 同时迁移表及其数据使用import和export 迁移步骤 将表和数据从 Hive 导出到 HDFS将表和数据从 HDFS 导出到本地服务器将表和数据从本地服务器复制到目标服务器将表和数据从目标服务器上传到目标 HDFS将表和数据从目标 HDFS 上传到目标 Hive 库如果原始 HDFS 和目标 HDFS 集群连通可使用 DiskCP 工具直接跨集群复制而跳过2~4步 一、Export、Import Export导出将Hive表中的数据导出到外部 Import导入将外部数据导入Hive表中二、Export 1、语法 EXPORT TABLE tablename TO export_target_path;2、用法 #把tshang表导出到hdfs上 hive (default) EXPORT TABLE lijia.tshang TO /tmp/hive_data/lijia; hive (default) exit [root /opt/PE/hive_data]# hadoop fs -ls /tmp/hive_data/lijia/tshang Found 2 items -rw-r--r-- 3 hive hdfs 1262 2024-03-18 17:35 /tmp/hive_data/lijia/tshang/_metadata drwxr-xr-x - hive hdfs 0 2024-03-18 17:35 /tmp/hive_data/lijia/tshang/data HDFS 集群连通时使用 DiskCP 进行拷贝 hadoop distcp hdfs://scrNmaeNode/tmp/db_name hdfs://targetNmaeNode/tmp HDFS 集群不连通 hadoop fs -get /tmp/hive_data scp -r hive_data roottargetAP:/tmp/ 上传到目标 HDFS hadoop fs -put /tmp/hive_data /tmp/ 三、Import 1、语法 IMPORT TABLE tablename FROM source_path;2、用法 #先创建lijia库导入数据 hive (default) create database lijia; OK Time taken: 0.012 seconds#导入 hive (db_hive) import table lijia.tshang from /tmp/hive_data/lijia;hive (db_hive) select * from lijia.tshang; OK emp.empno emp.ename emp.job emp.mgr emp.hiredate emp.sal emp.comm emp.deptno 7369 SMITH CLERK 7902 1980-12-17 800.0 NULL 20 7499 ALLEN SALESMAN 7698 1981-2-20 1600.0 300.0 30 7521 WARD SALESMAN 7698 1981-2-22 1250.0 500.0 30 7566 JONES MANAGER 7839 1981-4-2 2975.0 NULL 20 7654 MARTIN SALESMAN 7698 1981-9-28 1250.0 1400.0 30 7698 BLAKE MANAGER 7839 1981-5-1 2850.0 NULL 30 7782 CLARK MANAGER 7839 1981-6-9 2450.0 NULL 10 7788 SCOTT ANALYST 7566 1987-4-19 3000.0 NULL 20 7839 KING PRESIDENT NULL 1981-11-17 5000.0 NULL 10 7844 TURNER SALESMAN 7698 1981-9-8 1500.0 0.0 30 7876 ADAMS CLERK 7788 1987-5-23 1100.0 NULL 20 7900 JAMES CLERK 7698 1981-12-3 950.0 NULL 30 7902 FORD ANALYST 7566 1981-12-3 3000.0 NULL 20 7934 MILLER CLERK 7782 1982-1-23 1300.0 NULL 10 Time taken: 0.029 seconds, Fetched: 14 row(s) 实施过程,迁移数据库不在是一个表 目标集群和服务器检查 df -lh # 查看本地空间使用情况 hadoop dfsadmin -report # 查看HDFS集群使用情况 hadoop fs -find / -name warehouse # 查找Hive库位置 hadoop fs -du -h /user/hive/warehouse # 查看Hive库占用同时迁移表及其数据使用import和export export 工具导出时会同时导出元数据和数据import 工具会根据元数据自行创建表并导入数据如果涉及事物表需要预先开启目标库的事物机制 -- 开启事务 -- https://cwiki.apache.org/confluence/display/Hive/HiveTransactions#HiveTransactions-Configuration SET hive.support.concurrency true; SET hive.enforce.bucketing true; SET hive.exec.dynamic.partition.mode nonstrict; SET hive.txn.manager org.apache.hadoop.hive.ql.lockmgr.DbTxnManager; SET hive.compactor.initiator.on true; SET hive.compactor.worker.threads 1;迁移步骤 #输入需要迁移的数据库default 执行 cat EOF /opt/lijia/hive_sel_tables.HQL use default; show tables; EOF# 罗列要迁移的表清单 执行 beeline -u jdbc:hive2://172.24.3.183:10000 -nhive -f /opt/lijia/hive_sel_tables.HQL \ | grep -e ^| \ | grep -v tab_name \ | sed s/|//g \ | sed s/ //g \/opt/lijia/hive_table_list.txt# 生成导出脚本 cat /opt/lijia/hive_table_list.txt \ | awk {printf export table db_name.%s to |\/tmp/lijia/db_name/%s\|;\n,$1,$1} \ | sed s/|//g \ | grep -v tab_name \/opt/lijia/hive_export_table.HQL执行 cat /opt/lijia/hive_table_list.txt \ | awk {printf export table default.%s to |\/tmp/lijia/default/%s\|;\n,$1,$1} \ | sed s/|//g \ | grep -v tab_name \/opt/lijia/hive_export_table.HQL# 生成导入脚本 cat /opt/lijia/hive_table_list.txt \ | awk {printf import table db_name.%s from |\/tmp/lijia/db_name/%s\|;\n,$1,$1} \ | sed s/|//g \ | grep -v tab_name \/opt/lijia/hive_import_table.HQL执行 cat /opt/lijia/hive_table_list.txt \ | awk {printf import table default.%s from |\/tmp/lijia/default/%s\|;\n,$1,$1} \ | sed s/|//g \ | grep -v tab_name \/opt/lijia/hive_import_table.HQL# 创建 HDFS 导出目录 hadoop fs -mkdir -p /tmp/lijia/db_name/ hadoop fs -mkdir -p /tmp/lijia/default/# 导出表结构到数据到 HDFS beeline -u jdbc:hive2://172.24.3.183:10000 -nhive -f /opt/lijia/hive_export_table.HQL## HDFS 集群连通时使用 DiskCP 进行拷贝 hadoop distcp hdfs://scrNmaeNode/tmp/db_name hdfs://targetNmaeNode/tmp## HDFS 集群不连通 hadoop fs -get /tmp/lijia/default/ scp -r /tmp/lijia/default/ roottargetAP:/tmp/lijia/## 目标服务器# 创建 HDFS 导出目录 hadoop fs -mkdir -p /tmp/lijia/# 上传到目标 HDFS hadoop fs -put /tmp/lijia/default /tmp/lijia/# 导入到目标 Hive beeline -u jdbc:hive2://172.24.3.183:10000 -nhive -f /opt/lijia/hive_import_table.HQL
http://www.pierceye.com/news/835119/

相关文章:

  • 可以做软件的网站有哪些功能wordpress建站事例
  • 静态网站生成刚刚发生在昆明的大事
  • 牡丹江0453免费信息网站学生保险网站
  • 接网站开发项目万网网站后台登陆
  • 江苏网站建站系统平台生存曲线哪个网站可以做
  • 国内产品网站w源码1688index网站制作
  • 韩国网站域名网站推广是干嘛的
  • 怎样查询江西省城乡建设厅网站互联网行业简介
  • 芜湖网站建设推广网站开发者 地图
  • 保养车哪个网站做的好电商网站建设目的及网站的优势
  • 文化馆建设网站上海建设银行官网网站
  • 微信分销网站建设垂直网站建设步骤
  • 网站建设招聘简介应届生求职网站官网
  • 驾校网站建设中国建设银行信用卡中心网站
  • 网站开发中的文档代理网络是什么意思
  • 如何不让百度收录网站网页设计教程文字和图片
  • 深圳网站建设公司哪家最好WordPress文章查询插件
  • 用于网站开发的语言北京专业做网站推广
  • 美工免费素材网站淘宝客cms建站教程
  • 平板上做网站的软件涂料网站建设
  • 做网站导航的wordpress自由度
  • 怎样建外贸网站步骤的英文
  • 网站网上商城建设网站上线详细步骤
  • 有那些网站可以做推广长沙公司排名
  • 怎样申请做p2p融资网站北京做网站一般多少钱
  • 建筑公司网站作用ASP.NET实用网站开发答案
  • 网站建设如何获取客户东莞网络营销销售
  • 郑州平台类网站自建房平面图设计软件
  • 昆明网站运营公司有哪些网页版微信登录二维码
  • 中国最权威的网站排名网上商店系统设计与开发