当前位置: 首页 > news >正文

水果网站建设的策划书wordpress会员邮件通知

水果网站建设的策划书,wordpress会员邮件通知,网络口碑营销的定义,做pc端网站多少钱1.NameNode元数据多目录 HDFS集群中可以在hdfs-site.xml中配置“dfs.namenode.name.dir”属性来指定NameNode存储数据的目录#xff0c;默认NameNode数据存储在${hadoop.tmp.dir}/dfs/name目录#xff0c;“hadoop.tmp.dir”配置项在core-site.xml中。 我们也可以将NameNod…1.NameNode元数据多目录 HDFS集群中可以在hdfs-site.xml中配置“dfs.namenode.name.dir”属性来指定NameNode存储数据的目录默认NameNode数据存储在${hadoop.tmp.dir}/dfs/name目录“hadoop.tmp.dir”配置项在core-site.xml中。 我们也可以将NameNode存储元数据的目录设置为多个 每个目录中存储内容相同两者相当于是备份这样可以增加元数据安全可靠性。例如元数据目录设置2个一个目录设置在A磁盘上一个目录设置到B磁盘上这样当磁盘A坏掉后NameNode存储元数据也不会丢失。 具体配置可以按照如下步骤进行。 配置hdfs-site.xml文件 这里在node1 NameNode节点上配置dfs.namenode.name.dir指定两个目录。 propertynamedfs.namenode.name.dir/namevaluefile://${hadoop.tmp.dir}/dfs/name1,file://${hadoop.tmp.dir}/dfs/name2/value/property分发hdfs-site.xml 如果其他节点的NameNode节点磁盘目录和node1节点一样可以将配置好的hdfs-site.xml分发到其他节点否则不需要分发那么就只有node1的NameNode节点按照此配置有2个元数据目录。 这里将hdfs-site.xml分发到其他NameNode节点上node2、node3。 [rootnode1 ~]# cd /software/hadoop-3.3.6/etc/hadoop/ [rootnode1 hadoop]# scp ./hdfs-site.xml node2:pwd [rootnode1 hadoop]# scp ./hdfs-site.xml node3:pwd删除原有集群数据 配置NameNode多数据目录需要重新格式化集群才能生效所以在开始搭建集群的时候就要进行规划。现在已经有了HDFS集群那么需要停止原有集群删除原有集群zookeeper中数据和各个节点HDFS角色数据目录。 删除zookeeper中数据 [rootnode5 ~]# zkCli.sh [zk: localhost:2181(CONNECTED) 2] deleteall /hadoop-hanode1~node5各个节点删除角色数据目录 #node1~node5 节点上删除NameNode和DataNode数据目录 rm -rf /opt/data/hadoop/#node3~node5 节点上删除JournalNode数据目录 rm -rf /opt/data/journal重新格式化集群 #在node3,node4,node5节点上启动zookeeper zkServer.sh start#在node1上格式化zookeeper [rootnode1 ~]# hdfs zkfc -formatZK#在每台journalnode中启动所有的journalnode,这里就是node3,node4,node5节点上启动 hdfs --daemon start journalnode#在node1中格式化namenode只有第一次搭建做以后不用做 [rootnode1 ~]# hdfs namenode -format#在node1中启动namenode,以便同步其他namenode [rootnode1 ~]# hdfs --daemon start namenode#高可用模式配置namenode,使用下列命令来同步namenode(在需要同步的namenode中执行这里就是在node2、node3上执行): [rootnode2 software]# hdfs namenode -bootstrapStandby [rootnode3 software]# hdfs namenode -bootstrapStandby通过HDFS WebUI查看NameNode存储目录信息 2. DataNode 数据多目录 DataNode负责存储HDFS数据HDFS中数据默认存储在各个DataNode节点file://${hadoop.tmp.dir}/dfs/data 路径中可以通过hdfs-site.xml文件中的参数hadoop.tmp.dir来配置我们也可以给该参数配置多个路径不同路径挂载到不同磁盘来解决datanode存储空间不足问题。 需要注意hadoop.tmp.dir 设置多个路径后不需重新格式化HDFS集群只需要重启即可生效。此外DataNode多个路径中数据并不是副本关系而是不同目录存储不同数据。 配置hdfs-site.xml文件 这里在node3 DataNode节点上配置dfs.datanode.data.dir指定两个目录。 propertynamedfs.datanode.data.dir/namevaluefile://${hadoop.tmp.dir}/dfs/data1,file://${hadoop.tmp.dir}/dfs/data2/value/property 分发hdfs-site.xml 如果其他节点的DataNode节点磁盘目录和node3节点一样可以将配置好的hdfs-site.xml分发到其他节点否则不需要分发那么就只有node3的DataNode节点按照此配置有2个数据目录。 这里将hdfs-site.xml分发到其他DataNode节点上node4、node5。 [rootnode3 ~]# cd /software/hadoop-3.3.6/etc/hadoop/ [rootnode3 hadoop]# scp ./hdfs-site.xml node4:pwd [rootnode3 hadoop]# scp ./hdfs-site.xml node5:pwd重启集群并检查DataNode数据目录 #重启集群 [rootnode1 ~]# stop-all.sh [rootnode1 ~]# start-all.sh#每台DataNode节点检查数据目录可以看到data1、data2目录 ls /opt/data/hadoop/dfs/ data data1 data2 name1 name2HDFS WebUI查看每个DataNode节点的数据存储路径如下 测试 向HDFS中存储数据时HDFS会自动均衡负载轮询方式决定将数据块存储在哪个目录中。此外我们还可以配置HDFS每个目录的存储策略决定将不同HDFS 目录的数据存储在不同的DataNode磁盘目录中详细参考“HDFS 异构存储”小节。 例如将如下data.txt数据上传至HDFS #data.txt数据 1,zs 2,ls 3,ww 4,ml 5,tq[rootnode5 ~]# hdfs dfs -put ./data.txt /以上数据文件上传至HDFS后可以看到只有一个block3个副本默认block数据存储在各个DataNode节点的data1目录下 [rootnode3 subdir0]# ll /opt/data/hadoop/dfs/data1/current/BP-187707191-192.168.179.4-1715610189467/current/finalized/subdir0/subdir0 blk_1073741825 blk_1073741825_1001.metamovieData.txt大文件上传至HDFS后该文件会产生3个block 3个block分别按照轮询方式存储在data1和data2目录中 [rootnode3 ~]# ls /opt/data/hadoop/dfs/data1/current/BP-187707191-192.168.179.4-1715610189467/current/finalized/subdir0/subdir0 blk_1073741825 blk_1073741825_1001.meta blk_1073741827 blk_1073741827_1003.meta blk_1073741829 blk_1073741829_1005.meta[rootnode3 ~]# ls /opt/data/hadoop/dfs/data2/current/BP-187707191-192.168.179.4-1715610189467/current/finalized/subdir0/subdir0 blk_1073741826 blk_1073741826_1002.meta blk_1073741828 blk_1073741828_1004.meta3.HDFS异构存储 在Hadoop中异构存储指的是根据数据的使用模式和特性将数据分配到不同类型或特性的存储介质上。在企业中HDFS中的数据根据使用频繁程度分为不同类型这些类型包括热、温、冷数据我们可以通过异构存储将不同类型数据根据存储策略存储在不同的介质中例如将不活跃或冷数据存储在成本较低的设备上(机械硬盘)而将活跃数据存储在性能更高的设备上(固态硬盘SSD)这样的存储策略通过平衡性能、成本和数据访问模式提高了数据存储的效率和经济性。 异构存储是Hadoop2.6.0版本引入的特性使得在存储数据时可以更好地利用不同存储介质的优势从而提高整个系统的性能和灵活性。 3.1数据存储类型及存储策略 HDFS中数据存储类型有如下几种 DISKDISK存储类型表示数据存储在普通机械硬盘上,默认的存储类型。ARCHIVEARCHIVE存储类型通常用于归档数据这些归档数据通常以压缩文件方式长期存储具备存储密度高、不经常访问的特点例如历史备份数据。这类数据存储介质一般可选普通磁盘。SSDSSD存储类型表示数据存储在固态硬盘上相比于传统的机械硬盘SSD具有更快的读写速度和更低的访问延迟。RAM_DISKRAM_DISK存储类型表示数据存储在内存中模拟的硬盘中,由于内存的读写速度非常快因此RAM_DISK存储类型通常用于对数据访问速度要求非常高的场景。 我们可以在hdfs-site.xml中配置dfs.datanode.data.dir配置项给DataNode配置数据存储目录这些目录可以配置多个并可以指定以上不同的存储类型。当向HDFS中写入数据时哪些数据存储在对应的存储类型中就需要根据HDFS中目录的存储策略来决定这些存储策略需要用户来执行对应命令来指定。 HDFS中支持如下不同的存储策略: 以上表格有如下两点解释 PROVIDED存储策略指的是在HDFS之外存储数据。LAZY_PERSIST存储策略指Block副本首先写在RAM_DISK中然后惰性的保存在磁盘中。#3列表示该策略下Block的分别例如“[SSD, DISK]”表示第一个block块存储在SSD存储类型中其他block块存储在 DISK 存储类型中。关于#4列和#5列的解释如下当#3列数据存储介质有足够的空间时block存储按照#3指定的进行存储如果空间不足创建新文件和数据副本将按照#4和#5列中指定的介质存储。HOT存储策略是默认的存储策略。常用的存储策略有COLD、WARN、HOT、ONE_SSD、ALL_SSD几种。 3.2HDFS存储类型配置 HDFS数据存储在DataNode中设置HDFS存储类型与DataNode数据多目录设置一样直接通过hdfs-site.xml文件中的参数hadoop.tmp.dir来配置可以在目录前面指定“DISK、ARCHIVE、SSD、RAM_DISK”不同的存储类型如果不配置默认所有存储类型为DISK。 在现有HDFS集群中DataNode节点有3个node3~node5,分别给每个DataNode节点设置多目录并在不同的DataNode节点中给不同目录指定不同的存储类型。 hadoop.tmp.dir 设置多个路径后不需重新格式化HDFS集群只需要重启即可生效。 按照如下步骤给DataNode设置多个存储磁盘路径及存储类型。 开启存储策略功能 在所有HDFS DataNode节点上配置hdfs-site.xml文件中“dfs.storage.policy.enabled”配置项为true该值默认为true表示开启HDFS存储策略功能。 在node3~node5所有DataNode节点上配置hdfs-site.xml propertynamedfs.storage.policy.enabled/namevaluetrue/value/property 配置hdfs-site.xml文件 修改node3 DataNode节点上hdfs-site.xml中配置项dfs.datanode.data.dir指定两个目录存储类型为DISK和ARCHIVE。 propertynamedfs.datanode.data.dir/namevalue[DISK]file://${hadoop.tmp.dir}/dfs/disk,[ARCHIVE]file://${hadoop.tmp.dir}/dfs/archive/value/property修改node4 DataNode节点上hdfs-site.xml中配置项dfs.datanode.data.dir指定两个目录存储类型为ARCHIVE和SSD。 propertynamedfs.datanode.data.dir/namevalue[ARCHIVE]file://${hadoop.tmp.dir}/dfs/archive,[SSD]file://${hadoop.tmp.dir}/dfs/ssd/value/property修改node5 DataNode节点上hdfs-site.xml中配置项dfs.datanode.data.dir指定两个目录存储类型为SSD和RAM_DISK。 propertynamedfs.datanode.data.dir/namevalue[SSD]file://${hadoop.tmp.dir}/dfs/ssd,[DISK]file://${hadoop.tmp.dir}/dfs/disk/value/property重启集群并检查DataNode数据目录 #重启集群 [rootnode1 ~]# stop-all.sh [rootnode1 ~]# start-all.sh#node3 DataNode节点检查数据目录可以看到disk、archive目录 [rootnode3 hadoop]# ls /opt/data/hadoop/dfs/ archive data data1 data2 disk name1 name2#node4 DataNode节点检查数据目录可以看到archive、ssd目录 [rootnode4 hadoop]# ls /opt/data/hadoop/dfs/ archive data data1 data2 ssd#node5 DataNode节点检查数据目录可以看到ssd、ramdisk目录 [rootnode5 hadoop]# ls /opt/data/hadoop/dfs/ data data1 data2 ramdisk ssd通过HDFS WebUI查看每个DataNode节点的数据存储路径由于给每个DataNode配置了新的数据目录原有HDFS中的数据文件会找不到原来数据的block信息出现如下提示 解决以上问题只需要执行删除损坏文件block命令即可 #查看缺失文件block [rootnode5 hadoop]# hdfs fsck / ... ... /data.txt: MISSING 1 blocks of total size 25 B. /movieData.txt: MISSING 3 blocks of total size 269317754 B. ... ...#删除缺失的文件正常文件不会被删除 [rootnode5 hadoop]# hdfs fsck / -deleteHDFS WebUI查看每个DataNode节点的数据存储路径如下 3.3存储策略操作命令 列出HDFS支持的存储策略 [rootnode5 ~]# hdfs storagepolicies -listPolicies Block Storage Policies:BlockStoragePolicy{PROVIDED:1, storageTypes[PROVIDED, DISK], creationFallbacks[PROVIDED, DISK], replicationFallbacks[PROVIDED, DISK]}BlockStoragePolicy{COLD:2, storageTypes[ARCHIVE], creationFallbacks[], replicationFallbacks[]}BlockStoragePolicy{WARM:5, storageTypes[DISK, ARCHIVE], creationFallbacks[DISK, ARCHIVE], replicationFallbacks[DISK, ARCHIVE]}BlockStoragePolicy{HOT:7, storageTypes[DISK], creationFallbacks[], replicationFallbacks[ARCHIVE]}BlockStoragePolicy{ONE_SSD:10, storageTypes[SSD, DISK], creationFallbacks[SSD, DISK], replicationFallbacks[SSD, DISK]}BlockStoragePolicy{ALL_SSD:12, storageTypes[SSD], creationFallbacks[DISK], replicationFallbacks[DISK]}BlockStoragePolicy{LAZY_PERSIST:15, storageTypes[RAM_DISK, DISK], creationFallbacks[DISK], replicationFallbacks[DISK]}B. 测试默认的存储策略HOT 在HDFS中创建目录 data并查询该data目录的默认存储策略可以通过命令“hdfs storagepolicies -getStoragePolicy -path path”来查询对应路径的存储策略。 #创建data目录并查询存储策略 [rootnode5 ~]# hdfs dfs -mkdir /data[rootnode5 ~]# hdfs storagepolicies -getStoragePolicy -path /data/ The storage policy of /data/ is unspecified将上文中data.txt文件上传至HDFS /data目录下然后通过“hdfs fsck -files -blocks -locations ”命令查询文件对应的block位置信息。 #上传 [rootnode5 ~]# hdfs dfs -put ./data.txt /data/#查询 [rootnode5 ~]# hdfs fsck /data/data.txt -files -blocks -locations /data/data.txt 25 bytes, replicated: replication3, 1 block(s): OK 0. BP-187707191-192.168.179.4-1715610189467:blk_1073741837_1013 len25 Live_repl3 [DatanodeInfoWithStorage[192.168.179.6:9866,DS-5f383d24-b137- 4208-b63f-01ff76f44394,DISK], DatanodeInfoWithStorage[192.168.179.8:9866,DS-6a5907f2-3065-4ea6-a097-70e2b3be4f5e,DISK], DatanodeInfoWithStorage[192.168.179.7:9866,DS-ac3a21d4-5503-4c39-bf63-fe1bc596d1c5,ARCHIVE]]默认认的文件存储策略为HOT将block数据存储在DISK存储类型中由于集群中node3、node5节点有DISK存储类型所以其Block副本会存在node3和node5节点剩余一个block副本会根据“后备创建副本存储类型”选择ARCHIVE存储类型的节点node4。也可以通过HDFS WebUI查看对应的文件block所在的节点信息。 C. 创建HDFS路径并指定存储策略 下面对常用的COLD、WARN、HOT、ONE_SSD、ALL_SSD存储策略进行测试。创建HDFS 如下5个路径并给5个目录指定对应的存储策略存储热、温、冷等其他数据给HDFS路径指定存储策略的命令为hdfs storagepolicies -setStoragePolicy -path Path -policy Policy 。 #创建hot 、warm、cold 、onessd、allssd五个HDFS目录 [rootnode5 ~]# hdfs dfs -mkdir /hot [rootnode5 ~]# hdfs dfs -mkdir /warm [rootnode5 ~]# hdfs dfs -mkdir /cold [rootnode5 ~]# hdfs dfs -mkdir /onessd [rootnode5 ~]# hdfs dfs -mkdir /allssd#给以上5个路径指定对应的存储策略 [rootnode5 ~]# hdfs storagepolicies -setStoragePolicy -path /hot -policy HOT [rootnode5 ~]# hdfs storagepolicies -setStoragePolicy -path /warm -policy WARM [rootnode5 ~]# hdfs storagepolicies -setStoragePolicy -path /cold -policy COLD [rootnode5 ~]# hdfs storagepolicies -setStoragePolicy -path /onessd -policy ONE_SSD [rootnode5 ~]# hdfs storagepolicies -setStoragePolicy -path /allssd -policy ALL_SSD#再次查询5个路径的存储策略 [rootnode5 ~]# hdfs storagepolicies -getStoragePolicy -path /hot [rootnode5 ~]# hdfs storagepolicies -getStoragePolicy -path /warm [rootnode5 ~]# hdfs storagepolicies -getStoragePolicy -path /cold [rootnode5 ~]# hdfs storagepolicies -getStoragePolicy -path /onessd [rootnode5 ~]# hdfs storagepolicies -getStoragePolicy -path /allssd将data.txt上传到HDFS /hot、/warm、/cold、/onessd、/allssd目录下 [rootnode5 ~]# hdfs dfs -put ./data.txt /hot [rootnode5 ~]# hdfs dfs -put ./data.txt /warm [rootnode5 ~]# hdfs dfs -put ./data.txt /cold [rootnode5 ~]# hdfs dfs -put ./data.txt /onessd [rootnode5 ~]# hdfs dfs -put ./data.txt /allssd再次查看这些目录下data.txt文件 block的位置信息 [rootnode5 ~]# hdfs fsck /hot/data.txt -files -blocks -locations /hot/data.txt 25 bytes, replicated: replication3, 1 block(s): OK 0. BP-187707191-192.168.179.4-1715610189467:blk_1073741838_1014 len25 Live_repl3 [DatanodeInfoWithStorage[192.168.179.6:9866,DS-5f383d24-b137- 4208-b63f-01ff76f44394,DISK], DatanodeInfoWithStorage[192.168.179.8:9866,DS-6a5907f2-3065-4ea6-a097-70e2b3be4f5e,DISK], DatanodeInfoWithStorage[192.168.179.7:9866,DS-ac3a21d4-5503-4c39-bf63-fe1bc596d1c5,ARCHIVE]][rootnode5 ~]# hdfs fsck /warm/data.txt -files -blocks -locations /warm/data.txt 25 bytes, replicated: replication3, 1 block(s): OK 0. BP-187707191-192.168.179.4-1715610189467:blk_1073741839_1015 len25 Live_repl3 [DatanodeInfoWithStorage[192.168.179.7:9866,DS-ac3a21d4-5503- 4c39-bf63-fe1bc596d1c5,ARCHIVE], DatanodeInfoWithStorage[192.168.179.6:9866,DS-f82bc144-22db-43da-9829-6bbf5abf301b,ARCHIVE], DatanodeInfoWithStorage[192.168.179.8:9866,DS-6a5907f2-3065-4ea6-a097-70e2b3be4f5e,DISK]][rootnode5 ~]# hdfs fsck /cold/data.txt -files -blocks -locations /cold/data.txt 25 bytes, replicated: replication3, 1 block(s): Under replicated BP-187707191-192.168.179.4-1715610189467:blk_1073741840_1016. T arget Replicas is 3 but found 2 live replica(s), 0 decommissioned replica(s), 0 decommissioning replica(s).0. BP-187707191-192.168.179.4-1715610189467:blk_1073741840_1016 len25 Live_repl2 [DatanodeInfoWithStorage[192.168.179.7:9866,DS-ac3a21d4-5503- 4c39-bf63-fe1bc596d1c5,ARCHIVE], DatanodeInfoWithStorage[192.168.179.6:9866,DS-f82bc144-22db-43da-9829-6bbf5abf301b,ARCHIVE]][rootnode5 ~]# hdfs fsck /onessd/data.txt -files -blocks -locations /onessd/data.txt 25 bytes, replicated: replication3, 1 block(s): OK 0. BP-187707191-192.168.179.4-1715610189467:blk_1073741841_1017 len25 Live_repl3 [DatanodeInfoWithStorage[192.168.179.7:9866,DS-4195284f-9608- 4851-9155-861348a90aad,SSD], DatanodeInfoWithStorage[192.168.179.6:9866,DS-5f383d24-b137-4208-b63f-01ff76f44394,DISK], DatanodeInfoWithStorage[192.168.179.8:9866,DS-f2eac39b-64ba-4237-85e8-b8f1957f2753,SSD]][rootnode5 ~]# hdfs fsck /allssd/data.txt -files -blocks -locations /allssd/data.txt 25 bytes, replicated: replication3, 1 block(s): OK 0. BP-187707191-192.168.179.4-1715610189467:blk_1073741842_1018 len25 Live_repl3 [DatanodeInfoWithStorage[192.168.179.7:9866,DS-4195284f-9608- 4851-9155-861348a90aad,SSD], DatanodeInfoWithStorage[192.168.179.6:9866,DS-5f383d24-b137-4208-b63f-01ff76f44394,DISK], DatanodeInfoWithStorage[192.168.179.8:9866,DS-f2eac39b-64ba-4237-85e8-b8f1957f2753,SSD]]注意以上COLD存储策略中数据文件只有2个block主要原因是只有2个节点配置了ARCHIVE存储类型。此外如果使用COLD存储策略由于其block都会存储在ARCHIVE存储类型中需要保证集群中DataNode节点有该存储类型否则上传文件会报错。 D. 取消存储策略 取消目录的存储策略可以使用命令hdfs storagepolicies -unsetStoragePolicy -path 下面对allssd目录取消存储策略操作如下 #查询allssd目前的存储策略 [rootnode5 ~]# hdfs storagepolicies -getStoragePolicy -path /allssd The storage policy of /allssd: BlockStoragePolicy{ALL_SSD:12, storageTypes[SSD], creationFallbacks[DISK], replicationFallbacks[DISK]}#取消该目录的存储策略 [rootnode5 ~]# hdfs storagepolicies -unsetStoragePolicy -path /allssd Unset storage policy from /allssd#再次查询allssd存储策略 [rootnode5 ~]# hdfs storagepolicies -getStoragePolicy -path /allssd The storage policy of /allssd is unspecified 4. Trash回收站 HDFS中提供了类似window回收站的功能当我们在HDFS中删除数据后默认数据直接删除如果开启了Trash回收站功能数据删除时不会立即清除而是会被移动到回收站目录中/usr/${username}/.Trash/current如果误删了数据可以通过回收站进行还原数据此外我们还可以配置该文件在回收站多长时间后被清空。 按照如下步骤进行回收站配置即可。 1) 修改core-site.xml 在HDFS各个节点上配置core-site.xml加入如下配置 ... ... !-- 回收站文件存活时长 --property namefs.trash.interval/name value1/value /property !-- 检查回收站间隔时间 --property namefs.trash.checkpoint.interval/name value0/value /property ... ...以上参数“fs.trash.interval”默认值为0表示禁用回收站功能设置大于0的值表示开启回收站并指定了回收站中文件存活的时长单位分钟。 “fs.trash.checkpoint.interval”参数表示检查回收站文件间隔时间如果设置为0表示该值和“fs.trash.interval”参数值一样要求该值配置要小于等于“fs.trash.interval”配置值。 将以上配置文件分发到其他HDFS节点上 [rootnode1 hadoop]# scp ./core-site.xml node2:pwd [rootnode1 hadoop]# scp ./core-site.xml node3:pwd [rootnode1 hadoop]# scp ./core-site.xml node4:pwd [rootnode1 hadoop]# scp ./core-site.xml node5:pwd2) 重启HDFS集群测试回收站功能 #启动集群 [rootnode1 ~]# start-all.sh#上传文件到HDFS 根路径下 [rootnode5 ~]# hdfs dfs -put ./data.txt /#删除上传的data.txt文件 [rootnode5 ~]# hdfs dfs -rm -r /data.txt INFO fs.TrashPolicyDefault: Moved: hdfs://mycluster/data.txt to trash at: hdfs://mycluster/user/root/.Trash/Current/data.txt当执行删除命令后可以看到数据被移动到“hdfs://mycluster/user/root/.Trash/Current/”目录下通过HDFS WebUI也可看到对应的路径下文件。如果WebUI用户没有权限可以通过给/user目录修改访问权限即可。 #修改/user目录访问权限 [rootnode5 ~]# hdfs dfs -chmod -R 777 /user 大约等待1分钟左右数据会自动从回收站中清空。如果想要还原数据需要手动执行命令将数据move移动到对应目录中。 [rootnode5 ~]# hdfs dfs -mv /user/root/.Trash/Current/data.txt /注意只有通过HDFS shell操作命令将数据文件删除后才会进入回收站如果在HDFS WebUI中删除文件这种删除操作不会进入到回收站。
http://www.pierceye.com/news/481434/

相关文章:

  • 合肥在线网站百色建设局网站
  • 梅河口市建设局网站华为网站搭建
  • gta5卖公司显示网站正在建设中公司网站制作有哪些
  • 免费推广网站大全下载c 视频播放网站开发
  • 做外贸网站维护费是多少做瞹瞹嗳视频网站
  • 国外好的网站空间台州论坛
  • 网络网站推广优化wordpress 文章 样式
  • 建设电影网站视频做暧视频网站大全
  • 深圳市建设银行网站国内产品网站
  • 东莞网站建设管理sem网络推广公司
  • seo建站平台哪家好做qq空间网站
  • 网站制作性价比哪家好中国最大的家装网站
  • 网站域名被注册公司运营管理方案
  • 网站建设评语商城微发布官网
  • 仿同程网 连锁酒店 网站模板系统模板html
  • 推广网app下载seo课程
  • 有效方法的小企业网站建设域名怎么拿来做网站
  • 网站版面如何布局做一个企业的网站怎么做的
  • 天门市城市建设管理局网站大连专业网页设计
  • 百度网站收录提交入口全攻略网站支付体现功能怎么做
  • 网站更改文章标题主流跨境电商平台有哪些
  • vue做直播网站上海最繁华的五个区
  • 做网站和微信小程序电子商务网站建设与管理的背景
  • 做网站国内阿里云虚拟主机多少钱东莞常平中学高中部
  • 用.net做购物网站灵山建设局网站
  • 烟台网站设计制作公司电话python购物网站开发流程
  • 医疗网站怎么做seo怎样通过网址浏览自己做的网站
  • 湖北现代城市建设集团网站wordpress用户头像插件
  • 徐州双语网站制作响应式网站开发pdf
  • 怎么做建设网站公司创建一个网站多少钱