当前位置: 首页 > news >正文

网站被黑网络营销策划实训个人总结

网站被黑,网络营销策划实训个人总结,徐州建站,学视频剪辑去哪里学比较好1. HDFS的读写流程#xff08;面试重点#xff09; 1.1 HDFS写数据流程 1.1.1 剖析文件写入 #xff08;1#xff09;客户端通过 Distributed FileSystem 模块向 NameNode 请求上传文件#xff0c;NameNode检查目标文件是否已存在#xff0c;父目录是否存在。 #x…1. HDFS的读写流程面试重点 1.1 HDFS写数据流程 1.1.1 剖析文件写入 1客户端通过 Distributed FileSystem 模块向 NameNode 请求上传文件NameNode检查目标文件是否已存在父目录是否存在。 2NameNode 返回是否可以上传。 3客户端请求第一个 Block 上传到哪几个 DataNode 服务上。 4NameNode 返回 3个 DataNode节点分别为dn1、dn2、dn3。 5客户端通过 FSDataOutputStream 模块请求 dn1 上传数据dn1 收到请求会继续调用 dn2然后dn2 调用 dn3将这个通信管道建立完成。 6dn1、dn2、dn3 逐级应答客户端。 7客户端开始往 dn1上传第一个 Block先从磁盘读取数据放到一个本地内存缓存以 Packet 为单位dn1 收到一个 Packet 就会传给 dn2dn2 传给 dn3dn1 每传一个 packet 会放入一个应答队列等待应答。 8当一个 Block 传输完成之后客户端再次请求 NameNode 上传第二个 Block 的服务器。 1.1.2 网络拓扑-节点距离计算 在 HDFS 写数据的过程中NameNode 会选择距离待上传数据最近距离的 DataNode接收数据。那么这个最近距离怎么计算呢 节点距离两个节点到达最近的共同祖先的距离总和。 例如假设有数据中心d1机架r1中的节点n1。该节点可以表示为/d1/r1/n1。利用这种标记这里给出四种距离描述。 大家算一算每两个节点之间的距离。 1.1.3 机架感知副本存储节点选择 1机架感受说明 1官方说明 http://hadoop.apache.org/docs/r3.1.3/hadoop-project-dist/hadoop-hdfs/HdfsDesign.html#Data_Replication For the common case, when the replication factor is three, HDFS’s placement policy is to put one replica on the local machine if the writer is on a datanode, otherwise on a random datanode, another replica on a node in a different (remote) rack, and the last on a different node in the same remote rack. This policy cuts the inter-rack write traffic which generally improves write performance. The chance of rack failure is far less than that of node failure; this policy does not impact data reliability and availability guarantees. However, it does reduce the aggregate network bandwidth used when reading data since a block is placed in only two unique racks rather than three. With this policy, the replicas of a file do not evenly distribute across the racks. One third of replicas are on one node, two thirds of replicas are on one rack, and the other third are evenly distributed across the remaining racks. This policy improves write performance without compromising data reliability or read performance.2源码说明 Crtl n 查找BlockPlacementPolicyDefault在该类中查找chooseTargetInOrder方法。 2Hadoop3.1.3 副本节点选择 1.2 HDFS 读数据流程 1客户端通过 DistributedFileSystem 向 NameNode 请求下载文件。NameNode 通过查询元数据找到文件块所在的 DataNode 地址。 2挑选一台 DataNode就近原则然后随机服务器请求读取数据。 3DataNode 开始传输数据给客户端从磁盘里面读取数据输入流以 Packet 为单位来做校验。 4客户端以 Packet 为单位接收先在本地缓存然后写入目标文件。 2. NameNode 和 SecondaryNameNode 2.1 NN 和 2NN 工作机制 思考NameNode中的元数据是存储在哪里的 首先我们做个假设如果存储在NameNode节点的磁盘中因为经常需要进行随机访问还有响应客户请求必然是效率过低。因此元数据需要存放在内存中。但如果只存在内存中一旦断电元数据丢失整个集群就无法工作了。因此产生在磁盘中备份元数据的FsImage。 这样又会带来新的问题当在内存中的元数据更新时如果同时更新FsImage就会导致效率过低但如果不更新就会发生一致性问题一旦NameNode节点断电就会产生数据丢失。因此引入Edits文件只进行追加操作效率很高。每当元数据有更新或者添加元数据时修改内存中的元数据并追加到Edits中。这样一旦NameNode节点断电可以通过 FsImage 和 Edits的合并合成元数据。 但是如果长时间添加数据到Edits中会导致该文件数据过大效率降低而且一旦断电恢复元数据需要的时间过长。因此需要定期进行FsImage和Edits的合并如果这个操作由NameNode节点完成又会效率过低。因此引入一个新的节点SecondaryNamenode专门用于FsImage和Edits的合并。 NameNode工作机制 1第一阶段NameNode启动 1第一次启动 NameNode 格式化后创建 Fsimage 和 Edits 文件。如果不是第一次启动直接加载编辑日志和镜像文件到内存。 2客户端对元数据进行增删改的请求。 3NameNode 记录操作日志更新滚动日志。 4NameNode在内存中对元数据进行增删改。 2第二阶段Secondary NameNode 工作 1Secondary NameNode 询问 NameNode 是否需要CheckPoint。直接带回 NameNode 是否检查结果。 2Secondary NameNode 请求执行 CheckPoint。 3NameNode 滚动正在写的 Edits 日志。 4将滚动钱的编辑日志和镜像文件拷贝到 Secondary NameNode。 5Secondary NameNode 加载编辑日志和镜像文件到内存并合并。 6生产新的镜像文件fsimage.chkpoint。 7拷贝 fsimage.chkpoint 到 NameNode。 8NameNode 将 fsimage.chkpoint 重新命名成 fsimage。 2.2 Fsimage 和 Edits 解析 Fsimage 和 Edits 概念 1oiv 查看 Fsimage 文件 [atguiguhadoop102 current]$ hdfs oiv apply the offline fsimage viewer to an fsimage oev apply the offline edits viewer to an edits file2基本语法 hdfs oiv -p 文件类型 -i镜像文件 -o 转换后文件输出路径 3案例实操 [atguiguhadoop102 current]$ pwd /opt/module/hadoop-3.1.3/data/dfs/name/current[atguiguhadoop102 current]$ hdfs oiv -p XML -i fsimage_0000000000000000025 -o /opt/module/hadoop-3.1.3/fsimage.xml[atguiguhadoop102 current]$ cat /opt/module/hadoop-3.1.3/fsimage.xml将显示的xml文件内容拷贝到Idea中创建的xml文件中并格式化。部分显示结果如下。 inodeid16386/idtypeDIRECTORY/typenameuser/namemtime1512722284477/mtimepermissionatguigu:supergroup:rwxr-xr-x/permissionnsquota-1/nsquotadsquota-1/dsquota /inode inodeid16387/idtypeDIRECTORY/typenameatguigu/namemtime1512790549080/mtimepermissionatguigu:supergroup:rwxr-xr-x/permissionnsquota-1/nsquotadsquota-1/dsquota /inode inodeid16389/idtypeFILE/typenamewc.input/namereplication3/replicationmtime1512722322219/mtimeatime1512722321610/atimeperferredBlockSize134217728/perferredBlockSizepermissionatguigu:supergroup:rw-r--r--/permissionblocksblockid1073741825/idgenstamp1001/genstampnumBytes59/numBytes/block/blocks /inode 思考可以看出Fsimage 中没有记录块所对应 DataNode为什么 在集群启动后要求 DataNode 上报数据块信息并间隔一段时间后再次上报。 2oev 查看 Edit 文件 1基本语法 hdfs oev -p 文件类型 -i编辑日志 -o 转换后文件输出路径2案例实操 [atguiguhadoop102 current]$ hdfs oev -p XML -i edits_0000000000000000012-0000000000000000013 -o /opt/module/hadoop-3.1.3/edits.xml[atguiguhadoop102 current]$ cat /opt/module/hadoop-3.1.3/edits.xml将显示的xml文件内容拷贝到Idea中创建的xml文件中并格式化。显示结果如下。 ?xml version1.0 encodingUTF-8? EDITSEDITS_VERSION-63/EDITS_VERSIONRECORDOPCODEOP_START_LOG_SEGMENT/OPCODEDATATXID129/TXID/DATA/RECORDRECORDOPCODEOP_ADD/OPCODEDATATXID130/TXIDLENGTH0/LENGTHINODEID16407/INODEIDPATH/hello7.txt/PATHREPLICATION2/REPLICATIONMTIME1512943607866/MTIMEATIME1512943607866/ATIMEBLOCKSIZE134217728/BLOCKSIZECLIENT_NAMEDFSClient_NONMAPREDUCE_-1544295051_1/CLIENT_NAMECLIENT_MACHINE192.168.10.102/CLIENT_MACHINEOVERWRITEtrue/OVERWRITEPERMISSION_STATUSUSERNAMEatguigu/USERNAMEGROUPNAMEsupergroup/GROUPNAMEMODE420/MODE/PERMISSION_STATUSRPC_CLIENTID908eafd4-9aec-4288-96f1-e8011d181561/RPC_CLIENTIDRPC_CALLID0/RPC_CALLID/DATA/RECORDRECORDOPCODEOP_ALLOCATE_BLOCK_ID/OPCODEDATATXID131/TXIDBLOCK_ID1073741839/BLOCK_ID/DATA/RECORDRECORDOPCODEOP_SET_GENSTAMP_V2/OPCODEDATATXID132/TXIDGENSTAMPV21016/GENSTAMPV2/DATA/RECORDRECORDOPCODEOP_ADD_BLOCK/OPCODEDATATXID133/TXIDPATH/hello7.txt/PATHBLOCKBLOCK_ID1073741839/BLOCK_IDNUM_BYTES0/NUM_BYTESGENSTAMP1016/GENSTAMP/BLOCKRPC_CLIENTID/RPC_CLIENTIDRPC_CALLID-2/RPC_CALLID/DATA/RECORDRECORDOPCODEOP_CLOSE/OPCODEDATATXID134/TXIDLENGTH0/LENGTHINODEID0/INODEIDPATH/hello7.txt/PATHREPLICATION2/REPLICATIONMTIME1512943608761/MTIMEATIME1512943607866/ATIMEBLOCKSIZE134217728/BLOCKSIZECLIENT_NAME/CLIENT_NAMECLIENT_MACHINE/CLIENT_MACHINEOVERWRITEfalse/OVERWRITEBLOCKBLOCK_ID1073741839/BLOCK_IDNUM_BYTES25/NUM_BYTESGENSTAMP1016/GENSTAMP/BLOCKPERMISSION_STATUSUSERNAMEatguigu/USERNAMEGROUPNAMEsupergroup/GROUPNAMEMODE420/MODE/PERMISSION_STATUS/DATA/RECORD /EDITS 思考NameNode 如何确定下次开机启动的时候合并哪些Edits 2.3 CheckPoint 时间设置 1通常情况下SecondaryNameNode 每隔一小时执行一次。 [hdfs-deafult.xml] propertynamedfs.namenode.checkpoint.period/namevalue3600s/value /property2一分钟检查一次操作次数当操作次数达到1百万时SecondaryNameNode 执行一次。 propertynamedfs.namenode.checkpoint.txns/namevalue1000000/value description操作动作次数/description /propertypropertynamedfs.namenode.checkpoint.check.period/namevalue60s/value description 1分钟检查一次操作次数/description /property3. DataNode 3.1 DataNode 工作机制 1一个数据块在 DataNode 上以文件形式存储在磁盘上包括两个文件一个是数据本身一个是元数据包括数据块的长度块数据的校验和以及时间戳。 2DataNode 启动后向 NameNode 注册通过后周期性6小时的向NameNode上报所有的块信息。 DN向NN汇报当前解读信息的时间间隔默认6小时 propertynamedfs.blockreport.intervalMsec/namevalue21600000/valuedescriptionDetermines block reporting interval in milliseconds./description /propertyDN 扫描自己节点块信息列表的时间默认6小时 propertynamedfs.datanode.directoryscan.interval/namevalue21600s/valuedescriptionInterval in seconds for Datanode to scan data directories and reconcile the difference between blocks in memory and on the disk.Support multiple time unit suffix(case insensitive), as describedin dfs.heartbeat.interval./description /property3心跳是每3秒一次心跳返回结果带有 NameNode 给该 DataNode的命令如复制块数据到另一台机器或删除某个数据块。如果超过10分组没有收到某个 DataNode的心跳则认为该节点不可用。 4集群运行中可以安全加入和退出一些机器。 6.2 数据完整性 思考如果电脑磁盘里面存储的数据是控制高铁信号灯的红灯信号(1)和绿灯信号(0)但是存储该数据的磁盘坏了一直显示是绿灯是否很危险同理DataNode节点上的数据损坏了却没有发现是否也很危险那么如何解决呢 如下是 DataNode 节点保证数据完整性的方法。 1当DataNode读取Block的时候它会计算 CheckSum。 2如果计算后的 CheckSum与 Block 创建时值不一样说明 Block 已经损坏。 3Client 读取其他 DataNode 上的Block。 4常见的校验算法src(32)md5(128)sha1(160) 5DataNode 在其文件创建后周期验证 CheckSum。 6.3 掉线时限参数设置 需要注意的是 hdfs-site.xml 配置文件中的 heartbeat.recheck.interval 的单位为毫秒dfs.heartbeat.interval 的单位为秒。 propertynamedfs.namenode.heartbeat.recheck-interval/namevalue300000/value /propertypropertynamedfs.heartbeat.interval/namevalue3/value /property
http://www.pierceye.com/news/882073/

相关文章:

  • 网站建设的可行性分析报告国际新闻最新消息2022今天
  • 网站后台上传图片做难吗?想要做个公司网站
  • 电商网站设计思维导图长春关键词推广
  • 站长工具综合查询官网wordpress置顶文章不生效
  • 手机网站 文件上传肥城网站建设公司
  • 网站开发怎么做到前后端网页设计实训报告格式
  • 军队 网站备案安卓手机软件开发平台
  • 湖北交投建设集团网站泰安网络公司行情
  • 做排版的网站绍兴网站建设专业的公司
  • 深圳专业网站建设公司济南建设网站
  • 广西建设职业技术学院网站做的比较好的二手交易网站有哪些
  • 北辰网站建设公司wordpress79元主题
  • 网站怎么绑定织梦广东网站建设968
  • ps扩展插件网站业务平台
  • 富阳设计网站广州网站设计公司
  • 演讲网站开发背景wordpress 1h 1g
  • 广州十度网络网站开发最好网站被挂马怎么办
  • 网站建设及维护费算业务宣传费网站如何做触屏滑动效果
  • 如何查询一个网站所属的主机免费可以绑定域名网站空间
  • asp.net网站开发教程品牌型网站建设
  • 海南网站网络推广建设网站需要注意的事项
  • 营销外包网站网站类别标签文本
  • 企业概况简介解答网站内容优化策略
  • ImQQ网站是怎么做的做网站把自己做死
  • 房产网站制作流程php网站开发教程网
  • 小程序商城名字谷歌优化技巧
  • 备案的时候需要网站吗seo搜索引擎优化公司
  • 网站 空间转移wordpress后台点击菜单没反应应
  • 企业网站可以自己做国外域名交易网站
  • 龙岗网站建设费用明细国外的服务器做的网站在国外能打开在国内打不开是什么原因