当前位置: 首页 > news >正文

有没有专门做宝宝用品的网站个人简历免费模板下载

有没有专门做宝宝用品的网站,个人简历免费模板下载,网站域名备案,建行企业银行官网简介#xff1a;本文我们将通过一个实际的磁盘空间优化案例来说明#xff0c;如何帮助客户做成本优化。 作者 | 玉翮 来源 | 阿里技术公众号 一 背景描述 目前#xff0c;企业的核心数据一般都以二维表的方式存储在数据库中。在核心技术自主可控的大环境下#xff0c;政企…简介本文我们将通过一个实际的磁盘空间优化案例来说明如何帮助客户做成本优化。 作者 | 玉翮 来源 | 阿里技术公众号 一 背景描述 目前企业的核心数据一般都以二维表的方式存储在数据库中。在核心技术自主可控的大环境下政企行业客户都在纷纷尝试使用国产数据库或开源数据库尤其在数据仓库OLAP领域的步伐更快Greenplum的应用越来越广泛阿里云ADB PG的市场机会也越来越多。另外随着近年来数据中台的价值被广泛认可企业建设数据中台的需求也非常迫切数据中台的很多场景都会用到Greenplum或ADB PG。因此今年阿里云使用ADB PG帮助很多客户升级了核心数仓。我们发现客户往往比较关注使用云原生数仓的成本。究竟如何帮助客户节约成本便值得我们去探索和落地。 ADB PG全称云原生数据仓库AnalyticDB PostgreSQL版它是一款大规模并行处理MPP架构的数据库是阿里云基于开源Greenplum优化后的云原生数据仓库因此本文探讨的成本优化方法也适用于Greenplum开源版。图1是ADB PG的架构示意图Greenplum亦如此Master负责接受连接请求SQL解析、优化、事务等处理并分发任务到Segment执行并协调每一个Segment返回的结果以及把最终结果呈现给客户端程序。Segment是一个独立的PostgreSQL数据库负责业务数据的存储和计算每个Segment位于不同的独立物理机上存储业务数据的不同部分多个Segment组成计算集群集群支持横向扩展。从架构上很清楚节约Greenplum的成本最重要的是要尽可能节约Segment的服务器数但既要保证整体MPP的算力也要能满足数据对存储空间的需求。通常数据仓库中的数据是从企业各个领域的上游生产系统同步而来这些数据在分析领域有生命周期很多数据需要反应历史变化因此数据仓库中数据的特点是来源多、历史数据多、数据量比较大。数据量大必然消耗存储空间在MPP架构下就是消耗服务器成本。帮客户优化成本节约存储空间是首当其冲的。 图1ADB PG的架构示意图 下面我们将通过一个实际的磁盘空间优化案例来说明如何帮助客户做成本优化。 二 ADB PG Greenplum的磁盘管理简介 1 ADB PG磁盘管理的关键技术点 ADB PG是基于Greenplum简称“GP”内核修改的MPP数据库对于磁盘空间管理来讲有几个技术点与Greenplum是通用的 1业务数据主要分布在Segment节点 2Segment有Primary和Mirror节点因此业务可用空间是服务器总空间的1/2 3Greenplum的MVCC机制导致表数据发生DML后产生垃圾数据dead tuples 4复制表全分布表会在每个Segment上存储相同的数据拷贝分布表会根据分布键打散存储数据到各个Segment。 5Greenplum有Append Only类型的表支持压缩存储可以节约空间当然用户访问时解压缩需要时间所以需要在性能和空间之间取得平衡。 云原生数据库的特点是不再单独提供数据库存储和计算的内核也会配套运维管理平台简称“数据库管控”。搞清楚ADB PG磁盘管理原理后我们需要了解数据库管控在磁盘水位管理方面的设计。 2 数据库管控的磁盘预留机制 我们看下某数仓实验环境的各个Segment节点的磁盘占用示意图。 图2Segment维度的磁盘占用示意图 上图第一个百分比是Segment所在物理机的磁盘使用百分比第二个百分比是数据库管控的磁盘使用百分比。管控的数据为啥要跟服务器实际占用不一致呢其实就是水位管理中第一个很重要的预防性措施空间预留。即ADB的管控在创建Segment实例时根据服务器的空间进行了一定的预留占比大概是12%即20T的服务器管控认为业务最大可用17.6T这个逻辑会通知监控系统。所以计算磁盘占比时监控系统的分母不是20T而是17.6T。这是第一级保护措施。 预留空间还有重要的一点原因是数据库本身有WAL事务日志、错误日志等也占用空间。因此磁盘的空间有一部分需要给日志使用客户的业务数据无法使用100%的服务器空间这就是为何图2中会显示两个空间百分比的原因。 3 数据库管控的“锁定写” 保护机制 第二级保护措施是“磁盘满锁定写”。在17.6T的基础上管控并不让业务完全写满写满容易造成数据文件损坏带来数据库宕机及无法恢复的灾难。因此这里有第二个阈值即当磁盘写到90%时数据库管控的自动巡检任务会启动“锁定写”的操作此时所有请求ADB的DML都会失败。这是一个重要的保护机制。如下图3所示如果达到阈值会提示“need to lock”。 阈值可以配置如果磁盘空间紧张可以根据实际情况适当调大阈值。 图3数据库管控的自动化锁盘日志示例 以上数据库管控的两个机制可以有效保障磁盘在安全水位下运行。这些设计是我们做成本优化的基础磁盘的成本优化意味着服务器的磁盘尽可能物尽其用。节约磁盘空间就必须要在相对较高的磁盘水位运行这里是指数据量确实很大的情况因此磁盘有效管理及时的问题监控发现的机制非常重要。 三 磁盘空间优化方案 下面我们以某客户的案例来说明磁盘空间优化方法。该客户数据仓库中的数据含索引大于1.5PB但客户一期为ADB数仓采购了40台机器约800T总容量。客户明确要求阿里云需要配合业务方做好数仓设计帮其节约成本。客户把成本优化的KPI已经定好了需要阿里云通过技术去落实。我们协同业务方在设计阶段做了一些预案技术上主要从表压缩和冷热数据分离的角度去做考虑业务上让开发商从设计上尽量缩减在ADB中的存量数据。最终开发商预估大概有360T左右的热数据从旧的数仓迁移到ADB。上线前开发商需要把必要的基础业务数据比如贴源层中间层从DB2迁移到ADB PG。迁移完成业务进行试运行期我们发现空间几乎占满如图2。空间优化迫在眉睫于是我们发起了磁盘空间优化治理。图4是磁盘空间治理优化的框架。 图4磁盘水位优化框架 接下来我们展开做一下说明。 1 表的存储格式及压缩 表的压缩存储可以有效保障客户节约存储空间。Greenplum支持行存、Append-only行存、Append-only列存等存储格式。若希望节约存储空间Append-only列存表是较好的选择它较好的支持数据压缩可以在建表时指定压缩算法和压缩级别。合适的压缩算法和级别可以节约数倍存储空间。建表示例语句如下 CREATE TABLE bar (id integer, name text)WITH(appendonlytrue, orientationcolumn, COMPRESSTYPEzstd, COMPRESSLEVEL5)DISTRIBUTED BY (id); 列存表必须是Append-only类型创建列存表时用户可以通过指定COMPRESSTYPE字段来指定压缩的类型如不指定则数据不会进行压缩。目前支持三种压缩类型 zstd、zlib和lz4zstd算法在压缩速度、解压缩度和压缩率三个维度上比较均衡实践上推荐优先考虑采用zstd算法。zlib算法主要是为了兼容一些已有的数据一般新建的表不采用zlib算法。lz4算法的压缩速度和压缩率不如zstd但是解压速度明显优于zstd算法因此对于查询性能要求严格的场景推荐采用lz4算法。 用户可以通过指定COMPRESSLEVEL字段来决定压缩等级数值越大压缩率越高取值范围为1-19具体压缩等级并不是数字越大越好如上文所述解压缩也消耗时间压缩率高则解压缩会相对更慢。因此需要根据业务实际测试来选定一般5-9都是有实际生产实践的压缩级别。 2 冷热数据分层存储 在大型企业的数据仓库设计中MPP数据库ADB属于MPP只是其中一种数据存储而且是偏批处理、联机查询、adHoc查询的场景使用较多还有很多冷数据、归档数据其实一般都会规划类似Hadoop、MaxCompute甚至OSS进行存储另外近年来兴起的流数据的计算和存储需求也非常强烈可以通过Kafka、Blink、Storm来解决。因此当MPP数据库空间告急时我们也可以做冷热数据分级存储的方案。ADB PG的分级存储方案大致有两种1是业务方自己管理冷数据和热数据2是利用ADB PG冷热数据分层存储和转换功能。 业务方通过PXF外表访问HDFS冷数据 业务方把部分冷数据以文件的方式存到HDFS或Hive可以在ADB创建PXF外部表进行访问外部表不占用ADB PG的磁盘空间。PXF作为Greenplum与Hadoop集群数据交互的并行通道框架在Greenplum中通过PXF可以并行加载和卸载Hadoop平台数据。具体使用方法如下 1控制台开通PXF服务 · 登录ADB管控台访问ADB PG实例外部表页面点击开通新服务 图5PXF外表服务 填写详细的Hadoop的服务信息后涉及kerberos认证非此文重点PXF服务会启动启动成功后如上图。 2创建PXF扩展 -- 管理员执行create extension pxf_fdw; 3创建PXF外表 CREATE EXTERNAL TABLE pxf_hdfs_textsimple(location text, month text, num_orders int, total_sales float8)LOCATION (pxf://data/pxf_examples/pxf_hdfs_simple.txt?PROFILEhdfs:textSERVER23)FORMAT TEXT (delimiterE,); 说明Location是hdfs源文件信息/data/pxf_examples/pxf_hdfs_simple.txt即业务访问的外部冷数据文件SERVER23指明了Hadoop外表的地址信息其中23是集群地址信息的存放目录在图8中可以根据PXF服务查到。 4访问外部表 访问外部表就和访问普通表没有区别 图6外部表访问示例 ADB PG冷热数据分层存储方案 上面的pxf外表访问有一个弊端是如果冷数据外表要和热数据join效率较差原因是数据要从HDFS加载到ADB再和ADB的表进行Join徒增大量IO。因此ADB PG在Greenplum的PXF外表的基础上提供了冷热数据转换的功能业务方可以在需要Join外表和普通表分析时把外部表先转换为ADB的普通表数据再做业务查询整体方案称为冷热数据分层存储。由于都是利用PXF外表服务3.4.1中的第1和第2步骤可以复用。额外的配置方法如下 (1) 配置分层存储默认使用刚才的Foreign Server 用超级管理员执行 ALTER DATABASE postgres SET RDS_DEF_OPT_COLD_STORAGE TO server 23,resource /cold_data, format text,delimiter ,; 注意这里需要将postgres替换为实际的数据库名并将/cold_data替换为实际在HDFS上需要用来存储冷数据的路径。 (2) 重启数据库实例后执行检查 SHOW RDS_DEF_OPT_COLD_STORAGE; 验证是否配置成功。 (3) 创建测试表并插入少量测试数据 create table t1(a serial) distributed by (a);insert into t1 select nextval(t1_a_seq) from generate_series(1,100);postgres# select sum(a) from t1;sum------5050(1 row) 此时t1表的数据是存在ADB的本地存储中的属于热数据。 (4) 将表数据迁移到冷存HDFS alter table t1 set (storagepolicycold); 图7转换数据为冷数据 注意这个NOTICE在当前版本中是正常的因为在冷存上是不存在所谓分布信息的或者说分布信息是外部存储HDFS决定。 5 验证冷数据表的使用 首先通过查看表的定义验证表已经迁移到冷存 图8冷存表的定义 然后正常查询表数据 postgres# select sum(a) from t1;sum------5050(1 row) 6 将数据迁回热存 alter table t1 set (storagepolicyhot); 图9数据迁回热存 注意迁移回热存后distributed信息丢失了这是当前版本的限制。如果表有索引则索引在迁移后会丢失需要补建索引。以上两个方案都能一定程度上把冷数据从ADB PG中迁移到外部存储节约ADB PG的空间。 方案1Join效率低不支持冷热数据转换但不再占用ADB的空间 方案2Join效率高支持冷热数据转换部分时间需要占用ADB的空间。 两个方案各有利弊实际上项目中根据业务应用来定。在该客户案例中冷热数据分层存储方案为整体ADB节约了数百T空间这数百T空间中大部分是设计阶段解决的少部分是试运行期间进一步优化的。 3 垃圾数据vacuum 由于GP内核的MVCC管理机制一个表的DMLt2时刻提交后的数据元组实际上并没有立即删除而是一直与该表的正常元组存储在一起被标记为dead tuples这会导致表膨胀而占用额外空间。垃圾数据回收有两个方法内核自动清理、SQL手动清理。自动清理的机制是表的dead tuples累积到一定百分比且所有查询该表的事务t1时刻t2时刻都已经结束内核会自动auto vacuum垃圾数据。这个机制本身没有问题但是在大库和大表场景下有一定问题一个大表上T数据变化10G才1%多个大表一起变化就会累计给整体空间带来问题因此必须辅以手动回收。 手动回收方法 1统计出系统的top大表 select *,pg_size_pretty(size) from (select oid,relname,pg_relation_size(oid) as size from pg_class where relkind r order by 3 desc limit 100)t;-- limit 100表示top100 2查询大表的dead tuple占比和空间 -- 根据统计信息查询膨胀率大于20%的表 SELECT ((btdrelpages/btdexppages)-1)*100||%, b.relname FROM gp_toolkit.gp_bloat_expected_pages a join pg_class b on a.btdrelidb.oid where btdrelpages/btdexppages1.2; 3使用pg_cron定时任务帮助业务回收垃圾数据 vacuum tablename; 或 vacuum analyze tablename;-- 先执行一个VACUUM 然后是给每个选定的表执行一个ANALYZE 或 vacuum full tablename; 这里需要与业务沟通清楚执行时间具体vacuum时虽然不影响读写但还是有额外的IO消耗。vacuum full tablename要慎重使用两者的区别要重点说明一下简单的VACUUM(没有FULL)只是回收表的空间并且令原表可以再次使用。这种形式的命令和表的普通读写可以并发操作因为没有请求排他锁。然而额外的空间并不返回给操作系统仅保持在相同的表中可用。VACUUM FULL将表的全部内容重写到一个没有任何垃圾数据的新文件中占用新的磁盘空间然后删除旧表的文件释放空间相当于把未使用的空间返回到操作系统中。这种形式要慢许多并且在处理的时候需要在表上施加一个排它锁。因此影响业务使用该表。 4vacuum加入业务代码的恰当环节进行回收 如果某些表更新频繁每日都会膨胀则可以加入到业务的代码中进行vacuum在每次做完频繁DML变更后立即回收垃圾数据。 系统表也需要回收 这是一个极其容易忽视的点。特别是在某些数据仓库需要频繁建表、改表临时表也算的场景下很多存储元数据的系统表也存在膨胀的情况而且膨胀率跟DDL频繁度正相关。某客户出现过pg_attribute膨胀到几百GBpg_class膨胀到20倍的情况。以下表是根据实际总结出来比较容易膨胀的pg系统表。 pg_attribute -- 存储表字段详情pg_attribute_encoding -- 表字段的扩展信息pg_class -- 存储pg的所有对象pg_statistic -- 存储pg的数据库内容的统计数 图10pg_class膨胀率示例 手动Vacuum的限制 手动做vacuum有一定的限制也要注意。 1不要在IO使用率高的期间执行vacuum 2vacuum full需要额外的磁盘空间才能完成。 如果磁盘水位高剩余空间少可能不够vacuum full大表可以采取先删除一些历史表腾出磁盘空间再vacuum full目标table。 3必须先结束目标table上的大事务 有一次例行大表维护时一个表做了一次vacuum膨胀的空间并没有回收仔细一查pg_stat_activity发现这个表上有一个大事务启动时间比手动vacuum启动更早还没结束这个时候内核认为旧的数据还可能被使用因此还不能回收手动也不能。 4 冗余索引清理 索引本身也占用空间尤其大表的索引。索引是数据库提高查询效率比较常用又基础的方式用好索引不等于尽可能多的创建索引尤其在大库的大表上。空间紧张可以试着查一下是否有冗余索引可以清理。 排查思路 1是否有包含“异常多”字段的复合索引 2是否有存在前缀字段相同的多个复合索引 3是否存在优化器从来不走的索引。 排查方法与例子 首先我们从第1个思路开始查询索引包含字段大于等于4个列的表。SQL如下 with t as (select indrelid, indkey,count(distinct unnest_idx) as unnest_idx_count from pg_catalog.pg_index, unnest(indkey) as unnest_idx group by 1,2 having count(distinct unnest_idx)4 order by 3 desc)select relname tablename,t.unnest_idx_count idx_cnt from pg_class c ,t where c.oidt.indrelid; 某个客户就建了很多10个字段以上的复合索引如下图所示 图11按索引列数排序的复合索引 一般超过6个字段的复合索引在生产上都很少见因此我们初步判断是建表时业务方创建了冗余的索引接下来可以按照索引的大小排序后输出冗余索引列表。SQL如下 with t as (select indrelid,indexrelid, indkey,count(distinct unnest_idx) as unnest_idx_count from pg_catalog.pg_index, unnest(indkey) as unnest_idx group by 1,2,3 having count(distinct unnest_idx)3 order by 3 desc)select relname tablename,(pg_relation_size(indexrelid))/1024/1024/1024 indexsize,t.unnest_idx_count idx_cnt from pg_class c ,t where c.oidt.indrelid order by 2 desc; 图12按大小排序的复合索引 这里我们很清楚发现部分索引的大小都在500G以上有10多个索引的size超过1TB看到这些信息时我们震惊又开心开心的是应该可以回收很多空间。接下来需要跟业务方去沟通经过业务方确认不需要再删除。 在这个客户案例中我们删除了200多个冗余索引大小达24T直接释放了7%的业务空间非常可观的空间优化效果。这次优化也非常及时我记得优化在11月底完成接着正好12月初高峰来临业务方又写入了20TB新数据如果没有这次索引优化毫不夸张12月初该客户的ADB集群撑不住了 第2个思路是否有存在前缀字段相同的多个复合索引排查SQL如下。最好把索引及包含的字段元数据导出到其他GP库去分析因为涉及到索引数据的分析对比涉及向量转字符数组以及子集与超集的计算比较消耗性能 select idx1.indrelid::regclass,idx1.indexrelid::regclass, string_to_array(idx1.indkey::text, ) as multi_index1,string_to_array(idx2.indkey::text, ) as multi_index2,idx2.indexrelid::regclass from pg_index idx1 , pg_index idx2 where idx1.indrelid idx2.indrelid and idx1.indexrelid!idx2.indexrelid and idx1.indnatts 1and string_to_array(idx1.indkey::text, ) string_to_array(idx2.indkey::text, ); 以下是排查例子user_t上复合第2个问题的索引如下 以下是查询结果 以上例子结果解释multi_index1是multi_index2的子集前者的索引列已经在后者中做了索引因此multi_index1属于冗余索引。 第3个思路是否存在优化器从来不走的索引排查的SQL如下 SELECTPSUI.indexrelid::regclass AS IndexName,PSUI.relid::regclass AS TableNameFROM pg_stat_user_indexes AS PSUI JOIN pg_index AS PI ON PSUI.IndexRelid PI.IndexRelidWHERE PSUI.idx_scan 0 AND PI.indisunique IS FALSE; 下面以一个测试表讲述排查例子 执行SQL可以查到idx_scan0的索引idx_b 另外有一个很重要的知识点Append-Only列存表上的索引扫描只支持bitmap scan方式如果Greenplum关闭了bitmap scan的索引扫描方式那么所有AO列存表的访问都会全表扫描即理论上AO列存表上的所有非唯一索引都无法使用可以全部drop掉。当然这个操作风险很高要求整个database里使用AO列存表的业务几乎都只做批处理不存在点查或范围查找的业务。综上删除冗余索引可以帮助客户节约磁盘空间。 5 复制表修改为分布表 众所周知ADB PG的表分布策略有DISTRIBUTED BY哈希分布DISTRIBUTED RANDOMLY随机分布或DISTRIBUTED REPLICATED全分布或复制表。前两种的表会根据指定的分布键把数据按照hash算法打散分布到各个Segment上复制表则会在每个Segment上存放完整的数据拷贝。复制表分布策略(DISTRIBUTED REPLICATED)应该在小表上使用。将大表数据复制到每个节点上无论在存储还是维护上都是有很高代价的。查询全分布表的SQL如下 select n.nspname AS schemaname,c.relname AS tablename,case when p.policytypep then parted when p.policytyper then replicated else normal end as distrb_type, pg_size_pretty(pg_relation_size(c.oid))from pg_class cleft join gp_distribution_policy p on c.oidp.localoidleft join pg_namespace n on c.relnamespacen.oidwhere n.nspnamepublicand c.relkindrand p.policytyperorder by 4 desc; 查询结果如下图找到了大概10TB的全分布表前3个表较大可以修改为哈希分布表大概可以节约7T空间。 图13业务库中的复制表 6 临时表空间独立存放 我们知道Greenplum的默认表空间有两个 如果建表不指定表空间默认会放到pg_default表空间包含堆表、AO表、列存表、临时表等。具体到Segment的文件目录则是每个Segment服务器上的~/data/Segment/${Segment_id}/base/${database_oid}目录下。同时Greenplum在多种场景都会产生临时表如 1sql中order by、group by等操作 2GP引擎由于数据读取或shuffle的需要创建的临时表 3业务方在ETL任务中创建的临时表。 这样存在一个问题就是业务运行产生的临时表也会占用空间但这部分不是业务表的数据占用不方便精确管理大库的磁盘空间因此我们把临时表的表空间独立出来在服务器文件层面也独立出来方便与业务数据进行分别精细化管理。好处还有我们可以分别监控临时表空间、数据表空间、wal日志、错误日志知道各个部分占用情况如果磁盘空间告警可以针对性采取措施。Greenplum创建临时表空间的方法比较标准如下 #查看临时表的表空间现状发现都在base目录下即与数据目录共用postgres# select * from pg_relation_filepath(tmp_jc);pg_relation_filepath----------------------base/13333/t_845345#查询实例的Segment的所有hosts用于创建临时表空间目录psql -d postgres -c select distinct address from gp_Segment_configuration order by 1 -t sheng_seg_hosts#创建临时表空间的文件目录gpssh -f sheng_seg_hosts -e ls -l /home/adbpgadmin/tmptblspacegpssh -f sheng_seg_hosts -e mkdir -p /home/adbpgadmin/tmptblspace~$ gpssh -f dg_seg_hosts -e ls -l /home/adbpgadmin/tmptblspace# 创建临时表空间postgres# create tablespace tmp_tblspace location /home/adbpgadmin/tmptblspace;postgres# select * from pg_tablespace;spcname | spcowner | spcacl | spcoptions--------------------------------------------pg_default | 10 | |pg_global | 10 | |tmp_tblspace | 10 | |(3 rows)#修改角色的临时表空间postgres# alter role all set temp_tablespacestmp_tblspace;#退出psql然后重新登录#创建临时表进行验证create temp table tmp_jc2(id int);insert into tmp_jc2 select generate_series(1,10000);#查看表的filepath发现临时表空间的文件路径不是base目录了select * from pg_relation_filepath(tmp_jc2);---------------------------------------------------pg_tblspc/2014382/GPDB_6_301908232/13333/t_845369 表空间独立后监控可以区分临时表空间、数据表空间、WAL日志、错误日志进行独立监控和告警以下是监控采集输出的样例 ~$ sh check_disk_data_size.shusage: sh check_disk_data_size.sh param1 param2, param1 is file recording Segment hosts; param2 data, xlog, log or temp 监控输出的效果如下 图14监控采集输出示意图 这样可以很清楚的了解业务数据或临时表数据在每个节点上的实际size以及是否存在数据倾斜情况超过平均值的10%单独提醒非常实用。 7 其他优化方案 除了上面详述的优化方案一般来讲Greenplum还有一些通用的处理方法扩容Segment计算节点、业务数据裁剪、备份文件清理。计算节点扩容是最有效的。一般来讲不管是阿里自己的业务还是外部客户的业务数据库的磁盘占用达到60%考虑业务增量便会规划扩容这些“基本实践”我们需要告诉客户。 业务数据裁剪除了冷数据外有一些中间表和历史表我们也可以推动业务方做好数据生命周期管理及时删除或转存归档。另外对于临时运维操作留下的备份文件在操作完后需要及时进行清理这个简单的习惯是非常容易忽略的需要注意。在大库的磁盘管理中任何小问题都会放大。 四 优化收益 1 为客户节约服务器成本 本案例客户原DB2的数据量大于1PB而我们通过上述方法综合优化在ADB中只保存了300多T的数据就让整体业务完整的运行起来。为客户节约了大概100台服务器及相关软件license费用约合金额千万级别。 2 避免磁盘水位过高造成次生灾害 磁盘水位高会带来很多问题通过磁盘空间优化方案可以避免这些问题的发生。包括 1.业务稍微增长可能导致磁盘占满发生“写锁定”数据库临时罢工 2.磁盘空间不足时运维人员定位问题无法创建临时表 3.ADB的大表维护例如vacuum full无空余磁盘空间使用。 以上磁盘空间优化方法不一定非常全面希望对读者有所帮助。如果文中有疏漏或读者有补充欢迎多多交流一起探讨上云成本优化。 名词解释 业务方指使用Greenplum做业务开发或数据分析的用户通常是客户或客户的开发商。 OLAP指联机分析处理型系统是数据仓库系统最主要的应用专门设计用于支持复杂的大数据量的分析查询处理并快速返回直观易懂的结果。 DML指增加、删除、修改、合并表数据的SQL在数据库领域叫DML型SQL。 PB1PB1024TB1024 * 1024 GB 原文链接 本文为阿里云原创内容未经允许不得转载。
http://www.pierceye.com/news/553755/

相关文章:

  • 广州优秀网站建设怎么寻找国外客户资源
  • 松江新城投资建设集团有限公司网站华能电子商务平台
  • 网站建设设计制作公司微网站微商城
  • 长宁企业网站建设个人做外贸怎么做
  • 饲料 东莞网站建设免费推广app
  • 手机平台网站开发品牌网站设计首选
  • 哪些网站可以做调查赚钱图片生成软件
  • 网站空间的管理wordpress vip system
  • 新思维网站北京住房建设部网站首页
  • 温州网站制作套餐麒麟网站建设
  • 淘宝接单做网站wordpress能做企业网站吗
  • 网站建设运营公众号运营合同app网站开发书籍下载
  • 网站seo流程网站开发开账务处理
  • 婚介网站方案长沙网络公司电话
  • 自助网站搭建系统做网站接电话一般要会什么
  • 雷州网站建设公司网站建设与管理说课ppt
  • 问答类网站怎么做wordpress 调取页面缩略图
  • 做电影资源网站手机版wordpress实例配置
  • 广西网站建设方案品牌官网方案
  • 游戏工作室网络组建方案seo81
  • 搭建个人网站的步骤温州专业微网站制作价格
  • 网站怎么做充值系统php图书管理系统网站开发
  • 多商家网站建设自助建站系统源码 资源网
  • 广州番禺网站制作公司哪家好文章网站建设
  • 漯河网站建设e辽宁身营商环境建设局网站
  • 营销网站建设套餐企业信息公示管理系统
  • 网站布局设计排版网站外部链接做多少合适呢
  • 成品网站 源码1688上海网站建设 找德华专业
  • 网站建设费用申报佛山电脑培训班哪里有
  • 免费网站服务器厦门网站建设推广哪家好