动态ip做网站影响seo吗,无货源网店怎么找商家合作,北京网站建设策划建设,内容营销和传统营销的区别这个简单的示例揭示了一个重要的问题#xff0c;即系统花费了大量的时间把信息从一个地方挪到另一个地方。hello程序的机器指令最初是存放在硬盘上#xff0c;当程序加载时#xff0c;它们被复制到主存#xff1b;当处理器运行程序时#xff0c;指令又从主存复制到处理器。… 这个简单的示例揭示了一个重要的问题即系统花费了大量的时间把信息从一个地方挪到另一个地方。hello程序的机器指令最初是存放在硬盘上当程序加载时它们被复制到主存当处理器运行程序时指令又从主存复制到处理器。相似的数据串“helloworld\n”开始时在硬盘上然后被复制到主存最后从主存复制到显示设备。从程序员的角度来看这些复制就是开销减慢了程序“真正”的工作。因此系统设计者的一个主要目标就是使这些复制操作尽可能快地完成。 根据机械原理较大的储存设备要比较小的储存设备运行得慢而快速设备的造价远高于同类的低俗设备。比如说一个典型系统上的磁盘驱动器可能比主存大1000倍但是对处理器而言从磁盘驱动器上读取一个字的时间开销要比从主存中读取的开销大1000万倍。 类似的一个典型的寄存器文件只存储几百字节的信息而主存里可存放几十亿字节。然而处理器从寄存器文件中读取数据比从主存中读取几乎要快100倍。更麻烦的是随着这些年半导体技术的进步这种处理器与主存之间的差距还在持续增大。加快处理器的运行速度比加快主存的运行速度要容易和便宜的多。 针对这种处理器与主存之间的差异系统设计者采用了更小更快的存储设备称为高速缓存存储器cache memory简称为cache或高速缓存作为暂时的集结区域存放处理器近期可能会需要的信息。图1-8展示了一个典型系统中的高速缓存存储器。位于处理器芯片上的L1高速缓存的容量可以达到数万字节访问速度几乎和访问寄存器文件一样快。一个容量为数十万到数百万字节的更大的L2高速缓存通过一条特殊的总线连接到处理器。进程访问L2高速缓存的时间要比访问L1高速缓存的时间长5倍但是这仍然比访问主存的时间快5~10倍。L1和L2高速缓存是用一种叫做静态随机访问存储器SRAM的硬件技术实现的。比较新的、处理能力更强大的系统甚至有三级高速缓存L1、L2和L3。系统可以获得一个很大的存储器同时访问速度也很快原因是利用了高速缓存的局部性原理即程序具有访问局部区域里的数据和代码的趋势。通过让高速缓存里存放可能经常访问的数据大部分的内存操作都能在快速的高速缓存中完成。 本书得出的重要结论之一就是意识到高速缓存存储器存在的应用程序员利用高速缓存将程序的性能提高一个数量级。你将在第六章里学习这些重要的设备以及如何利用它们。