Loading... ## 内存的基础知识 内存可存放数据。程序执行前需要先放到内存中才能被CPU处理。内存的作用是缓和 CPU 与硬盘之间的速度矛盾。 ### 进程运行的基本原理 **从代码到程序运行的过程**: - 编译:由编译程序将用户源代码编译成若干个目标模块(编译就是把高级语言翻译为机器语言)。 - 链接:由链接程序将编译后形成的一组目标模块,以及所需库函数链接在一起,形成一个完整的装入模块。 - 装入(装载):由装入程序将装入模块装入内存运行。 #### 链接的三种方式 1. **静态链接**:在程序运行之前,先将各目标模块及它们所需的库函数连接成一个完整的可执行文件(装入模块),之后不再拆开。 2. **装入时动态链接**:将各目标模块装入内存时,边装入边链接的链接方式。 3. **运行时动态链接**:在程序执行中需要该目标模块时,才对它进行链接。其优点是便于修改和更新,便于实现对目标模块的共享。 #### 程序装入 C 语言程序经过编译、链接处理后,生成装入模块,即可执行文件。程序装入有三种方式: ##### 绝对装入 在编译时,如果知道程序将放到内存中的哪个位置,编译程序将产生绝对地址的目标代码。装入程序按照装入模块中的地址,将程序和数据装入内存。 > 绝对装入**只适用于单道程序环境**。 ![image-20241024131723084.png][1] 程序中使用的绝对地址,可在编译或汇编时给出,也可由程序员直接赋予。通常情况下都是编译或汇编时再转换为绝对地址。 ##### 可重定位装入 **静态重定位**:又称可重定位装入。编译、链接后的装入模块的地址都是从 0 开始的,指令中使用的地址、数据存放的地址都是相对于起始地址而言的逻辑地址。可根据内存的当前情况,将装入模块装入到内存的适当位置。装入时对地址进行 “重定位” ,将逻辑地址变换为物理地址(地址变换是在装入时一次完成的)。 ![image-20241024131951998.png][2] 静态重定位的特点是在一个作业装入内存时,必须分配其要求的全部内存空间,如果没有足够的内存,就不能装入该作业。 作业一旦进入内存后,在运行期间就不能再移动,也不能再申请内存空间。 ##### 动态运行时装入 **动态重定位**:又称动态运行时装入。编译、链接后的装入模块的地址都是从0开始的。装入程序把装入模块装入内存后,并不会立即把逻辑地址转换为物理地址,而是**把地址转换推迟到程序真正要执行时才进行**。因此装入内存后所有的地址依然是逻辑地址。这种方式需要一个**重定位寄存器**的支持。 ![image-20241024132230545.png][3] **重定位寄存器**:存放装入模块存放的起始位置。需要获取物理地址的时候只需要将逻辑地址加上重定位寄存器中的起始地址即可。 采用动态重定位时**允许程序在内存中发生移动**。并且可将程序**分配到不连续的存储区**中;在程序运行前只需**装入它的部分代码即可投入运行**,然后在程序运行期间,根据需要**动态申请分配内存**;**便于程序段的共享**,可以向用户提供一个比存储空间大得多的地址空间。 #### 小结 ![image-20241024134431987.png][4] ### 内存管理的基本概念 1. 内存空间的分配与回收 - 进程应该放在内存中的哪个位置? - 操作系统要怎么记录哪些内存区域已经被分配出去了,哪些又还空闲? - 当进程运行结束之后,如何将进程占用的内存空间回收? 2. 内存空间的扩充 虚拟技术(操作系统的虚拟性) 3. 地址转换 为了使编程更方便,程序员写程序时应该只需要关注指令、数据的逻辑地址。而逻辑地址到物理地址的转换(这个过程称为地址重定位)应该由操作系统负责,这样就保证了程序员写程序时不需要关注物理内存的实际情况。 > 三种装入方式 4. 存储保护 保证各进程在各自存储空间内运行,互不干扰。内存保护可采取两种方法: - 在 CPU 中设置一对上、下限寄存器,存放进程的上、下限地址。进程的指令要访问某个地址时,CPU 检查是否越界。 - 采用重定位寄存器(又称基址寄存器)和界地址寄存器(又称限长寄存器)进行越界检查。重定位寄存器中存放的是进程的起始物理地址。界地址寄存器中存放的是进程的最大逻辑地址。 ![image-20241024141307827.png][5] ### 进程的内存映像 ![image-20241024141807437.png][6] ## 内存空间的扩充 ### 覆盖技术 早期的计算机内存很小,比如 IBM 推出的第一台PC机最大只支持 1MB 大小的内存。因此经常会出现内存大小不够的情况。后来人们引入了**覆盖技术**,用来解决 “程序大小超过物理内存总和” 的问题。 **覆盖技术的思想**:将程序分为多个段(多个模块)。常用的段常驻内存,不常用的段在需要时调入内存。 内存中分为一个 “固定区” 和若干个 “覆盖区” 。需要常驻内存的段放在 “固定区” 中,调入后就不再调出(除非运行结束);不常用的段放在 “覆盖区” ,需要用到时调入内存,用不到时调出内存。 ![image-20241024144318373.png][7] **必须由程序员声明覆盖结构**,操作系统完成自动覆盖。缺点:**对用户不透明**,增加了用户编程负担。覆盖技术只用于早期的操作系统中,现在已成为历史。 ### 交换技术 交换(对换)技术的设计思想:内存空间紧张时,系统将内存中某些进程暂时换出外存,把外存中某些已具备运行条件的进程换入内存(进程在内存与磁盘间动态调度)。 > 上一章提到过的中级调度 暂时换出外存等待的进程状态为挂起状态(挂起态,suspend),挂起态又可以进一步细分为就绪挂起、阻塞挂起两种状态。 **应该在外存(磁盘)的什么位置保存被换出的进程?** 具有对换功能的操作系统中,通常把磁盘空间分为**文件区**和**对换区**两部分。 - **文件区**主要用于存放文件,**主要追求存储空间的利用率**,因此对文件区空间的管理**采用离散分配方式**; - **对换区**空间只占磁盘空间的小部分,**被换出的进程数据就存放在对换区**。 由于对换的速度直接影响到系统的整体速度,因此对换区空间的管理**主要追求换入换出速度**,因此通常对换区**采用连续分配方式**(学过文件管理章节后即可理解)。总之,**对换区的 I/O 速度比文件区的更快**。 **什么时候应该交换?** 交换通常在许多进程运行且内存吃紧时进行,而系统负荷降低就暂停。例如:在发现许多进程运行时经常发生缺页,就说明内存紧张,此时可以换出一些进程;如果缺页率明显下降,就可以暂停换出。 **应该换出哪些进程?** 可优先换出阻塞进程;可换出优先级低的进程;为了防止优先级低的进程在被调入内存后很快又被换出,有的系统还会考虑进程在内存的驻留时间。 > **PCB 会常驻内存**,不会被换出外存 ### 小结 > 虚拟内存技术在后面记录 ![image-20241024144753669.png][8] ## 内存空间的分配与回收 ### 连续分配 #### 单一连续分配 > 连续分配:指为用户进程分配的必须是一个连续的内存空间。 在单一连续分配方式中,内存被分为系统区和用户区。系统区通常位于内存的低地址部分,用于存放操作系统相关数据;用户区用于存放用户进程相关数据。内存中只能有一道用户程序,用户程序独占整个用户区空间。 ![image-20241024154905877.png][9] **优点**: - 实现简单; - 无外部碎片; - 可以采用覆盖技术扩充内存; - 不一定需要采取内存保护(eg:早期的PC操作系统MS-DOS)。 **缺点**: - 只能用于单用户、单任务的操作系统中; - 有内部碎片; 分配给某进程的内存区域中,如果有些部分没有用上,就是“内部碎片” - 存储器利用率极低。 #### 固定连续分配 20世纪60年代出现了支持多道程序的系统,为了能在内存中装入多道程序,且这些程序之间又不会相互干扰,于是将整个**用户空间划分为若干个固定大小的分区**,在**每个分区中只装入一道作业**,这样就形成了最早的、最简单的一种可运行多道程序的内存管理方式。 ![image-20241024155109938.png][10] - **分区大小相等**:缺乏灵活性,但是很适合用于用一台计算机控制多个相同对象的场合(比如:钢铁厂有 n 个相同的炼钢炉,就可把内存分为 n 个大小相等的区域存放 n 个炼钢炉控制程序) - **分区大小不等**:增加了灵活性,可以满足不同大小的进程需求。根据常在系统中运行的作业大小情况进行划分(比如:划分多个小分区、适量中等分区、少量大分区) 操作系统需要建立一个数据结构——分区说明表,来实现各个分区的分配与回收。每个表项对应一个分区,通常按分区大小排列。每个表项包括对应分区的大小、起始地址、状态(是否已分配)。 ![image-20241024155243988.png][11] 当某用户程序要装入内存时,由操作系统内核程序根据用户程序大小检索该表,从中找到一个能满足大小的、未分配的分区,将之分配给该程序,然后修改状态为 “已分配” 。 **优点**:实现简单,无外部碎片。 缺点: - 当用户程序太大时,可能所有的分区都不能满足需求,此时不得不采用覆盖技术来解决,但这又会降低性能; - 会产生内部碎片,内存利用率低。 #### 动态分区分配 **动态分区分配**又称为**可变分区分配**。这种分配方式**不会预先划分内存分区**,而是在进程装入内存时,**根据进程的大小动态地建立分区**,并使分区的大小正好适合进程的需要。因此系统分区的大小和数目是可变的。 > **系统要用什么样的数据结构记录内存的使用情况**? - 空闲分区表:每个空闲分区对应一个表项。表项中包含分区号、分区大小、分区起始地址等信息。 - 空闲分区链:每个分区的起始部分和末尾部分分别设置前向指针和后向指针。起始部分处还可记录分区大小等信息。 ![image-20241024155537985.png][12] > **当很多个空闲分区都能满足需求时,应该选择哪个分区进行分配**? 把一个新作业装入内存时,须按照一定的动态分区分配算法,从空闲分区表(或空闲分区链)中选出一个分区分配给该作业。由于分配算法算法对系统性能有很大的影响,因此人们对它进行了广泛的研究。 后面会介绍**四种动态分区分配算法**。 > **如何进行分区的分配与回收操作**? 假设系统采用的数据结构是 “空闲分区表” : - 若需要分配的空间小于空闲分区的大小,则修改空闲分区大小和起始地址即可; - 若需要分配的空间刚好等于空闲分区的大小,则需要从空闲分区表中删除该分区。 回收操作也是类似: 1. 若回收区的后面有一个相邻的空闲分区,则需要将两个相邻的空闲分区合并为一个; 2. 若回收区的前面有一个相邻的空闲分区,则需要将两个相邻的空闲分区合并为一个; 3. 若回收区的前、后各有一个相邻的空闲分区,则需要将三个相邻的空闲分区合并为一个; 4. 回收区的前、后都没有相邻的空闲分区,则需要新增一个表项。 > 注:各表项的顺序不一定按照地址递增顺序排列,具体的排列方式需要依据动态分区分配算法来确定。 动态分区分配没有内部碎片,但是有外部碎片。 - 内部碎片,分配给某进程的内存区域中,如果有些部分没有用上。 - 外部碎片,是指内存中的某些空闲分区由于太小而难以利用。 如果内存中空闲空间的总和本来可以满足某进程的要求,但由于进程需要的是一整块连续的内存空间,因此这些“碎片”不能满足进程的需求。 可以通过**紧凑(拼凑,Compaction)技术**来解决外部碎片。 #### 小结 ![image-20241024164752441.png][13] ## 动态分区分配算法 ### 首次适应算法 (First Fit) **算法思想**:每次都从低地址开始查找,找到第一个能满足大小的空闲分区。 **实现方法**:**空闲分区以地址递增的次序排列**。每次分配内存时顺序**查找空闲分区链**(或空闲分区表),找到大小能满足要求的第一个空闲分区。 ### 最佳适应算法 (Best Fit) **算法思想**:由于动态分区分配是一种连续分配方式,为各进程分配的空间必须是连续的一整片区域。因此为了保证当 “大进程” 到来时能有连续的大片空间,可以尽可能多地留下大片的空闲区,即,优先使用更小的空闲区。 **实现方法**:空闲分区按容量递增次序链接。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。 **缺点**:每次都选最小的分区进行分配,会留下越来越多的、很小的、难以利用的内存块。因此这种方法会产生很多的外部碎片。 ### 最坏适应算法 (Worst Fit) > 又称最大适应算法(Largest Fit) 算法思想:为了解决最佳适应算法的问题,即留下太多难以利用的小碎片,可以在每次分配时优先使用最大的连续空闲区,这样分配后剩余的空闲区就不会太小,更方便使用。 **实现方法**:空闲分区按容量递减次序链接。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。 **缺点**:每次都选最大的分区进行分配,虽然可以让分配后留下的空闲区更大,更可用,但是这种方式会导致较大的连续空闲区被迅速用完。如果之后有“大进程”到达,就没有内存分区可用了。 ### 邻近适应算法 (Next Fit) **算法思想**:首次适应算法每次都从链头开始查找的。这可能会导致低地址部分出现很多小的空闲分区,而每次分配查找时,都要经过这些分区,因此也增加了查找的开销。如果每次都从上次查找结束的位置开始检索,就能解决上述问题。 **实现方法**:空闲分区以地址递增的顺序排列(可排成一个循环链表)。每次分配内存时从上次查找结束的位置开始查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。 ### 小结 首次适应算法每次都要从头查找,每次都需要检索低地址的小分区。但是这种规则也决定了当低地址部分有更小的分区可以满足需求时,会更有可能用到低地址部分的小分区,也会更有可能把高地址部分的大分区保留下来(最佳适应算法的优点)。 邻近适应算法的规则可能会导致无论低地址、高地址部分的空闲分区都有相同的概率被使用,也就导致了高地址部分的大分区更可能被使用,划分为小分区,最后导致无大分区可用(最大适应算法的缺点) 综合来看,四种算法中,首次适应算法的效果反而更好。 | 算法 | 算法思想 | 分区排列顺序 | 优点 | 缺点 | | -------- | -------------------------------------------------- | ---------------------------------------------- | ------------------------------------------------------------ | ------------------------------------------------------------ | | 首次适应 | 从头到尾找适合的分区 | 空闲分区以地址递增次序排列 | 综合看性能最好。算法开销小,回收分区后一般不需要对空闲分区队列重新排序 | | | 最佳适应 | 优先使用更小的分区,以保留更多大分区 | 空闲分区以容量递增次序排列 | 会有更多的大分区被保留下来,更能满足大进程需求 | 会产生很多太小的、难以利用的碎片;<br />算法开销大,回收分区后可能需要对空闲分区队列重新排序 | | 最坏适应 | 优先使用更大的分区,以防止产生太小的不可用的碎片 | 空闲分区以容量递减次序排列 | 可以减少难以利用的小碎片 | 大分区容易被用完,不利于大进程;<br />算法开销大(原因同上) | | 邻近适应 | 由首次适应演变而来,每次从上次查找结束位置开始查找 | 空闲分区以地址递增次序排列(可排列成循环链表) | 不用每次都从低地址的小分区开始检索。算法开销小(原因同首次适应算法) | 会使高地址的大分区也被用完 | ## 基本分页存储管理 > 重难点 ### 基本概念 #### 分页存储 将内存空间分为一个个**大小相等的分区**(比如:每个分区 4KB ),每个分区就是一个 “**页框**”(**页框=页帧=内存块=物理块=物理页面**)。每个页框有一个编号,即 “**页框号**”(**页框号=页帧号=内存块号=物理块号=物理页号**),页框号从 0 开始。 将**进程的逻辑地址空间**也分为**与页框大小相等的一个个部分**,每个部分称为一个 “**页**” 或 “**页面**” 。每个页面也有一个编号,即 “**页号**” ,页号也是从 0 开始。 > 注意区分页和页框的概念。 操作系统**以页框为单位为各个进程分配内存空间**。进程的每个页面分别放入一个页框中。也就是说,进程的**页面**与内存的**页框**有**一一对应**的关系。 各个页面不必连续存放,可以放到不相邻的各个页框中。 > 注:进程的最后一个页面可能没有一个页框那么大。也就是说,分页存储有可能产生内部碎片,因此**页框不能太大,否则可能产生过大的内部碎片造成浪费**。 #### 页表 为了能知道进程的每个页面在内存中存放的位置,操作系统要为每个进程建立一张页表。 > 页表通常存在PCB(进程控制块)中。 ![image-20241025005447623.png][14] - 一个进程对应一张页表。 - 进程的每个页面对应一个页表项。 - 每个页表项由 “页号” 和 “块号” 组成。 - 页表记录进程页面和实际存放的内存块之间的映射关系。 - 每个页表项的长度是相同的。 > 每个页表项占多少字节? 假设某系统物理内存大小为 4GB,页面大小为 4KB ,则: - 内存块大小 = 页面大小 = 4KB = $2^{12}$ B 。 - 4GB 的内存总共会被分为 $2^{32} / 2^{12} = 2^{20}$ 个内存块。 - 内存块号的范围应该是 $0 \sim 2^{20} -1$ 。 - 内存块号至少要用 20 bit 来表示,也就是至少要用 3B 来表示块号。 - 由于页号是隐含的,因此每个页表项占 3B ,存储整个页表至少需要 $3 \times (n+1)$ B 页表是顺序存储的,因此不需要记录块号,只需要按照顺序表的方式就可以找出任意一个页号对应的块号。 > 如何实现地址的转换? 虽然进程的各个页面是离散存放的,但是页面内部是连续存放的。 如果要访问逻辑地址 A,则 1. 确定逻辑地址 A 对应的页号 P ; 页号 = 逻辑地址 / 页面长度(取除法的整数部分) 2. 找到 P 号页面在内存中的起始地址(需要查页表); 3. 确定逻辑地址 A 的页内偏移量 W 。 页内偏移量 = 逻辑地址 % 页面长度(取除法的余数部分) 逻辑地址 A 对应的物理地址 = P 号页面在内存中的起始地址 + 页内偏移量 W 。 > 为何页面大小要取 2 的整数幂? 在计算机内部,地址是用二进制表示的,如果页面大小刚好是 2 的整数幂,则计算机硬件可以很快速的把逻辑地址拆分成(页号,页内偏移量)。 - 如果每个页面大小为 $2^K$ B ,用二进制数表示逻辑地址,则末尾 $K$ 位即为页内偏移量,其余部分就是页号。 - 如果页面大小刚好是 2 的整数幂,则只需把页表中记录的物理块号拼接上页内偏移量就能得到对应的物理地址。 页面大小刚好是 2 的整数幂的好处: 1. 逻辑地址的拆分更加迅速 —— 如果每个页面大小为 $2^K$ B,用二进制数表示逻辑地址,则末尾 $K$ 位即为页内偏移量,其余部分就是页号。因此,如果让每个页面的大小为 2 的整数幂,计算机硬件就可以很方便地得出一个逻辑地址对应的页号和页内偏移量,而无需进行除法运算,从而提升了运行速度。 2. 物理地址的计算更加迅速 —— 根据逻辑地址得到页号,根据页号查询页表从而找到页面存放的内存块号,将二进制表示的内存块号和页内偏移量拼接起来,就可以得到最终的物理地址。 #### 逻辑地址结构 分页存储管理的逻辑地址结构如下所示: ![image-20241025015104406.png][15] 地址结构包含两个部分:前一部分为页号,后一部分为页内偏移量 W 。在上图所示的例子中,地址长度为 32 位,其中 0 ~ 11 位为 “页内偏移量”,或称 “页内地址” ;12~31 位为 “页号” 。 - 如果有 $K$ 位表示 “页内偏移量” ,则说明该系统中一个页面的大小是 $2^K$ 个内存单元。 - 如果有 $M$ 位表示 “页号” ,则说明在该系统中,一个进程最多允许有 $2^M$ 个页面。 #### 小结 ![image-20241025015434106.png][16] ### 基本地址变换机构 #### 页表寄存器 基本地址变换机构可以借助进程的页表将逻辑地址转换为物理地址。通常会在系统中设置一个**页表寄存器**(PTR),存放页表在内存中的起始地址F和页表长度 M 。 进程未执行时,页表的始址和页表长度放在进程控制块(PCB)中,当进程被调度时,操作系统内核会把它们放到页表寄存器中。 #### 地址变换过程 设页面大小为 L ,逻辑地址 A 到物理地址E的变换过程如下: ![image-20241025183023770.png][17] 1. 计算页号 $P$ 和页内偏移量 $W$(如果用十进制数手算,则 $P=A/L,W=A\%L$;但是在计算机实际运行时,逻辑地址结构是固定不变的,因此计算机硬件可以更快地得到二进制表示的页号、页内偏移量) 2. 比较页号 $P$ 和页表长度 $M$,若 $P \geq M$ ,则产生越界中断,否则继续执行。(注意:页号是从 0 开始的,而页表长度至少是 1,**因此 $P=M$ 时也会越界**) 3. 页表中页号 $P$ 对应的页表项地址 = 页表起始地址 $F$ + 页号 $P$ $\times$ 页表项长度,取出该页表项内容 b ,即为内存块号。(注意区分页表项长度、页表长度、页面大小的区别。**页表长度**指的是这个页表中总共有几个页表项,即总共有几个页;**页表项长度**指的是每个页表项占多大的存储空间;**页面大小**指的是一个页面占多大的存储空间) 4. 计算 $E = b \times L + W$,用得到的物理地址 $E$ 去访存。(如果内存块号、页面偏移量是用二进制表示的,那么把二者拼接起来就是最终的物理地址了) **例题**:若页面大小 $L$ 为 $1K$ 字节,页号 2 对应的内存块号 $b = 8$,将逻辑地址 $A=2500$ 转换为物理地址 $E$。 等价描述:某系统按字节寻址,逻辑地址结构中,页内偏移量占10位,页号2对应的内存块号 $b = 8$,将逻辑地址 $A=2500$ 转换为物理地址 $E$ 。 1. 计算页号、页内偏移量 页号 $P = A/L = 2500/1024 = 2$ ; 页内偏移量 $W = A\%L = 2500\%1024 = 452$ 。 2. 根据题中条件可知,页号 2 没有越界,其存放的内存块号 $b = 8$ 。 3. 物理地址 $E = b \times L + W = 8 \times 1024 + 425 = 8644$ 。 在分页存储管理(页式管理)的系统中,只要确定了每个页面的大小,逻辑地址结构就确定了。因此,**页式管理中地址是一维的**。即,只要给出一个逻辑地址,系统就可以自动地算出页号、页内偏移量两个部分,并不需要显式地告诉系统这个逻辑地址中,页内偏移量占多少位。 #### 页表项大小问题 假设某系统物理内存大小为 4GB,页面大小为 4KB,的内存总共会被分为 $2^{32} / 2^{12} = 2^{20}$ 个内存块,因此内存块号的范围应该是 $0 \sim 2^{20} -1$ 。因此至少要 20 个二进制位才能表示这么多的内存块号,即每个块号至少要 3 个字节来表示。 各页表项会按顺序连续地存放在内存中。如果该页表在内存中存放的起始地址为 $X$,则 $M$ 号页对应的页表项是存放在内存地址为 $X + 3 \times M$ 。 一个页面为 4KB ,则每个页框可以存放 $4096/3 = 1365$ 个页表项,但是这个页框会剩余 $4096 \% 3 = 1$ B 的**页内碎片**。因此,1365 号页表项存放的地址为 $X + 3 \times 1365 + 1$ 。 但如果每个页表项占 4 字节,则每个页框刚好可存放 1024 个页表项。 因此,理论上页表项长度为 3B 即可表示内存块号的范围,实际中为了方便页表的查询,常常会让一个页表项占更多的字节,**使得每个页面恰好可以装得下整数个页表项**。 #### 小结 ![image-20241025184342666.png][18] ### 具有快表的地址变换机构 #### 快表 (TLB) **快表**,又称**联想寄存器** (TLB,translation lookaside buffer) ,是一种访问速度比内存快很多的**高速缓存**(**TLB 不是内存**),用来**存放最近访问的页表项的副本**,可以加速地址变换的速度。与此对应,内存中的页表常称为慢表。 #### 引入快表后的地址变换过程 1. CPU 给出逻辑地址,由某个硬件算得页号、页内偏移量,将页号与快表中的所有页号进行比较。 2. 如果找到匹配的页号,说明要访问的页表项在快表中有副本,则直接从中取出该页对应的内存块号,再将内存块号与页内偏移量拼接形成物理地址,最后,访问该物理地址对应的内存单元。因此,**若快表命中**,则访问某个逻辑地址**仅需一次访存**即可。 3. 如果没有找到匹配的页号,则需要访问内存中的页表,找到对应页表项,得到页面存放的内存块号,再将内存块号与页内偏移量拼接形成物理地址,最后,访问该物理地址对应的内存单元。因此,**若快表未命中**,则访问某个逻辑地址**需要两次访存**。(注意:在找到页表项后,**应同时将其存入快表**,以便后面可能的再次访问。但若快表已满,则必须按照一定的算法对旧的页表项进行替换) 由于查询快表的速度比查询页表的速度快很多,因此只要快表命中,就可以节省很多时间。根据局部性原理,一般来说快表的命中率可以达到 90% 以上。 **例**:某系统使用基本分页存储管理,并采用了具有快表的地址变换机构。访问一次快表耗时 1us,访问一次内存耗时 100us 。若快表的命中率为 90% ,那么访问一个逻辑地址的平均耗时是多少? 解:$(1+100) * 0.9 + (1+100+100) * 0.1 = 111 us$ 。 若系统支持快表和慢表同时查找,则平均耗时应该是 $(1+100) * 0.9 + (100+100) * 0.1 =110.9 us$ 。 若未采用快表机制,则访问一个逻辑地址需要 $100+100 = 200us$ 。显然,引入快表机制后,访问一个逻辑地址的速度快多了。 #### 与基本地址变换机构的对比 | | 地址变换过程 | 访问一个逻辑地址的访存次数 | | ---------------------- | ------------------------------------------------------------ | ------------------------------------------------------------ | | 基本地址变换机构 | 1. 算页号、页内偏移量<br />2. 检查页号合法性<br />3. 查页表,找到页面存放的内存块号<br />4. 根据内存块号与页内偏移量得到物理地址<br />5. 访问目标内存单元 | 两次访存 | | 具有快表的地址变换机构 | 1. 算页号、页内偏移量<br />2. 检查页号合法性<br />3. 查快表。若命中,即可知道页面存放的内存块号,可直接进行 5. ;若未命中则进行 4.<br />4. 查页表,找到页面存放的内存块号,**并且将页表项复制到快表中**<br />5. 根据内存块号与页内偏移量得到物理地址<br />6. 访问目标内存单元 | 若快表命中,只需一次访存;<br />若快表未命中,则需要两次访存。 | > TLB 和普通 Cache 的区别:TLB 中只有页表项的副本,而普通 Cache 中可能会有其他各种数据的副本。 ### 两级页表 单级页表有两个问题: 1. 页表必须连续存放,因此当页表很大时,需要占用很多个连续的页框。 与离散存储管理的思想相悖。 2. 根据局部性原理,很多时候,进程在一段时间内只需要访问某几个页面就可以正常运行了。因此没有必要让整个页表都常驻内存。 > 虚拟内存技术。可以在页表项中增加一个标志位,用于表示该页面是否已经调入内存。若想访问的页面不在内存中,则产生缺页中断(内中断/异常),然后将目标页面从外存调入内存。 为了解决这两个问题,可以把页表再分页并离散存储,然后再建立一张页表记录页表各个部分的存放位置,称为**页目录表**,或称**外层页表**,或称**顶层页表**。 #### 地址结构 ![image-20241025205354353.png][19] #### 地址变换 1. 按照地址结构将逻辑地址拆分成三部分; 2. 从 PCB 中读出页目录表始址,再根据一级页号查页目录表,找到下一级页表在内存中的存放位置; 3. 根据二级页号查二级页表,找到最终想访问的内存块号; 4. 结合页内偏移量得到物理地址。 #### 额外的注意事项 若分为两级页表后,页表依然很长,则可以采用更多级页表,一般来说**各级页表的大小不能超过一个页面**。 **例**:某系统按字节编址,采用40位逻辑地址,页面大小为4KB,页表项大小为4B,假设采用纯页式存储,则要采用几级页表,页内偏移量为多少位? - 页面大小 = 4KB = $2^{12}$ B,按字节编址,因此页内偏移量为 12 位。 - 页号 = 40 - 12 = 28 位。 - 页面大小 = $2^{12}$ B ,页表项大小 = 4B ,则每个页面可存放 $2^{12} / 4 = 2^{10}$ 个页表项。 因此各级页表最多包含 $2^{10}$ 个页表项,需要 10 位二进制位才能映射到 $2^{10}$ 个页表项,因此每一级的页表对应页号应为 10 位。总共 28 位的页号至少要分为三级。 ![image-20241025210331083.png][20] 两级页表的访存次数分析(假设没有快表机构): 1. 第一次访存:访问内存中的页目录表; 2. 第二次访存:访问内存中的二级页表; 3. 第三次访存:访问目标内存单元。 #### 小结 ![image-20241025210418568.png][21] ## 基本分段存储管理 ### 基本概念 #### 分段存储 **进程的地址空间**:**按照程序自身的逻辑关系划分**为若干个段,每个段都有一个段名(在低级语言中,程序员使用段名来编程),**每段从 0 开始编址**。 **内存分配规则**:以段为单位进行分配,**每个段在内存中占据连续空间**,但**各段之间可以不相邻**。 ![image-20241025213757812.png][22] 分段系统的逻辑地址结构由段号(段名)和段内地址(段内偏移量)所组成。如: ![image-20241025213832239.png][23] - 段号的位数决定了每个进程最多可以分几个段。 - 段内地址位数决定了每个段的最大长度是多少。 #### 段表 程序分多个段,各段离散地装入内存,为了保证程序能正常运行,就必须能从物理内存中找到各个逻辑段的存放位置。为此,需为每个进程建立一张段映射表,简称**段表**。 ![image-20241025213950791.png][24] 1. 每个段对应一个段表项,其中记录了该段在内存中的**起始位置**(又称**基址**)和**段的长度**。 2. **各个段表项的长度是相同的**。 例如:某系统按字节寻址,采用分段存储管理,逻辑地址结构为 (段号 16 位,段内地址 16 位) ,因此用 16 位即可表示最大段长。物理内存大小为 4GB(可用32位表示整个物理内存地址空间)。因此,可以让每个段表项占 $16+32 = 48$ 位,即 6B 。由于段表项长度相同,因此段号可以是隐含的,不占存储空间。若段表存放的起始地址为 $M$,则 $K$ 号段对应的段表项存放的地址为 $M + K \times 6$ 。 ### 地址变换 1. 根据逻辑地址得到段号、段内地址。 2. 判断段号是否越界。若 $S \geq M$,则产生越界中断,否则继续执行。 3. 查询段表,找到对应的段表项,段表项的存放地址为 $F+S \times$ 段表项长度。 4. 检查段内地址是否超过段长。若 $W \geq C$ ,则产生越界中断,否则继续执行。 5. 计算得到物理地址。 6. 访问目标内存单元。 ![image-20241025214312451.png][25] > 注意要检查段内地址是否合法。 ### 对比分页管理 - **页**是**信息的物理单位**。分页的主要目的是为了**实现离散分配**,提高内存利用率。分页仅仅是系统管理上的需要,完全是系统行为,**对用户是不可见的**。 **段**是**信息的逻辑单位**。分段的主要目的是**更好地满足用户需求**。一个段通常包含着一组属于一个逻辑模块的信息。**分段对用户是可见的**,用户编程时需要显式地给出段名。 - 页的大小固定且由系统决定。 段的长度不固定,由用户编写的程序决定。 - **分页**的用户进程**地址空间是一维的**,程序员只需给出一个记忆符即可表示一个地址。 - **分段**的用户进程**地址空间是二维的**,程序员在标识一个地址时,既要给出段名,也要给出段内地址。 ![image-20241026175627929.png][26] - **分段比分页更容易实现信息的共享和保护**。 > 不能被修改的代码称为纯代码或可重入代码(不属于临界资源),这样的代码是可以共享的。可修改的代码是不能共享的。 段表只需要将各进程的段表想指向同一个段即可: ![image-20241026181205110.png][27] 而页表中同一个页面内不一定都是可重入资源: ![image-20241026181301723.png][28] - 访问一个逻辑地址需要几次访存? 分页(单级页表):第一次访存 —— 查内存中的页表;第二次访存 —— 访问目标内存单元。总共两次访存。 分段:第一次访存 —— 查内存中的段表;第二次访存 —— 访问目标内存单元。总共两次访存。 与分页系统类似,分段系统中也可以引入**快表**机构,将近期访问过的段表项放到快表中,这样可以少一次访问,加快地址变换速度。 **优缺点对比**: | | 优点 | 缺点 | | -------- | ------------------------------------------------------------ | ------------------------------------------------------------ | | 分页管理 | 内存空间利用率高,**不会产生外部碎片**,只会有少量的页内碎片 | 不方便按照逻辑模块实现信息的共享和保护 | | 分段管理 | 很方便按照逻辑模块实现信息的共享和保护 | 如果段长过大,为其分配很大的连续空间会很不方便。另外,段式管理**会产生外部碎片** | > 分段管理中产生的外部碎片也可以用 “紧凑” 来解决,只是需要付出较大的时间代价 ### 小结 ![image-20241026181512398.png][29] ## 段页式管理方式 将进程按逻辑模块分段,再将各段分页。 ![image-20241026185536750.png][30] ### 逻辑地址结构 段页式系统的逻辑地址结构由段号、页号、页内地址(页内偏移量)组成。如: ![image-20241026190259995.png][31] - 段号的位数决定了每个进程最多可以分几个段。 上图中段号占 16 位,因此在该系统中,每个进程最多有 $2^{16} = 64K$ 个段。 - 页号位数决定了每个段最大有多少页。 页号占 4 位,因此每个段最多有 $2^4 = 16$ 页。 - 页内偏移量决定了页面大小、内存块大小是多少。 页内偏移量占 12 位,因此每个页面\每个内存块大小为 $2^{12} = 4096 = 4 KB$ 。 “分段” 对用户是可见的,程序员编程时需要显式地给出段号、段内地址。而将各段 “分页” 对用户是不可见的。系统会根据段内地址自动划分页号和页内偏移量。 因此段页式管理的地址结构是二维的。 ### 段表和页表 每个段对应一个段表项,每个段表项由段号、页表长度、页表存放块号(页表起始地址)组成。**每个段表项长度相等**,**段号是隐含的**。 每个页面对应一个页表项,每个页表项由页号、页面存放的内存块号组成。每个页表项长度相等,页号是隐含的。 ![image-20241026191241608.png][32] ### 地址变换 1. 根据逻辑地址得到段号、页号、页内偏移量。 2. 判断段号是否越界。若 $S \geq M$,则产生越界中断,否则继续执行。 3. 查询段表,找到对应的段表项,段表项的存放地址为 $F+S \times$ 段表项长度。 4. 检查页号是否越界。若页号 $\geq$ 页表长度,则产生越界中断,否则继续执行。 5. 根据页表存放块号、页号查询页表,找到对应页表项。 6. 根据内存块号、页内偏移量得到最终的物理地址。 7. 访问目标内存单元。 ![image-20241026191312865.png][33] ### 小结 ![image-20241026191839014.png][34] ## 虚拟存储技术 ### 基本概念 #### 传统存储管理方式的特点 ![image-20241026200716453.png][35] - **一次性**:作业必须一次性全部装入内存后才能开始运行。这会造成两个问题: 1. 作业很大时,不能全部装入内存,导致**大作业无法运行**; 2. 当大量作业要求运行时,由于内存无法容纳所有作业,因此只有少量作业能运行,导致**多道程序并发度下降**。 - **驻留性**:一旦作业被装入内存,就**会一直驻留在内存中**,直至作业运行结束。事实上,在一个时间段内,只需要访问作业的一小部分数据即可正常运行,这就导致了内存中会驻留大量的、暂时用不到的数据,浪费了宝贵的内存资源。 #### 局部性原理 **时间局部性**:如果执行了程序中的某条指令,那么不久后这条指令很有可能再次执行;如果某个数据被访问过,不久之后该数据很可能再次被访问。(因为程序中存在大量的循环) **空间局部性**:一旦程序访问了某个存储单元,在不久之后,其附近的存储单元也很有可能被访问。(因为很多数据在内存中都是连续存放的,并且程序的指令也是顺序地在内存中存放的) 局部性原理的应用: - 高速缓冲技术的思想:将近期会频繁访问到的数据放到更高速的存储器中,暂时用不到的数据放在更低速存储器中。 - 快表:快表机构就是将近期常访问的页表项副本放到更高速的联想寄存器中。 #### 虚拟内存的定义 基于局部性原理,在程序装入时,可以将程序中**很快会用到的部分装入内存,暂时用不到的部分留在外存**,就可以让程序开始执行。 在程序执行过程中,当所**访问的信息不在内存**时,由**操作系统负责将所需信息从外存调入内存**,然后继续执行程序。 若内存空间不够,由**操作系统负责将内存中暂时用不到的信息换出到外存**。 在操作系统的管理下,在用户看来似乎有一个比实际内存大得多的内存,这就是**虚拟内存**。 > 操作系统虚拟性的一个体现,实际的物理内存大小没有变,只是在逻辑上进行了扩充。 - 虚拟内存的最大容量是由计算机的地址结构(CPU 寻址范围)确定的。 - 虚拟内存的实际容量 = min(内存和外存容量之和,CPU 寻址范围) 。 #### 虚拟内存的特征 三个主要特征: 1. **多次性**:无需在作业运行时一次性全部装入内存,而是允许被分成多次调入内存。 2. **对换性**:在作业运行时无需一直常驻内存,而是允许在作业运行过程中,将作业换入、换出。 3. **虚拟性**:从逻辑上扩充了内存的容量,使用户看到的内存容量,远大于实际的容量。 #### 虚拟内存的实现 虚拟内存技术允许一个作业分多次调入内存。如果采用连续分配方式,会不方便实现。因此,虚拟内存的实现需要建立在离散分配的内存管理方式基础上。 虚拟内存的实现主要有三种实现方法: - 请求分页存储管理; - 请求分段存储管理; - 请求段页式存储管理。 其和传统的非连续分配存储管理的主要区别在于:在程序执行过程中,当所访问的信息不在内存时,**由操作系统负责将所需信息从外存调入内存**,然后继续执行程序。若内存空间不够,**由操作系统负责将内存中暂时用不到的信息换出到外存**。 > 操作系统要提供请求调页 (请求调段) 和页面置换 (段置换) 的功能。 #### 小结 ![image-20241026202036472.png][36] ### 请求分页管理方式 **请求分页**存储管理与**基本分页**存储管理的主要区别: - 在程序执行过程中,当所**访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存**,然后继续执行程序。 操作系统要提供**请求调页**功能,将缺失页面从外存调入内存。 - 若内存空间不够,由操作系统负责**将内存中暂时用不到的信息换出到外存**。 操作系统要提供**页面置换**的功能,将暂时用不到的页面换出外存。 #### 页表机制 与基本分页管理相比,请求分页管理中,为了实现 “请求调页” ,操作系统需要知道每个页面是否已经调入内存;如果还没调入,那么也需要知道该页面在外存中存放的位置。 当内存空间不够时,要实现 “页面置换” ,操作系统需要通过某些指标来决定到底换出哪个页面;有的页面没有被修改过,就不用再浪费时间写回外存。有的页面修改过,就需要将外存中的旧数据覆盖,因此,操作系统也需要记录各个页面是否被修改的信息。 ![image-20241027020249488.png][37] #### 缺页中断机构 在请求分页系统中,每当要访问的页面不在内存时,便产生一个**缺页中断**,然后由操作系统的**缺页中断处理程序处理中断**。此时缺页的进程阻塞,放入阻塞队列,调页完成后再将其唤醒,放回就绪队列。 - 如果内存中有空闲块,则为进程分配一个空闲块,将所缺页面装入该块,并修改页表中相应的页表项。 - 如果内存中没有空闲块,则由页面置换算法选择一个页面淘汰,若该页面在内存期间被修改过,则要将其写回外存。未修改过的页面不用写回外存。 缺页中断是因为当前执行的指令想要访问的目标页面未调入内存而产生的,因此属于**内中断**。一条指令在执行期间,可能产生多次缺页中断。 #### 地址变换机构 新增步骤: 1. 请求调页(查到页表项时进行判断) 2. 页面置换(需要调入页面,但没有空闲内存块时进行) 3. 需要修改请求页表中新增的表项 ![image-20241027134622603.png][38] 补充细节: - 只有 “写指令” 才需要修改 “修改位” 。并且,一般来说只需修改快表中的数据,只有要将快表项删除时才需要写回内存中的慢表。这样可以减少访存次数。 - 和普通的中断处理一样,缺页中断处理依然需要保留CPU现场。 - 需要用某种 “页面置换算法” 来决定一个换出页面。 - 换入 / 换出页面都需要启动慢速的 I/O 操作,可见,如果换入 / 换出太频繁,会有很大的开销。 - 页面调入内存后,需要修改慢表,同时也需要将表项复制到快表中。 在具有快表机构的请求分页系统中,访问一个逻辑地址时,若发生缺页,则地址变换步骤是:查快表(未命中) $\rightarrow$ 查慢表(发现未调入内存) $\rightarrow$ 调页(调入的页面对应的表项会直接加入快表) $\rightarrow$ 查 快表(命中) $\rightarrow$ 访问目标内存单元。 #### 小结 ![image-20241027140236209.png][39] ### 页面置换算法 页面的换入、换出需要磁盘 I/O ,会有较大的开销,因此好的页面置换算法应该**追求更少的缺页率**。 #### 最佳置换算法 (OPT) **算法思想**:每次选择淘汰的页面将是以后永不使用,或者在最长时间内不再被访问的页面,这样可以保证最低的缺页率。 **例**:假设系统为某进程分配了三个内存块,并考虑到有一下页面号引用串(会依次访问这些页面):`7, 0, 1, 2, 0, 3, 0, 4, 2, 3, 0, 3, 2, 1, 2, 0, 1, 7, 0, 1` ![image-20241027141052439.png][40] 选择从 0,1,7 中淘汰一页。按最佳置换的规则,往后寻找,最后一个出现的页号就是要淘汰的页面。整个过程缺页中断发生了 9 次,页面置换发生了 6 次,缺页率 $= 9 / 20 = 45\%$ 。 > 缺页时未必发生页面置换。若还有可用的空闲内存块,就不用进行页面置换。 最佳置换算法可以保证最低的缺页率,但实际上,只有在进程执行的过程中才能知道接下来会访问到的是哪个页面。操作系统无法提前预判页面访问序列。因此,**最佳置换算法是无法实现的**。 #### 先进先出置换算法 (FIFO) **算法思想**:每次选择淘汰的页面是最早进入内存的页面。 **实现方法**:把调入内存的页面根据调入的先后顺序排成一个队列,需要换出页面时选择队头页面即可。队列的最大长度取决于系统为进程分配了多少个内存块。 **例**:假设系统为某进程分配了三个内存块,并考虑到有以下页面号引用串:`3, 2, 1, 0, 3, 2, 4, 3, 2, 1, 0, 4` ![image-20241027141533819.png][41] 但如果分配四个内存块: ![image-20241027141620715.png][42] 这种为进程分配的物理块数增大时,缺页次数不减反增的异常现象,称为 **Belady 异常**。 只有 FIFO 算法会产生 Belady 异常。另外,FIFO 算法虽然实现简单,但是该算法与进程实际运行时的规律不适应,因为先进入的页面也有可能最经常被访问。因此,算法性能差。 #### 最近最久未使用置换算法 (LRU) **算法思想**:每次淘汰的页面是最近最久未使用的页面。 **实现方法**:赋予每个页面对应的页表项中,用访问字段记录该页面自上次被访问以来所经历的时间 $t$ 。当需要淘汰一个页面时,选择现有页面中 $t$ 值最大的,即最近最久未使用的页面。 **例**:假设系统为某进程分配了四个内存块,并考虑到有以下页面号引用串:`1, 8, 1, 7, 8, 2, 7, 2, 1, 8, 3, 8, 2, 1, 3, 1, 7, 1, 3, 7` ![image-20241027141933933.png][43] 在手动做题时,若需要淘汰页面,可以逆向检查此时在内存中的几个页面号。在逆向扫描过程中最后一个出现的页号就是要淘汰的页面。 该算法的实现需要专门的硬件支持,虽然**算法性能好**,但是**实现困难,开销大**。 #### 时钟置换算法 (CLOCK / NRU) 最佳置换算法性能最好,但无法实现;先进先出置换算法实现简单,但算法性能差;最近最久未使用置换算法性能好,是最接近OPT算法性能的,但是实现起来需要专门的硬件支持,算法开销大。 时钟置换算法是一种性能和开销较均衡的算法,又称CLOCK算法,或最近未用算法(NRU,Not Recently Used) **简单的 CLOCK 算法实现方法**:为每个页面设置一个**访问位**,再将内存中的页面都通过链接指针链接成一个循环队列。当某页被访问时,其访问位置为 1 。 ![image-20241027142259548.png][44] 当需要淘汰一个页面时,只需检查页的访问位。如果是 0 ,就选择该页换出;如果是 1 ,则将它置为 0 ,暂不换出,继续检查下一个页面。若第一轮扫描中所有页面都是 1 ,则将这些页面的访问位依次置为 0 后,再进行第二轮扫描。(第二轮扫描中一定会有访问位为 0 的页面,因此简单的 CLOCK 算法选择一个淘汰页面最多会经过两轮扫描) ##### 改进型时钟置换算法 简单的时钟置换算法仅考虑到一个页面最近是否被访问过。事实上,如果被淘汰的页面没有被修改过,就不需要执行I/O操作写回外存。**只有被淘汰的页面被修改过时,才需要写回外存**。 因此,除了考虑一个页面最近有没有被访问过之外,操作系统还应考虑页面有没有被修改过。在其他条件都相同时,应**优先淘汰没有修改过的页面**,避免 I/O 操作。这就是改进型的时钟置换算法的思想。 为方便讨论,用 (访问位,修改位) 的形式表示各页面状态。如 (1,1) 表示一个页面近期被访问过,且被修改过。 **算法规则**:将所有可能被置换的页面排成一个循环队列。 1. 第一轮:从当前位置开始扫描到第一个(0, 0)的帧用于替换。本轮扫描不修改任何标志位。 2. 第二轮:若第一轮扫描失败,则重新扫描,查找第一个(0, 1)的帧用于替换。本轮将所有扫描过的帧访问位设为 0 。 3. 第三轮:若第二轮扫描失败,则重新扫描,查找第一个(0, 0)的帧用于替换。本轮扫描不修改任何标志位。 4. 第四轮:若第三轮扫描失败,则重新扫描,查找第一个(0, 1)的帧用于替换。 由于第二轮已将所有帧的访问位设为 0 ,因此经过第三轮、第四轮扫描一定会有一个帧被选中,因此改进型CLOCK置换算法选择一个淘汰页面最多会进行四轮扫描。 #### 小结 | | 算法规则 | 优缺点 | | :-------: | ------------------------------------------------------------ | ------------------------------------------------ | | OPT | 优先淘汰最长时间内不会被访问的页面 | 缺页率最小,性能最好,但无法实现 | | FIFO | 优先淘汰最先进入内存的页面 | 实现简单,但性能很差,可能出现Belady异常 | | LRU | 优先淘汰最近最久没访问的页面 | 性能很好,但需要硬件支持,算法开销大 | | NRU | 循环扫描各页面<br/>第一轮淘汰访问位为 0 的,并将扫描过的页面访问位改为 1 。<br/>若第一轮没选中,则进行第二轮扫描。 | 实现简单,算法开销小,但未考虑页面是否被修改过。 | | 改进型NRU | 若用(访问位,修改位)的形式表述,则<br/>第一轮:淘汰(0, 0)<br/>第二轮:淘汰(0, 1),并将扫描过的页面访问位都置为0<br/>第三轮:淘汰(0, 0)<br/>第四轮:淘汰(0, 1) | 算法开销较小,性能也不错 | ### 页面分配策略 #### 驻留集 指请求分页存储管理中给进程分配的物理块的集合。在采用了虚拟存储技术的系统中,驻留集大小一般小于进程的总大小。 - 若驻留集太小,会导致缺页频繁,系统要花大量的时间来处理缺页,实际用于进程推进的时间很少; - 若驻留集太大,又会导致多道程序并发度下降,资源利用率降低。 所以应该选择一个合适的驻留集大小。 > 考虑一个极端情况,若某进程共有100个页面,则该进程的驻留集大小为100时进程可以全部放入内存,运行期间不可能再发生缺页。若驻留集大小为1,则进程运行期间必定会极频繁地缺页。 #### 页面分配,置换策略 **固定分配**:操作系统为每个进程分配一组固定数目的物理块,在进程运行期间不再改变。即,**驻留集大小不变**。 **可变分配**:先为每个进程分配一定数目的物理块,在进程运行期间,可根据情况做适当的增加或减少。即,驻留集大小可变 **局部置换**:发生缺页时只能选进程自己的物理块进行置换。 **全局置换**:可以将操作系统保留的空闲物理块分配给缺页进程,也可以将别的进程持有的物理块置换到外存,再分配给缺页进程。 将上面的分配策略和置换策略进行排列组合,可以得到四种组合。但其中全局置换固定分配时不存在的,因为全局置换意味着一个进程拥有的物理块数量必然会改变,不可能是固定分配。 **固定分配局部置换**:系统为每个进程分配一定数量的物理块,在整个运行期间都不改变。若进程在运行中发生缺页,则只能从该进程在内存中的页面中选出一页换出,然后再调入需要的页面。 这种策略的**缺点**:很难在刚开始就确定应为每个进程分配多少个物理块才算合理。(采用这种策略的系统可以根据进程大小、优先级、或是根据程序员给出的参数来确定为一个进程分配的内存块数) **可变分配全局置换**:刚开始会为每个进程分配一定数量的物理块。操作系统会保持一个空闲物理块队列。当某进程发生缺页时,从空闲物理块中取出一块分配给该进程;若已无空闲物理块,则可选择一个**未锁定**的页面换出外存,再将该物理块分配给缺页的进程。 > 系统会锁定一些页面,这些页面中的内容不能置换出外存。如:重要的内核数据可以设为 “锁定” (了解即可) 采用这种策略时,**只要某进程发生缺页,都将获得新的物理块**。仅当空闲物理块用完时,系统才选择一个未锁定的页面调出。被选择调出的页可能是系统中任何一个进程中的页,因此这个**被选中的进程拥有的物理块会减少,缺页率会增加**。 > 只要缺页就给分配新物理块 **可变分配局部置换**:刚开始会为每个进程分配一定数量的物理块。当某进程发生缺页时,只允许从该进程自己的物理块中选出一个进行换出外存。如果进程在运行中频繁地缺页,系统会为该进程多分配几个物理块,直至该进程缺页率趋势适当程度;反之,如果进程在运行中缺页率特别低,则可适当减少分配给该进程的物理块。 > 要根据**发生缺页的频率**来**动态地增加或减少**进程的物理块 #### 页面调入 ##### 何时调入 **预调页策略**:根据局部性原理,一次调入若干个相邻的页面可能比一次调入一个页面更高效。但如果提前调入的页面中大多数都没被访问过,则又是低效的。因此可以预测不久之后可能访问到的页面,将它们预先调入内存,但目前预测成功率只有 50% 左右。故这种策略**主要用于进程的首次调入**,由程序员指出应该先调入哪些部分。 > 运行前调入 **请求调页策略**:进程**在运行期间发现缺页时才将所缺页面调入内存**。由这种策略调入的页面一定会被访问到,但由于每次只能调入一页,而每次调页都要磁盘 I/O 操作,因此 I/O 开销较大。 > 运行时调入 ##### 从何处调入 **系统拥有足够的对换区空间**:页面的调入、调出都是在内存与对换区之间进行,这样可以保证页面的调入、调出速度很快。在进程运行前,需将进程相关的数据从文件区复制到对换区。 ![image-20241028020400085.png][45] **系统缺少足够的对换区空间**:凡是不会被修改的数据都直接从文件区调入,由于这些页面不会被修改,因此换出时不必写回磁盘,下次需要时再从文件区调入即可。对于可能被修改的部分,换出时需写回磁盘对换区,下次需要时再从对换区调入。 ![image-20241028020432210.png][46] **UNIX 方式**:运行之前进程有关的数据全部放在文件区,故未使用过的页面,都可从文件区调入。若被使用过的页面需要换出,则写回对换区,下次需要时从对换区调入。 ![image-20241028020543702.png][47] #### 抖动 (颠簸) 现象 刚刚换出的页面马上又要换入内存,刚刚换入的页面马上又要换出外存,这种频繁的页面调度行为称为**抖动**,或**颠簸**。产生抖动的主要原因是进程频繁访问的页面数目高于可用的物理块数(**分配给进程的物理块不够**) > 为进程分配的物理块太少,会使进程发生抖动现象。为进程分配的物理块太多,又会降低系统整体的并发度,降低某些资源的利用率。 为了研究为应该为每个进程分配多少个物理块,Denning 提出了进程 “工作集” 的概念。 #### 工作集 工作集:指在某段时间间隔里,进程实际访问页面的集合。 操作系统会根据 “**窗口尺寸**” 来算出工作集。例如: ![image-20241028021100398.png][48] **工作集大小可能小于窗口尺寸**,实际应用中,操作系统可以统计进程的工作集大小,根据工作集大小给进程分配若干内存块。如:窗口尺寸为 5 ,经过一段时间的监测发现某进程的工作集最大为 3 ,那么说明该进程有很好的局部性,可以给这个进程分配 3 个以上的内存块即可满足进程的运行需要。 一般来说,**驻留集大小不能小于工作集大小,否则进程运行过程中将频繁缺页**。 **拓展**:基于局部性原理可知,进程在一段时间内访问的页面与不久之后会访问的页面是有相关性的 因此,可以根据进程近期访问的页面集合(工作集)来设计一种页面置换算法 —— 选择一个不在工作集中的页面进行淘汰。 #### 小结 ![image-20241028021319536.png][49] ### 内存映射文件 内存映射文件 (Memory-Mapped Files),是操作系统向上层程序员提供的功能(系统调用) - 方便程序员访问文件数据 - 方便多个进程共享同一个文件 #### 传统的文件访问方式 1. open系统调用 —— 打开文件 2. seek系统调用 —— 将读写指针移到某个位置 3. read系统调用 —— 从读写指针所指位置读入若干数据(从磁盘读入内存) 4. write系统调用 —— 将内存中的指定数据,写回磁盘(根据读写指针确定要写回什么位置) #### 内存映射文件访问方式 1. open 系统调用 —— 打开文件 2. mmap 系统调用 —— 将文件映射到进程的虚拟地址空间 ![image-20241028023025058.png][50] 特点: - 以访问内存的方式访问文件数据。 - 文件数据的读入、写出由操作系统自动完成。 - 进程关闭文件时,操作系统自动将文件被修改的数据写回磁盘。 多个进程可以映射同一个文件,实现**共享**。在物理内存中,一个文件对应同一份数据,当一个进程修改文件数据时,另一个进程可以立马感知到。 ![image-20241028023117870.png][51] #### 小结 ![image-20241028023128765.png][52] [1]: https://blog.domineto.top/usr/uploads/2024/10/3579791409.png [2]: https://blog.domineto.top/usr/uploads/2024/10/592273143.png [3]: https://blog.domineto.top/usr/uploads/2024/10/1238915822.png [4]: https://blog.domineto.top/usr/uploads/2024/10/3174693427.png [5]: https://blog.domineto.top/usr/uploads/2024/10/4141302462.png [6]: https://blog.domineto.top/usr/uploads/2024/10/3883426152.png [7]: https://blog.domineto.top/usr/uploads/2024/10/653331947.png [8]: https://blog.domineto.top/usr/uploads/2024/10/2399412379.png [9]: https://blog.domineto.top/usr/uploads/2024/10/3340570034.png [10]: https://blog.domineto.top/usr/uploads/2024/10/946419913.png [11]: https://blog.domineto.top/usr/uploads/2024/10/2457278404.png [12]: https://blog.domineto.top/usr/uploads/2024/10/1838663061.png [13]: https://blog.domineto.top/usr/uploads/2024/10/3307361650.png [14]: https://blog.domineto.top/usr/uploads/2024/10/2245459589.png [15]: https://blog.domineto.top/usr/uploads/2024/10/3654436016.png [16]: https://blog.domineto.top/usr/uploads/2024/10/2101761349.png [17]: https://blog.domineto.top/usr/uploads/2024/10/3278268328.png [18]: https://blog.domineto.top/usr/uploads/2024/10/3130682174.png [19]: https://blog.domineto.top/usr/uploads/2024/10/3315477370.png [20]: https://blog.domineto.top/usr/uploads/2024/10/979049582.png [21]: https://blog.domineto.top/usr/uploads/2024/10/96469342.png [22]: https://blog.domineto.top/usr/uploads/2024/10/3698161481.png [23]: https://blog.domineto.top/usr/uploads/2024/10/2417279434.png [24]: https://blog.domineto.top/usr/uploads/2024/10/3157975611.png [25]: https://blog.domineto.top/usr/uploads/2024/10/1839340928.png [26]: https://blog.domineto.top/usr/uploads/2024/10/2758898600.png [27]: https://blog.domineto.top/usr/uploads/2024/10/4271420269.png [28]: https://blog.domineto.top/usr/uploads/2024/10/2226296351.png [29]: https://blog.domineto.top/usr/uploads/2024/10/2213845797.png [30]: https://blog.domineto.top/usr/uploads/2024/10/1938079826.png [31]: https://blog.domineto.top/usr/uploads/2024/10/682683485.png [32]: https://blog.domineto.top/usr/uploads/2024/10/1302567297.png [33]: https://blog.domineto.top/usr/uploads/2024/10/2872739090.png [34]: https://blog.domineto.top/usr/uploads/2024/10/3437909886.png [35]: https://blog.domineto.top/usr/uploads/2024/10/4203968829.png [36]: https://blog.domineto.top/usr/uploads/2024/10/1735584792.png [37]: https://blog.domineto.top/usr/uploads/2024/10/828263162.png [38]: https://blog.domineto.top/usr/uploads/2024/10/2008828837.png [39]: https://blog.domineto.top/usr/uploads/2024/10/2715219984.png [40]: https://blog.domineto.top/usr/uploads/2024/10/3539309846.png [41]: https://blog.domineto.top/usr/uploads/2024/10/1487563709.png [42]: https://blog.domineto.top/usr/uploads/2024/10/591276645.png [43]: https://blog.domineto.top/usr/uploads/2024/10/3843310526.png [44]: https://blog.domineto.top/usr/uploads/2024/10/1548316530.png [45]: https://blog.domineto.top/usr/uploads/2024/10/851696453.png [46]: https://blog.domineto.top/usr/uploads/2024/10/3163511171.png [47]: https://blog.domineto.top/usr/uploads/2024/10/1261640255.png [48]: https://blog.domineto.top/usr/uploads/2024/10/3513136804.png [49]: https://blog.domineto.top/usr/uploads/2024/10/250559058.png [50]: https://blog.domineto.top/usr/uploads/2024/10/4214679198.png [51]: https://blog.domineto.top/usr/uploads/2024/10/3667800576.png [52]: https://blog.domineto.top/usr/uploads/2024/10/302418820.png 最后修改:2024 年 11 月 01 日 © 允许规范转载 赞 如果觉得我的文章对你有用,请随意赞赏