CN102323909B - 实现使用大容量高速缓存的内存管理方法及装置 - Google Patents
实现使用大容量高速缓存的内存管理方法及装置 Download PDFInfo
- Publication number
- CN102323909B CN102323909B CN201110269002.7A CN201110269002A CN102323909B CN 102323909 B CN102323909 B CN 102323909B CN 201110269002 A CN201110269002 A CN 201110269002A CN 102323909 B CN102323909 B CN 102323909B
- Authority
- CN
- China
- Prior art keywords
- page frame
- cache
- physics
- physics page
- memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Memory System Of A Hierarchy Structure (AREA)
Abstract
本发明提供了实现使用大容量高速缓存的内存管理方法及装置,其中方法包括:以内存的物理页框为单位划分使用的高速缓存,并确定划分的高速缓存区域的映射条件。为并发应用进程分配符合高速缓存区域的映射条件的物理页框。本发明通过调整计算机操作系统虚拟存储管理机制中的页面分配策略,控制虚拟-物理地址转换的页表项的相应位,来划分高速缓存,以隔离并发运行的应用程序以及同一应用程序的不同内存区域对高速缓存的访问,从而减少不同内存页面映射到同一高速缓存区域所导致的冲突失效,达到对系统性能进行优化的目的。
Description
技术领域
本发明涉及到计算机系统的内存管理方法,尤其涉及实现使用大容量高速缓存的内存管理方法及装置。
背景技术
高速缓存处于处理器访问的关键路径。随着处理器和主存储器之间速度差距的不断扩大,高速缓存尤其是容量较大的最低一级高速缓存,其失效产生的系统开销逐渐增大,已成为制约计算机整体性能提高的主要瓶颈之一。
主存储器在逻辑上划分为若干行,每行划分为若干个存储单元组,每组包含几个或几十个字(或字节),如图1所示;因此,处理器访问主存储器的逻辑地址划分为行号、列号和组内地址三个字段。高速缓存也相应地划分为行和列的存储单元组,可参见图3。二者的列数相同,组的大小也相同,但高速缓存的行数却比主存储器的行数少得多(u<<m)。当出现访问失效而高速缓存对应列中没有空的位置时,便淘汰该对应列中的某一组,以腾出位置存放新调入的组,这称为替换。确定替换的方法叫替换算法。常用的替换算法包括:最近最少使用法(LRU)、先进先出法(FIFO)和随机法(RAND)等。商业处理器普遍采用LRU替换算法管理高速缓存。
在现代处理器中,高速缓存容量不断地在扩大,其规模已经上升到若干兆比特。由于LRU替换算法并不区分访问高速缓存的不同应用进程,导致一个进程的高速缓存失效可能会替换另一进程的高速缓存块,从而导致出现高速缓存被不同应用进程抢占的问题。并发的多个进程对高速缓存的抢占,使得其性能比单个进程单独占有高速缓存时下降很多;同时,还会导致并发进程中单个进程的执行时间受与其并发执行的其它进程的影响很大,并难以预测。此外,该LRU算法不能区分对高速缓存不同的访问模式,无法根据程序局部性的变化进行调整。再有,在运行工作集较大、局部性较差的访存密集型程序时,该LRU算法会引发高速缓存污染,即指将未来需要使用的数据替换出高速缓存,而换入未来不会被使用的数据。高速缓存污染会导致高速失效率增高,访存延迟增大,系统性能降低。
因此,针对目前使用大容量物理寻址高速缓存的内存管理所存在的一系列问题,需要提供一种改进的内存管理方法,能够隔离同时运行的不同应用程序以及同一应用程序不同内存区域的高速缓存访问,从而实现对系统性能的优化。
发明内容
本发明所要解决的技术问题是提供一种实现使用大容量高速缓存的内存管理方法及装置,能够减少为并发应用进程分配不同内存页面映射到同一高速缓存区域所导致的冲突失效。
为了解决上述技术问题,本发明提供了一种实现使用大容量高速缓存的内存管理方法,包括:
以内存的物理页框为单位划分使用的高速缓存,并确定划分的高速缓存区域的映射条件,具体包括:
将与高速缓存的组号所重合的所述物理页框的页号作为区域号对高速缓存组进行区域划分,并以区域号作为所述高速缓存区域的映射条件确定。
进一步地,该内存管理方法还包括:
为并发应用进程分配符合高速缓存区域的映射条件的物理页框,具体包括:
当并发应用进程申请映射到高速缓存区域的物理页框时,根据申请的新物理页框经计算处理将与高速缓存的组号重合的物理页框的页号作为区域号;
判断经计算处理出的区域编号与分配该应用进程的目标区域编号是否一致,一致表示符合所述映射条件,则为应用进程分配相应的物理页框;不一致表示不符合所述映射条件,则提醒应用进程相应的物理页框分配失败。
为了解决上述技术问题,本发明提供了一种使用大容量高速缓存的内存管理装置,包括相互连接的高速缓存划分模块和内存分配模块,其中:
高速缓存划分模块,用于以内存的物理页框为单位划分高速缓存,并将确定的划分高速缓存区域的映射条件输出给内存分配模块;其中,通过高速缓存区域划分单元将与高速缓存组的组号重合的所述物理页框的页号作为区域号对高速缓存组进行区域划分,并将区域号输出给划分区域映射单元;通过划分区域映射单元将区域号作为相应应用进程内存分配的映射条件保存,并在内存分配模块提出映射条件请求时,将符合映射条件相应的区域号返回给内存分配模块;
内存分配模块,用于为并发应用进程分配符合高速缓存区域的映射条件的物理页框;其中,通过映射条件判断单元根据并发应用进程提出的映射高速缓存区域的物理页框分配请求,向所述划分区域映射单元提出所述映射条件请求,根据所述划分区域映射单元返回的所述区域编号判断请求分配的物理页框是否符合所述映射条件,向页框分配单元输出物理页框分配指令;通过页框分配单元根据所述物理页框分配指令,为所述应用进程分配映射到相应高速缓存区域的物理页框,或提示所述应用进程所述物理页框的分配失败。
进一步地,
映射条件判断单元判断请求分配的物理页框符合映射条件,则向页框分配单元输出分配成功的物理页框分配指令,否则向页框分配单元输出分配失败的物理页框分配指令;
页框分配单元根据该分配成功的物理页框分配指令,将相应的物理页框通过物理页框分配响应分配给应用进程;或者,根据该分配失败的物理页框分配指令,将分配失败信息通过物理页框分配响应提示给该应用进程。
本发明利用大容量高速缓存计算机系统其高速缓存寻址的物理地址相应位会超过页内偏移位这一特征,通过调整计算机操作系统虚拟存储管理机制中的页面分配策略,控制虚拟-物理地址转换的页表项的相应位,来划分高速缓存,以隔离并发运行的应用程序以及同一应用程序的不同内存区域对高速缓存的访问,从而减少不同内存页面映射到同一高速缓存区域所导致的冲突失效,达到对系统性能进行优化的目的。
附图说明
图1为主存储器的逻辑上划分及其逻辑地址示意图;
图2是本发明的实现使用大容量高速缓存的内存管理方法实施例的流程图;
图3为本发明对高速缓存的划分区域及其与主存储器物理地址的映射关系示意图;
图4是对图3所示的方法实施例的具体实施流程图;
图5是本发明的使用大容量高速缓存的内存管理装置实施例的结构示意图。
具体实施方式
下面结合附图和优选实施方式对本发明的技术方案进行详细地描述。应该理解,以下例举的实施例仅用于说明和解释本发明,而不构成对本发明技术方案的限制。
本发明利用大容量物理寻址高速缓存的结构特点,以主存储器物理页框为单位,将高速缓存划分为若干不同区域。映射到不同高速缓存区域中的主存储器物理页框,在系统运行过程中不会抢占彼此的高速缓存空间,因此减少了高速缓存冲突。
本发明提供的使用大容量高速缓存的内存管理方法实施例,其流程如图2所示,包括如下步骤:
110:以主存储器物理页框为单位划分高速缓存,并确定划分的高速缓存区域的映射条件;
在访问大容量物理寻址的高速缓存过程中,需要使用主存储器物理地址相应的部分位来查找高速缓存组,该部分位标记为高速缓存组号。当高速缓存容量较大时,在高速缓存中将会存在大量的高速缓存组,每个组由若干个高速缓存行组成,如图3所示。同时,现在计算机系统普遍采用虚拟存储系统和分页管理机制,当用于标记高速缓存组号的物理地址位超过页内偏移地址位(使用大容量物理寻址高速缓存的主存均有此特征)时,就可以通过与组号重合的主存页号作为高速缓存的区域号对高速缓存组进行区域划分。对于主存不同的两个物理页框来说,当其超过页内偏移的物理地址位不一致时,表明两个物理页框中的地址内容一定会被存储到高速缓存的不同组中,因此不会产生高速缓存访问冲突。
例如,一个容量为512KB、具8路组相连(如图3中n=8)且每行占32字节的高速缓存(Cache),可供并发执行的两个应用进程使用。在寻址时,主存物理地址的0到5位构成高速缓存的行内偏移,用于高速缓存的行内寻址;6到15位构成高速缓存的组号,用于进行高速缓存组寻址;同时,高于11位以上(bit11~31)的部分表示主存的物理页号,该页号与高速缓存组号双方重合的部分譬如为bit12~bit15,共4位,可用于本发明作为区域号将Cache划分为16个不同的区域(如图2中V为16)。
当然,本发明用区域号将Cache划分为多个不同的区域,具体划分的区域数目是根据高速缓存的总容量及并发的多个应用进程的使用情况来确定的。
120:为并发应用进程分配符合高速缓存区域的映射条件的物理页框。
本发明在虚拟存储系统的基础上,改进对物理内存的管理方法,用于分配映射特定高速缓存区域的物理页框。
现代计算机系统通过操作系统普遍采用虚拟存储系统来管理计算机内存,亦即在管理及分配内存空间的过程中,采用分页机制来划分和管理物理内存;同时通过对内存空间进行虚拟地址和物理地址之间的互换(即虚实地址转换),来实现对物理内存空间的充分利用。因此,在应用程序运行过程中,需要将虚拟页的页号转换为物理页的页框号(页在物理内存中成为页框),从而为应用程序请求分配的各个内存区域分配所需要的物理页框。
本发明在对高速缓存进行上述划分的基础上,对主内存的物理页框管理方法提出创新,即在进行虚实地址转换过程中,当需要分配映射特定高速缓存区域的物理页框时,通过对物理页框号进行分析和判断,对只有满足映射条件的物理页框才会被分配,从而达到在分配物理地址时划分高速缓存的目的。
譬如,在上述例举的容量为512KB的高速缓存中,可为两个应用进程中的每一个分配8个区域,其中为第一应用进程分配满足区域号0~7页的高速缓存,为第二应用进程分配满足区域号8~15页的高速缓存。譬如当为第一应用进程分配主内存,在进行虚实地址转换过程中,当需要为其分配映射特定高速缓存区域的物理页框时,通过对转换出的物理页框号进行判断,只有满足区域号为0~7页映射条件的物理页框才会分配给第一应用进程,而不满足该映射条件,譬如通过对物理页框号进行判断,其区域号为8~15页中的某页,则不能将相应的物理页框分配给第一应用进程。
如图4所示,表示了对图2所示的方法实施例各步骤中的具体实施步骤,包括:
210:将与高速缓存组号重合的主存物理页框的页号作为区域号对高速缓存组进行区域划分,并以区域号作为映射条件;
本发明通过调整计算机操作系统虚拟存储管理机制中的页面分配策略,控制虚拟-物理地址转换的页表项的相应位,来达到划分大容量物理寻址高速缓存、减少不同页面映射到同一高速缓存区域而导致的冲突失效的目的。
220:并发应用进程申请映射高速缓存区域的物理页框;
230:根据申请的新物理页框计算映射的高速缓存区域号;
亦即通过计算处理,将与高速缓存组号重合的主存物理页框的页号作为区域号。
240:判断计算的区域编号与目标区域编号是否一致,是则执行下一步骤,否则返回步骤220执行;
亦即判断计算出的区域编号是否与分配该应用进程的目标区域编号是否一致,一致则表示符合映射条件而可以为其分配相应的物理页框,不一致则表示不符合映射条件而不能为其分配相应的物理页框,需要提醒应用进程分配失败而重新申请。
250:为应用进程分配该物理页框。
本发明通过隔离并发执行的不同应用程序的高速缓存访问空间,达到减少同时执行的不同应用程序产生的高速缓存冲突和影响,提高高速缓存访问命中率和系统整体性能。此外,采用该发明不需要添加额外的硬件部件,且不需修改处理器设计,实现简单。
本发明根据上述方法实施例,相应地还提供了一种使用大容量高速缓存的内存管理装置实施例,其结构如图5所示,包括相互连接的高速缓存划分模块和内存分配模块,其中:
高速缓存划分模块,用于以主存储器物理页框为单位划分高速缓存,并将确定的划分高速缓存区域的映射条件输出给内存分配模块;
内存分配模块,用于为并发应用进程分配符合高速缓存区域的映射条件的物理页框。
在上述装置实施例中,高速缓存划分模块包括依次连接的高速缓存区域划分单元和划分区域映射单元,内存分配模块包括依次连接的映射条件判断单元和页框分配单元;其中:
高速缓存区域划分单元,将与高速缓存组号重合的主存页号作为区域号对高速缓存组进行区域划分,并将区域号输出给划分区域映射单元;
划分区域映射单元,用于将区域号作为相应应用进程内存分配的映射条件保存,并在映射条件判断单元提出映射条件请求时,将符合映射条件相应的区域号返回给映射条件判断单元;
映射条件判断单元,用于根据并发应用进程提出的映射高速缓存区域的物理页框分配请求,向划分区域映射单元提出映射条件请求,根据划分区域映射单元返回的区域号判断请求分配的物理页框是否符合映射条件,向页框分配单元输出物理页框分配指令;
页框分配单元,用于根据物理页框分配指令,分配映射到相应高速缓存区域的页框物理页,或提示分配失败。
映射条件判断单元判断请求分配的物理页框符合映射条件,则向页框分配单元输出分配成功的物理页框分配指令,否则向页框分配单元输出分配失败的物理页框分配指令;
页框分配单元根据分配成功的物理页框分配指令,将相应的物理页框通过物理页框分配响应分配给应用进程;或者,根据分配失败的物理页框分配指令,将分配失败的信息通过物理页框分配响应提示给应用进程。
对于本领域的专业人员来说,在了解了本发明内容和原理后,能够在不背离本发明的原理和范围的情况下,根据本发明的方法进行形式和细节上的各种修正和改变,但是这些基于本发明的修正和改变仍在本发明的权利要求保护范围之内。
Claims (4)
1.一种实现使用大容量高速缓存的内存管理方法,其特征在于,包括:
以所述内存的物理页框为单位划分使用的高速缓存,并确定划分的高速缓存区域的映射条件,具体包括:
将与所述高速缓存的组号所重合的所述物理页框的页号作为区域号对高速缓存组进行区域划分,并以所述区域号作为所述高速缓存区域的映射条件确定。
2.按照权利要求1所述的内存管理方法,其特征在于,还包括:
为并发应用进程分配符合所述高速缓存区域的映射条件的物理页框,具体包括:
当所述并发应用进程申请映射到高速缓存区域的物理页框时,根据申请的新物理页框经计算处理将与所述高速缓存的组号重合的所述物理页框的页号作为区域号;
判断经计算处理出的区域编号与分配该应用进程的目标区域编号是否一致,一致表示符合所述映射条件,则为所述应用进程分配相应的物理页框;不一致表示不符合所述映射条件,则提醒所述应用进程相应的物理页框分配失败。
3.一种使用大容量高速缓存的内存管理装置,其特征在于,包括相互连接的高速缓存划分模块和内存分配模块,其中:
高速缓存划分模块,用于以所述内存的物理页框为单位划分所述高速缓存,并将确定的划分高速缓存区域的映射条件输出给内存分配模块;其中,通过高速缓存区域划分单元将与高速缓存组的组号重合的所述物理页框的页号作为区域号对所述高速缓存组进行区域划分,并将所述区域号输出给划分区域映射单元;通过划分区域映射单元将所述区域号作为相应应用进程内存分配的映射条件保存,并在所述内存分配模块提出映射条件请求时,将符合映射条件相应的区域号返回给所述内存分配模块;
内存分配模块,用于为并发应用进程分配符合所述高速缓存区域的映射条件的物理页框;其中,通过映射条件判断单元根据并发应用进程提出的映射高速缓存区域的物理页框分配请求,向所述划分区域映射单元提出所述映射条件请求,根据所述划分区域映射单元返回的所述区域编号判断请求分配的物理页框是否符合所述映射条件,向页框分配单元输出物理页框分配指令;通过页框分配单元根据所述物理页框分配指令,为所述应用进程分配映射到相应高速缓存区域的物理页框,或提示所述应用进程所述物理页框的分配失败。
4.按照权利要求3所述的内存管理装置,其特征在于,
所述映射条件判断单元判断请求分配的物理页框符合所述映射条件,则向所述页框分配单元输出分配成功的物理页框分配指令,否则向所述页框分配单元输出分配失败的物理页框分配指令;
所述页框分配单元根据所述分配成功的物理页框分配指令,将相应的物理页框通过物理页框分配响应分配给所述应用进程;或者,根据所述分配失败的物理页框分配指令,将分配失败信息通过物理页框分配响应提示给所述应用进程。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110269002.7A CN102323909B (zh) | 2011-09-13 | 2011-09-13 | 实现使用大容量高速缓存的内存管理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110269002.7A CN102323909B (zh) | 2011-09-13 | 2011-09-13 | 实现使用大容量高速缓存的内存管理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102323909A CN102323909A (zh) | 2012-01-18 |
CN102323909B true CN102323909B (zh) | 2014-03-19 |
Family
ID=45451654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110269002.7A Active CN102323909B (zh) | 2011-09-13 | 2011-09-13 | 实现使用大容量高速缓存的内存管理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102323909B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104851454A (zh) * | 2014-02-13 | 2015-08-19 | 华为技术有限公司 | 控制信号处理方法及装置、可变存储器 |
CN105095105B (zh) * | 2014-04-24 | 2018-07-03 | 华为技术有限公司 | 一种Cache分区的方法及装置 |
CN106055487B (zh) * | 2016-05-31 | 2019-03-22 | 上海爱数信息技术股份有限公司 | 一种分区着色实现存储系统加速的方法及系统 |
CN109857681B (zh) | 2017-11-30 | 2023-07-18 | 华为技术有限公司 | 高速缓存cache地址映射方法以及相关设备 |
CN111400029A (zh) * | 2020-02-10 | 2020-07-10 | 北京物资学院 | 一种带有存储和编辑功能的Web搜索服务方法及装置 |
CN113360443B (zh) * | 2021-05-31 | 2022-07-08 | 浪潮电子信息产业股份有限公司 | 一种串口卡通讯实现方法、装置、设备及可读存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1217505A (zh) * | 1997-11-06 | 1999-05-26 | 中国科学院计算技术研究所 | 高速缓冲存储器系统中的地址映射变换技术与装置 |
CN102073533A (zh) * | 2011-01-14 | 2011-05-25 | 中国人民解放军国防科学技术大学 | 支持动态二进制翻译的多核体系结构 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4631301B2 (ja) * | 2004-03-31 | 2011-02-16 | 株式会社日立製作所 | 記憶装置のキャッシュ管理方法 |
WO2006082554A2 (en) * | 2005-02-02 | 2006-08-10 | Koninklijke Philips Electronics N.V. | Data processing system comprising a cache unit |
-
2011
- 2011-09-13 CN CN201110269002.7A patent/CN102323909B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1217505A (zh) * | 1997-11-06 | 1999-05-26 | 中国科学院计算技术研究所 | 高速缓冲存储器系统中的地址映射变换技术与装置 |
CN102073533A (zh) * | 2011-01-14 | 2011-05-25 | 中国人民解放军国防科学技术大学 | 支持动态二进制翻译的多核体系结构 |
Non-Patent Citations (2)
Title |
---|
内存加速的利器—高速缓冲存储器;郭晓伟;《科技资讯》;20060430(第12期);全文 * |
郭晓伟.内存加速的利器—高速缓冲存储器.《科技资讯》.2006,(第12期), |
Also Published As
Publication number | Publication date |
---|---|
CN102323909A (zh) | 2012-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102323909B (zh) | 实现使用大容量高速缓存的内存管理方法及装置 | |
JP3962368B2 (ja) | 共用リソースを動的に割り振るためのシステムおよび方法 | |
CN111602377B (zh) | 高速缓存中资源调整方法、数据访问方法及装置 | |
US8615634B2 (en) | Coordinated writeback of dirty cachelines | |
US8904154B2 (en) | Execution migration | |
US20180373635A1 (en) | Managing cache partitions based on cache usage information | |
US8683128B2 (en) | Memory bus write prioritization | |
US20210365376A1 (en) | Adaptive Cache | |
CN102663115B (zh) | 基于页面染色技术的内存数据库访问优化方法 | |
CA2282373A1 (en) | Computer cache memory windowing | |
CN201570016U (zh) | 基于虚存机制的指令片上异构存储资源动态分配的电路 | |
CN101694640B (zh) | 多核架构下共享二级Cache的替换策略的实现方法 | |
CN107463510A (zh) | 一种面向高性能的异构多核共享cache缓冲管理方法 | |
CN113138851B (zh) | 一种数据管理方法、相关装置及系统 | |
CN118093450A (zh) | 通过优化tlb提高mcm gpu地址翻译效率的方法 | |
CN101520751B (zh) | Cache的自适应插入策略的实现方法 | |
CN102999441A (zh) | 一种细粒度内存访问的方法 | |
US20130254512A1 (en) | Memory management method and information processing device | |
CN101398786A (zh) | 一种面向嵌入式应用的软件可控Cache的实现方法 | |
CN109710563B (zh) | 一种可重构系统的缓存分区划分方法 | |
US20150378935A1 (en) | Storage table replacement method | |
US20090157968A1 (en) | Cache Memory with Extended Set-associativity of Partner Sets | |
CN102662861A (zh) | 末级高速缓存插入策略软件控制方法 | |
Yu et al. | Hierarchical page eviction policy for unified memory in gpus | |
CN114265790A (zh) | 用于连续性感知转换后备缓冲器的页分配 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
C41 | Transfer of patent application or patent right or utility model | ||
TR01 | Transfer of patent right |
Effective date of registration: 20160310 Address after: 100080 Beijing City, Haidian District Zhongguancun No. 151 North Street Yanyuan resources building room 1107 Patentee after: Beijing Zhongzhi core technology Co. Ltd. Address before: 100080, Beijing Haidian District Zhongguancun 151 North Street, building 11, resources Patentee before: Beida Zhongzhi Microsystem Science and Technology Co., Ltd., Beijing |