大页内存原理及使用设置
来源:互联网 发布:java常用算法手册pdf 编辑:程序博客网 时间:2024/05/18 16:19
内存分页大小对性能的提升原理
首先,我们需要回顾一小部分计算机组成原理,这对理解大内存分页至于JVM性能的提升是有好处的。
什么是内存分页?
我们知道,CPU是通过寻址来访问内存的。32位CPU的寻址宽度是 0~0xFFFFFFFF ,计算后得到的大小是4G,也就是说可支持的物理内存最大是4G。
但在实践过程中,碰到了这样的问题,程序需要使用4G内存,而可用物理内存小于4G,导致程序不得不降低内存占用。
为了解决此类问题,现代CPU引入了 MMU(Memory Management Unit 内存管理单元)。
MMU 的核心思想是利用虚拟地址替代物理地址,即CPU寻址时使用虚址,由 MMU 负责将虚址映射为物理地址。
MMU的引入,解决了对物理内存的限制,对程序来说,就像自己在使用4G内存一样。
内存分页(Paging)是在使用MMU的基础上,提出的一种内存管理机制。它将虚拟地址和物理地址按固定大小(4K)分割成页(page)和页帧(page frame),并保证页与页帧的大小相同。
这种机制,从数据结构上,保证了访问内存的高效,并使OS能支持非连续性的内存分配。
在程序内存不够用时,还可以将不常用的物理内存页转移到其他存储设备上,比如磁盘,这就是大家耳熟能详的虚拟内存。
在上文中提到,虚拟地址与物理地址需要通过映射,才能使CPU正常工作。
而映射就需要存储映射表。在现代CPU架构中,映射关系通常被存储在物理内存上一个被称之为页表(page table)的地方。
如下图:
从这张图中,可以清晰地看到CPU与页表,物理内存之间的交互关系。
进一步优化,引入TLB(Translation lookaside buffer,页表寄存器缓冲)
由上一节可知,页表是被存储在内存中的。我们知道CPU通过总线访问内存,肯定慢于直接访问寄存器的。
为了进一步优化性能,现代CPU架构引入了TLB,用来缓存一部分经常访问的页表内容。
如下图:
对比 9.6 那张图,在中间加入了TLB。
为什么要支持大内存分页?
TLB是有限的,这点毫无疑问。当超出TLB的存储极限时,就会发生 TLB miss,之后,OS就会命令CPU去访问内存上的页表。如果频繁的出现TLB miss,程序的性能会下降地很快。
为了让TLB可以存储更多的页地址映射关系,我们的做法是调大内存分页大小。
如果一个页4M,对比一个页4K,前者可以让TLB多存储1000个页地址映射关系,性能的提升是比较可观的。
虚拟机中设置大页内存:
echo 1024 > /proc/sys/vm/nr_hugepages 2G的内存设置256,4G内存设置512.
- 大页内存原理及使用设置
- 大页内存原理及使用设置
- memcache内存使用原理及监控分析
- JVM 堆内存设置原理技术详解及案例分析
- AIX+ORACLE大页内存的设置
- linux+ 大页内存的设置
- 堆内存设置、原理
- memcache内存使用原理及监控分析 --重在监控分析
- JVM内存的设置原理
- JVM 堆内存设置原理
- JVM 堆内存设置原理
- JVM 堆内存设置原理
- JVM 堆内存设置原理
- JVM 堆内存设置原理
- JVM 堆内存设置原理
- JVM 堆内存设置原理
- JVM 堆内存设置原理
- JVM堆内存设置原理
- deep learning学习环境Theano安装(win8+win7)
- 解决android连接网时出现“android.os.NetworkOnMainThreadException”异常的方法
- 创建和使用临时表详解
- background fixed经典例子之磨砂玻璃遮罩
- ios应用iap相关
- 大页内存原理及使用设置
- POJ1006: 中国剩余定理的完美演绎
- android 界面设计大全
- Oracle常用Sql--初级
- Java 完美判断中文字符
- 多线程之旅
- 【C++进阶】深入理解C/C++(1)
- MFC控制输入法
- How to use tesseract-ocr