NUMA架构
来源:互联网 发布:淘宝不能代付了吗 编辑:程序博客网 时间:2024/05/22 00:08
PC硬件结构近5年的最大变化是多核CPU在PC上的普及,多核最常用的SMP微架构:
SMP的问题主要在CPU和内存之间的通信延迟较大、通信带宽受限于系统总线带宽,同时总线带宽会成为整个系统的瓶颈。
由此应运而生了NUMA架构:
在这个架构中,每个处理器有其可以直接访问其自身的“本地”内存池,使CPU和这块儿内存之间拥有更小的延迟和更大的带宽。而且整个内存仍然可做为一个整体,可以接受来自任何CPU的访问。简言之就是CPU访问自己领地内的内存延迟最小独占带宽,访问其他的内存区域稍慢并且共享带宽。
GNU/Linux如何管理NUMA:
- probe硬件,了解物理CPU数量,内存大小等;
- 根据物理CPU的数量(不是core)分配node,一个物理CPU对应一个node;
- 把属于一个node的内存模块和其node相联系;
- 测试各个CPU到各个内存区域的通信延迟;
在一台16GB内存,双Xeon E5620 CPU Dell R710用numactl得到以下信息:
# numactl --hardware
available: 2 nodes (0-1)
node 0 size: 8080 MB
node 0 free: 5643 MB
node 1 size: 8051 MB
node 1 free: 2294 MB
node distances:
node 0 1
0: 10 20
1: 20 10
- 第一列node0和node1就是对应物理CPU0和CPU1;
- size就是指在此节点NUMA分配的内存总数;
- free是指此节点NUMA的内存空闲数量;
- node distances就是指node到各个内存节点之间的距离,默认情况10是指本地内存,21是指跨区域访问。
因为就近内存访问的快速性,所以默认情况下一个CPU只访问其所属区域的内存空间。此时造成的问题是在大内存占用的一些应用时会有CPU近线内存不够的情况,可以使用如下方式把CPU对内存区域的访问变为round robin方式。此时需要通过以下方式修改:
# echo 0 > /proc/sys/vm/zone_reclaim_mode
# numactl --interleave=all
memcached、redis、monodb等应该做以上的优化修改。
- NUMA架构
- NUMA架构
- NUMA架构
- NUMA微架构
- NUMA微架构
- NUMA架构的CPU
- NUMA架构的CPU
- NUMA架构的CPU
- NUMA微架构
- NUMA架构的CPU
- 非一致性内存架构(NUMA)
- 并发编程中的NUMA架构
- 关于NUMA架构的使用
- numa架构初探--持续更新
- NUMA
- numa
- numa
- Numa
- Oracle 11g AWR 系列五:如何生成 AWR 报告?
- 八皇后面试题
- 有友泡椒鸡爪配料表解释
- Linux系统下一块网卡绑定多个Ip地址方法
- 制作根文件系统的问题(页1) - Linux 0.1X系统的建立和实验- OldLinux
- NUMA架构
- 读取数据到结构体数组
- LINQ 之Union All/Union/Intersect操作
- Python SAX模块对大xml文件解析的错误认识
- 在MyEclipse中直接查看class文件(在没有源码的情况下)
- 10个工具让你的shell脚本更强大
- linux内核SPI总线驱动分析
- 第一次C程序设计上机报告
- lucene可以做搜索引擎 baidu,google都是很好的搜索引擎