Win32核心编程 读书笔记三 高速缓存行

来源:互联网 发布:python getoptions 编辑:程序博客网 时间:2024/06/10 20:52

是做一个整天If else的码农,还是做一个real coder?

区别就在于后者掌握更多的基础原理和细节实现能力。


高速缓存行的使用优化,是正对多CPU而言的,但是如今还有什么东西不是多CPU了呢。


当一个C P U从内存读取一个字节时,它不只是取出一个字节,它要取出足够的字节来填入高速缓存行。高速缓存行由3 2或6 4个字节组成(视C P U而定),并且始终在第3 2个字节或第6 4个字节的边界上对齐。高速缓存行的作用是为了提高C P U运行的性能。通常情况下,应用程序只能对一组相邻的字节进行处理。如果这些字节在高速缓存中,那么C P U就不必访问内存总线,而访问内存总线需要多得多的时间。

注:很显然CPU从内存取数据是一个物理行为,取的字数不受软件控制的。

注:所以我们最好把同一时间需要读写的数据放在同一个缓存行中,避免频繁的更新高速缓存行


在多CPU系统中,数据的同步也是个问题。如果一个数据,每个CPU的高速缓存都存有该数据的副本,如果一个CPU改变了该值,那么就会出现一个问题:其他的CPU哪怕没有用该数据,也要重新读取缓存行。所以我们要尽量避免不相关的数据在一起。


原书中的例子现场好的描述了这个问题,我在稍加注释贴出来

糟糕的代码方式:  我们大部分新手都是这么写的吧,哈哈

struct CUSTINFO{   DWORD    dwCustomerID;    //Mostly read-only   int      nBalanceDue;     //Read-write   char     szName[100];     //Mostly read-only   FILETIME ftLastOrderDate;  //Read-write};

上面只读的数据和读写的数据交错排序。上文说了,不相关的数据不放一起,只读的数据和读写数据也不放在一起,为了一个读写数据的改变而频繁的读取只读数据是不划算的。

优秀的代码:

#ifdef _X86_#define CACHE_ALIGN  32#endif#ifdef _ALPHA_#define CACHE_ALIGN  64#endif#ifdef _IA64_#define CACHE_ALIGN  ??#endif#define CACHE_PAD(Name, BytesSoFar) \   BYTE Name[CACHE_ALIGN - ((BytesSoFar) % CACHE_ALIGN)]struct CUSTINFO {   DWORD    dwCustomerID;     // Mostly read-only   char     szName[100];      // Mostly read-only   //Force the following members to be in a different cache line.   CACHE_PAD(bPad1, sizeof(DWORD) + 100);   int      nBalanceDue;      // Read-write   FILETIME ftLastOrderDate;  // Read-write   //Force the following structure to be in a different cache line.   CACHE_PAD(bPad2, sizeof(int) + sizeof(FILETIME));};

CACHE_PAD的作用就是填充高速缓存行,让不相关的数据存在下一个高速缓存中。


所以如果我们编码多注意这些细节,代码的质量就会更高




谢谢你的阅读




0 0
原创粉丝点击