Linux/Unix环境下计算C程序运行时间

来源:互联网 发布:布吉岛漫画软件 编辑:程序博客网 时间:2024/05/16 14:06
        在学习算法的过程中,性能是评价算法的一个重要的指标。记录程序运行的时间可以反映一个算法的性能。下面就来看看,在linux环境下,从c语言如何记录一段程序的运行时间。


转自
http://www.linuxidc.com/Linux/2013-01/78086.htm

Linux/Unix环境下计算C程序运行时间可以通过clock, times, gettimeofday, getrusage来实现。


下边分别说明其优缺点(该部分是从别的地方copy的)


clock是ANSI C的标准库函数,关于这个函数需要说明几点。


首先,它返回的是CPU耗费在本程序上的时间。也就是说,途中sleep的话,由于CPU资源被释放,那段时间将不被计算在内。


其次,得到的返回值其实就是耗费在本程序上的CPU时间片的数量,也就是Clock Tick的值。该值必须除以CLOCKS_PER_SEC这个宏值,才能最后得到ss.mmnn格式的运行时间。在POSIX兼容系统中,CLOCKS_PER_SEC的值为1,000,000的,也就是1MHz。


最后,使用这个函数能达到的精度大约为10ms。


使用times的方法:


times的用法基本和clock类似,同样是取得CPU时间片的数量,所不同的是要除以的时间单位值为sysconf(_SC_CLK_TCK)。


使用gettimeofday的方法:


用gettimeofday直接提取硬件时钟进行运算,得到的结果的精度相比前两种方法提高了很多。


但是也正由于它提取硬件时钟的原因,这个方法只能计算程序开始时间和结束时间的差值。而此时系统中如果在运行其他的后台程序,可能会影响到最终结果的值。如果后台繁忙,系统dispatch过多的话,并不能完全真实反映被测量函数的运行时间。


使用getrusage的方法:


getrusage得到的是程序对系统资源的占用信息。只要指定了RUSAGE_SELF,就可以得到程序本身运行所占用的系统时间。


可以说是精度最高的测量方法了。








自己试用了这四种方法,感觉需要高精度测试的话,getrusage和gettimeofday都可以选择。需要长时间测试的话,clock也是不错的,尤其是考虑到它的通用性。


本人首先接触的是gettimeofday,下边详细介绍这个函数的使用方法:


1. 包含头文件sys/time.h.


2.定义两个结构体 struct  timeval  start、struct  timeval  end及记录时间的变量timer.


3. 将gettimeofday(&start,NULL)放在需要测的代码的开始部分,将gettimeofday(&end,NULL)放在需要测的代码的结束部分.


4.语句timer = 1000000 * (end.tv_sec-start.tv_sec)+ end.tv_usec-start.tv_usec可以使timer记录代码运行时间(时间单位为us).


5.printf("timer = %ld",timer) 打印出timer的值.


示例程序:


#include <stdio.h>#include <sys/time.h>int main(){  struct  timeval  start;  struct  timeval  end;  unsigned long timer;  gettimeofday(&start,NULL);  printf("hello world!\n");  gettimeofday(&end,NULL);  timer = 1000000 * (end.tv_sec-start.tv_sec)+ end.tv_usec-start.tv_usec;  printf("timer = %ld us\n",timer);  return 0;}




0 0
原创粉丝点击