C#测量程序运行时间及cpu使用时间

时间:2021-04-17 05:58:57

转载:http://www.cnblogs.com/yanpeng/archive/2008/10/15/1943369.html

对一个服务器程序想统计每秒可以处理多少数据包,要如何做?答案是用处理数据包的总数,除以累记处理数据包用的时间。这里要指出的是, 运行一段程序,使用的cpu时间,跟实际运行的时间是不一样的。附例如下:

  1: 		private void ShowRunTime()
  2: 		{
  3: 			TimeSpan ts1 = Process.GetCurrentProcess().TotalProcessorTime;
  4: 			Stopwatch stw = new Stopwatch();
  5: 			stw.Start();
  6: 			int Circles = 1000;
  7: 			for (int i = 0; i < Circles; ++i)
  8: 			{
  9: 				Console.WriteLine(i.ToString());
 10: 			}
 11: 			double Msecs = Process.GetCurrentProcess().TotalProcessorTime.Subtract(ts1).TotalMilliseconds;
 12: 			stw.Stop();
 13: 			Console.WriteLine(string.Format("循环次数:{0} CPU时间(毫秒)={1} 实际时间(毫秒)={2}", Circles, Msecs, stw.Elapsed.TotalMilliseconds, stw.ElapsedTicks));
 14: 			Console.WriteLine(string.Format("1 tick = {0}毫秒", stw.Elapsed.TotalMilliseconds / stw.Elapsed.Ticks));
 15: 		}
 16: 

程序输出如下:

     循环次数:1000 CPU时间(毫秒)=50.072 实际时间(毫秒)=666.9071

     1 tick = 0.0001毫秒

     可以看出在这个例子中,两者差距比较大,其原因如下:

     1)Windows是多任务操作系统,按照线程为单位对cpu时间轮询分配。即一个程序运行的中途,可能被剥夺cpu资源,供其他程序运行。

     2)程序本身会有不占用cpu时间的等待过程。这个等待可能是我们程序主动的,比如启动一个进程,然后等待进程的结束;也可能是我们没有意识到的,如例子 的Console.WriteLine方法,猜想其内部进行了一系列的异步I/O操作然后等待操作的完成,这其间并没有占用调用进程的cpu时间,但耗费 了很多等待时间。

     总结:

     1)性能的测量,应该用程序运行时间来测量,当然也需要使用cpu时间作为参考,如果两者差距很大,需要考虑为何出现这种情况。

     2).Net的Stopwatch类可以精确到1/10000毫秒,基本可以满足测量精度。

以上部分为转载。

个人整理:参考(http://social.microsoft.com/Forums/zh-CN/d3f98b59-da69-4b29-8a0a-813c4ab227c9/stopwatchelapsedtickselapsedticks

Elapsed和ElapsedMilliseconds属性在被调用时,会在内部调用kernel32中的QueryPerformanceFrequency()函数以获取处理器支持的高精度计时器的频率,随后用这个数字对获取的时间差值进行修正,最后Elapsed属性会返回一个新的TimeSpan对象。而获取ElapsedTicks属性时则不会进行这种高精度的计算(修正)。但是一般来说这两者的误差并不是很大。如果需要精确计算时间或是测试数据量特别大的情况下,推荐使用Elapsed和ElapsedMilliseconds属性。

存在疑问

我测试之后发现并没有像如下所说的结论,我已经回复原作者,暂未得到答复。希望知道原因的朋友指明下。谢谢。

从内部实现来看,StopWatch.IsHighresolution = true时,StopWatch.Elapsed.Ticks应该等于StopWatch.ElapsedTicks再乘以frequency(频率的常量)。反之,这2个数在IsRunning为true时,应该是相等的。所以照理应该是StopWatch.Elapsed.Ticks会比较大。