请问有人遇到过类似情况么?如何解决?或者哪位高手告诉我怎么在redhat上实现高精度定时器吧。谢谢!
30 个解决方案
#1
受限于操作系统吧,通过应用层面估计无法做到
#2
为什么在redhat下就无法实现高精度定时器呢?我想在redhat上搞开发的人还是很多的吧,应该有人会用到高精度定时器吧?
#3
对开发不是很懂喲
gettimeofday呢
gettimeofday呢
#4
涉及到了进程调度,精度只能在ms级以上
#5
可是在ubuntu下高精度定时器至少可以达到微妙的,我测过的~
#6
gettimeofday是获取系统时间的吧
#7
http://hi.baidu.com/ybzzzzz/blog/item/2bf442181f6e8db24bedbc6d.html
#8
与机器配置有关?不懂 ^_^
#9
问题的关键楼主都没有说明, 你没有说明你的timer是怎么实现的,你也没有说明你是怎么使用你的timer的.就叫人帮你找问题所在.咋可能呢?
#10
用的posix timer,基本就是下面代码的模式:
void handler (int sig, siginfo_t * extra, void *cruft)
...{
static last_i=0;
unsigned int i, j;
rdtsc(i,j);
printf ("time:%u, %u, [%u] %uHZ ", j, i, i-last_i, (i-last_i)*10/1000000);
last_i = i;
}
int main ()
...{
int i=0;
sigset_t sigset;
sigfillset (&sigset);
sigdelset (&sigset, SIGRTMIN);
sigprocmask (SIG_SETMASK, &sigset, NULL);
struct sigaction sa;
sigfillset (&sa.sa_mask);
sa.sa_flags = SA_SIGINFO;
sa.sa_sigaction = handler;
if (sigaction (SIGRTMIN, &sa, NULL) < 0)
...{
perror ("sigaction failed ");
exit (-1);
}
struct sigevent timer_event;
struct itimerspec timer;
timer.it_interval.tv_sec = 0;
timer.it_interval.tv_nsec = 100 * 1000 * 1000;
timer.it_value = timer.it_interval;
timer_event.sigev_notify = SIGEV_SIGNAL;
timer_event.sigev_signo = SIGRTMIN;
timer_event.sigev_value.sival_ptr = (void *) &tt;
if (timer_create (CLOCK_REALTIME, &timer_event, &tt) < 0)
...{
perror ("timer_create failed");
exit (-1);
}
if (timer_settime (tt, 0, &timer, NULL) < 0)
...{
perror ("timer_settime failed");
exit (-1);
}
while (i++ < 10)
...{
pause ();
}
return 0;
}
#11
你的这个程序不可能达到ns级别,
linux应用层理论上能达到的最大精度是每次时间中断间隔的时间. 这个tick间隔时间一般来说是1ms, 就算比1ms小,比1ns肯定是大了几个数量级.
OK, 就算是一次tick引发的时间1ms,那你当前进程因为pause()而处于suspend状态,过了1ms触发一个tick,产生一个信号,让你的进程唤醒,然后调度到你的进程进入运行状态, 从面进入你的信号处理函数,然后再printf输出你当前的时间. 这一切的动作都需要花费时间,也就是说当最终这个时间输出来的时候,可能已经过了2ms甚至更多, 所以你无法获得ns级的时间精度.
linux应用层理论上能达到的最大精度是每次时间中断间隔的时间. 这个tick间隔时间一般来说是1ms, 就算比1ms小,比1ns肯定是大了几个数量级.
OK, 就算是一次tick引发的时间1ms,那你当前进程因为pause()而处于suspend状态,过了1ms触发一个tick,产生一个信号,让你的进程唤醒,然后调度到你的进程进入运行状态, 从面进入你的信号处理函数,然后再printf输出你当前的时间. 这一切的动作都需要花费时间,也就是说当最终这个时间输出来的时候,可能已经过了2ms甚至更多, 所以你无法获得ns级的时间精度.
#12
关于这个定时器如何达到ns级别你可以查找下posix timer的资料,我在ubuntu下确实可以得到us级的时间间隔,ns级的没测试过,我主要问题是为什么在ubuntu下可以但redhat下却不可以,有什么差异呢?是否是内核配置方面的?或者redhat下定时器有其他实现方式?
#13
你可以
cat /proc/cpuinfo得到cpu的频率, 你可以比较一下你运行ubuntu的机器跟运行redhat的机器的频率是不是一样的
cat /proc/cpuinfo得到cpu的频率, 你可以比较一下你运行ubuntu的机器跟运行redhat的机器的频率是不是一样的
#14
你的程序显示的是你要求100ms产生一个信号,
#15
ubuntu 双核,2.2Ghz
redhat 双核,2.6Ghz
redhat的频率还要高些。。。
#16
谢谢,可是没怎么提到定时器呀
#17
上面代码只是我找的一个和我程序结构一样的代码,我在自己的测试的代码里面用的是80us哈~
#18
你的意思是说用ubuntu, 你可以取得80us级的精度,而用redhat却只能达到ms级的精度?
两个的内核是一样的吗?
两个的内核是一样的吗?
#19
都是2.6的内核,而且调用的一样的库函数
#20
redhat 是2.6.18
ubuntu是2.6.32
ubuntu是2.6.32
#21
上网找了一下资料,也不知正确与否,
'POSIX timer可以提供1kHz的触发器使这一切变得简单,从而可以有效地控制进度'
也就是说理论上间隔(1 / 2.6G) * 1K 就可以产生一个信号,也就是大约0.38us. 算上进程调度的话,应该可以提供1us的时间精度, 不过最好是你不要直接printf输出, 因为这样涉及到了IO, 把时间保存在内存里,结果会更准确.
'POSIX timer可以提供1kHz的触发器使这一切变得简单,从而可以有效地控制进度'
也就是说理论上间隔(1 / 2.6G) * 1K 就可以产生一个信号,也就是大约0.38us. 算上进程调度的话,应该可以提供1us的时间精度, 不过最好是你不要直接printf输出, 因为这样涉及到了IO, 把时间保存在内存里,结果会更准确.
#22
看上去不太可能readhat会由80us剧增到2ms, 是不是你有用虚拟机?
#23
printf确实会有影响,在 ubuntu下也只是us级,我用printf是为了能比较直接的看出定时器是否正确工作,但在redhat下就打出来得时间间隔就全是ms级的了。。。
#24
有的,还是ubuntu用的虚拟机。。。
#25
我觉得你可以新建一个跟ubuntu一样的虚拟机,装上rhel5再试一下, 消除硬件的影响. 或许是你装rhel5的机器里bios做了什么设定呢, 导致只能产生ms级的信号.
#26
进程切换都在毫秒级的。所以不要指望普通的操作系统小于毫秒级的定时精度。
实时操纵系统提供的定时器精度可以达到0.1毫秒。
实时操纵系统提供的定时器精度可以达到0.1毫秒。
#27
进程切换的速度跟当前系统的运行状态相关, 如果要切换的进程还处在内存以内,不涉及到swap的话, 应该是不需要1ms的, 比如1GHZ的CPU, 1ms可以运行1000 * 1000 条指令, 显然做一次进程切换需要的指令数远比1000 * 1000小.
#28
#29
我换过 setitimer这个函数来设置定时器,结果一样达不到us级的精度,期待大家解惑!
#30
放了几天假回来,问题还是没有解决,不过感谢各位支持哈,结贴散分~~
#1
受限于操作系统吧,通过应用层面估计无法做到
#2
为什么在redhat下就无法实现高精度定时器呢?我想在redhat上搞开发的人还是很多的吧,应该有人会用到高精度定时器吧?
#3
对开发不是很懂喲
gettimeofday呢
gettimeofday呢
#4
涉及到了进程调度,精度只能在ms级以上
#5
可是在ubuntu下高精度定时器至少可以达到微妙的,我测过的~
#6
gettimeofday是获取系统时间的吧
#7
http://hi.baidu.com/ybzzzzz/blog/item/2bf442181f6e8db24bedbc6d.html
#8
与机器配置有关?不懂 ^_^
#9
问题的关键楼主都没有说明, 你没有说明你的timer是怎么实现的,你也没有说明你是怎么使用你的timer的.就叫人帮你找问题所在.咋可能呢?
#10
用的posix timer,基本就是下面代码的模式:
void handler (int sig, siginfo_t * extra, void *cruft)
...{
static last_i=0;
unsigned int i, j;
rdtsc(i,j);
printf ("time:%u, %u, [%u] %uHZ ", j, i, i-last_i, (i-last_i)*10/1000000);
last_i = i;
}
int main ()
...{
int i=0;
sigset_t sigset;
sigfillset (&sigset);
sigdelset (&sigset, SIGRTMIN);
sigprocmask (SIG_SETMASK, &sigset, NULL);
struct sigaction sa;
sigfillset (&sa.sa_mask);
sa.sa_flags = SA_SIGINFO;
sa.sa_sigaction = handler;
if (sigaction (SIGRTMIN, &sa, NULL) < 0)
...{
perror ("sigaction failed ");
exit (-1);
}
struct sigevent timer_event;
struct itimerspec timer;
timer.it_interval.tv_sec = 0;
timer.it_interval.tv_nsec = 100 * 1000 * 1000;
timer.it_value = timer.it_interval;
timer_event.sigev_notify = SIGEV_SIGNAL;
timer_event.sigev_signo = SIGRTMIN;
timer_event.sigev_value.sival_ptr = (void *) &tt;
if (timer_create (CLOCK_REALTIME, &timer_event, &tt) < 0)
...{
perror ("timer_create failed");
exit (-1);
}
if (timer_settime (tt, 0, &timer, NULL) < 0)
...{
perror ("timer_settime failed");
exit (-1);
}
while (i++ < 10)
...{
pause ();
}
return 0;
}
#11
你的这个程序不可能达到ns级别,
linux应用层理论上能达到的最大精度是每次时间中断间隔的时间. 这个tick间隔时间一般来说是1ms, 就算比1ms小,比1ns肯定是大了几个数量级.
OK, 就算是一次tick引发的时间1ms,那你当前进程因为pause()而处于suspend状态,过了1ms触发一个tick,产生一个信号,让你的进程唤醒,然后调度到你的进程进入运行状态, 从面进入你的信号处理函数,然后再printf输出你当前的时间. 这一切的动作都需要花费时间,也就是说当最终这个时间输出来的时候,可能已经过了2ms甚至更多, 所以你无法获得ns级的时间精度.
linux应用层理论上能达到的最大精度是每次时间中断间隔的时间. 这个tick间隔时间一般来说是1ms, 就算比1ms小,比1ns肯定是大了几个数量级.
OK, 就算是一次tick引发的时间1ms,那你当前进程因为pause()而处于suspend状态,过了1ms触发一个tick,产生一个信号,让你的进程唤醒,然后调度到你的进程进入运行状态, 从面进入你的信号处理函数,然后再printf输出你当前的时间. 这一切的动作都需要花费时间,也就是说当最终这个时间输出来的时候,可能已经过了2ms甚至更多, 所以你无法获得ns级的时间精度.
#12
关于这个定时器如何达到ns级别你可以查找下posix timer的资料,我在ubuntu下确实可以得到us级的时间间隔,ns级的没测试过,我主要问题是为什么在ubuntu下可以但redhat下却不可以,有什么差异呢?是否是内核配置方面的?或者redhat下定时器有其他实现方式?
#13
你可以
cat /proc/cpuinfo得到cpu的频率, 你可以比较一下你运行ubuntu的机器跟运行redhat的机器的频率是不是一样的
cat /proc/cpuinfo得到cpu的频率, 你可以比较一下你运行ubuntu的机器跟运行redhat的机器的频率是不是一样的
#14
你的程序显示的是你要求100ms产生一个信号,
#15
ubuntu 双核,2.2Ghz
redhat 双核,2.6Ghz
redhat的频率还要高些。。。
#16
谢谢,可是没怎么提到定时器呀
#17
上面代码只是我找的一个和我程序结构一样的代码,我在自己的测试的代码里面用的是80us哈~
#18
你的意思是说用ubuntu, 你可以取得80us级的精度,而用redhat却只能达到ms级的精度?
两个的内核是一样的吗?
两个的内核是一样的吗?
#19
都是2.6的内核,而且调用的一样的库函数
#20
redhat 是2.6.18
ubuntu是2.6.32
ubuntu是2.6.32
#21
上网找了一下资料,也不知正确与否,
'POSIX timer可以提供1kHz的触发器使这一切变得简单,从而可以有效地控制进度'
也就是说理论上间隔(1 / 2.6G) * 1K 就可以产生一个信号,也就是大约0.38us. 算上进程调度的话,应该可以提供1us的时间精度, 不过最好是你不要直接printf输出, 因为这样涉及到了IO, 把时间保存在内存里,结果会更准确.
'POSIX timer可以提供1kHz的触发器使这一切变得简单,从而可以有效地控制进度'
也就是说理论上间隔(1 / 2.6G) * 1K 就可以产生一个信号,也就是大约0.38us. 算上进程调度的话,应该可以提供1us的时间精度, 不过最好是你不要直接printf输出, 因为这样涉及到了IO, 把时间保存在内存里,结果会更准确.
#22
看上去不太可能readhat会由80us剧增到2ms, 是不是你有用虚拟机?
#23
printf确实会有影响,在 ubuntu下也只是us级,我用printf是为了能比较直接的看出定时器是否正确工作,但在redhat下就打出来得时间间隔就全是ms级的了。。。
#24
有的,还是ubuntu用的虚拟机。。。
#25
我觉得你可以新建一个跟ubuntu一样的虚拟机,装上rhel5再试一下, 消除硬件的影响. 或许是你装rhel5的机器里bios做了什么设定呢, 导致只能产生ms级的信号.
#26
进程切换都在毫秒级的。所以不要指望普通的操作系统小于毫秒级的定时精度。
实时操纵系统提供的定时器精度可以达到0.1毫秒。
实时操纵系统提供的定时器精度可以达到0.1毫秒。
#27
进程切换的速度跟当前系统的运行状态相关, 如果要切换的进程还处在内存以内,不涉及到swap的话, 应该是不需要1ms的, 比如1GHZ的CPU, 1ms可以运行1000 * 1000 条指令, 显然做一次进程切换需要的指令数远比1000 * 1000小.
#28
#29
我换过 setitimer这个函数来设置定时器,结果一样达不到us级的精度,期待大家解惑!
#30
放了几天假回来,问题还是没有解决,不过感谢各位支持哈,结贴散分~~