关于在 red hat 下用posix timer实现高精度定时器的问题 急!!!

时间:2021-11-10 08:55:25
      我在redhat enterprise5 (内核2.6.18)下用posix timer实现一个高精度定时器,按理说posix timer精度是可以达到纳秒的,而我设置的时间间隔是80微妙,可是测试发现定时器的精度根本就没有达到微妙级,更不用说纳秒了,80微妙的时间间隔变成了2毫秒。。。仔细检查了下代码应该没问题,在UBUNTU上可以正确实现。代码在开发机上,不便上传。
      请问有人遇到过类似情况么?如何解决?或者哪位高手告诉我怎么在redhat上实现高精度定时器吧。谢谢!

30 个解决方案

#1


受限于操作系统吧,通过应用层面估计无法做到

#2


引用 1 楼 justkk 的回复:
受限于操作系统吧,通过应用层面估计无法做到

为什么在redhat下就无法实现高精度定时器呢?我想在redhat上搞开发的人还是很多的吧,应该有人会用到高精度定时器吧?

#3


对开发不是很懂喲
gettimeofday呢

#4


涉及到了进程调度,精度只能在ms级以上

#5


引用 4 楼 guosha 的回复:
涉及到了进程调度,精度只能在ms级以上

可是在ubuntu下高精度定时器至少可以达到微妙的,我测过的~

#6


引用 3 楼 steptodream 的回复:
对开发不是很懂喲
gettimeofday呢

gettimeofday是获取系统时间的吧

#7


引用 6 楼 justplayit 的回复:
引用 3 楼 steptodream 的回复:
对开发不是很懂喲
gettimeofday呢

gettimeofday是获取系统时间的吧

http://hi.baidu.com/ybzzzzz/blog/item/2bf442181f6e8db24bedbc6d.html

#8


与机器配置有关?不懂 ^_^

#9


问题的关键楼主都没有说明, 你没有说明你的timer是怎么实现的,你也没有说明你是怎么使用你的timer的.就叫人帮你找问题所在.咋可能呢?

#10


引用 9 楼 guosha 的回复:
问题的关键楼主都没有说明, 你没有说明你的timer是怎么实现的,你也没有说明你是怎么使用你的timer的.就叫人帮你找问题所在.咋可能呢?


用的posix timer,基本就是下面代码的模式:
 

void handler (int sig, siginfo_t * extra, void *cruft)
...{
static last_i=0;
unsigned int i, j;
rdtsc(i,j);
printf ("time:%u, %u, [%u] %uHZ ", j, i, i-last_i, (i-last_i)*10/1000000);
last_i = i;
}

int main ()
...{
int i=0;
sigset_t sigset;

sigfillset (&sigset);
sigdelset (&sigset, SIGRTMIN);
sigprocmask (SIG_SETMASK, &sigset, NULL);

struct sigaction sa;
sigfillset (&sa.sa_mask);
sa.sa_flags = SA_SIGINFO;
sa.sa_sigaction = handler;

if (sigaction (SIGRTMIN, &sa, NULL) < 0)
...{
perror ("sigaction failed ");
exit (-1);
}

struct sigevent timer_event;
struct itimerspec timer;

timer.it_interval.tv_sec = 0;
timer.it_interval.tv_nsec = 100 * 1000 * 1000;
timer.it_value = timer.it_interval;

timer_event.sigev_notify = SIGEV_SIGNAL;
timer_event.sigev_signo = SIGRTMIN;
timer_event.sigev_value.sival_ptr = (void *) &tt;

if (timer_create (CLOCK_REALTIME, &timer_event, &tt) < 0)
...{
perror ("timer_create failed");
exit (-1);
}

if (timer_settime (tt, 0, &timer, NULL) < 0)
...{
perror ("timer_settime failed");
exit (-1);
}

while (i++ < 10)
...{
pause ();
}

return 0;
}

#11


你的这个程序不可能达到ns级别,
linux应用层理论上能达到的最大精度是每次时间中断间隔的时间. 这个tick间隔时间一般来说是1ms, 就算比1ms小,比1ns肯定是大了几个数量级.

OK, 就算是一次tick引发的时间1ms,那你当前进程因为pause()而处于suspend状态,过了1ms触发一个tick,产生一个信号,让你的进程唤醒,然后调度到你的进程进入运行状态, 从面进入你的信号处理函数,然后再printf输出你当前的时间. 这一切的动作都需要花费时间,也就是说当最终这个时间输出来的时候,可能已经过了2ms甚至更多, 所以你无法获得ns级的时间精度.

#12


引用 11 楼 guosha 的回复:
你的这个程序不可能达到ns级别,
linux应用层理论上能达到的最大精度是每次时间中断间隔的时间. 这个tick间隔时间一般来说是1ms, 就算比1ms小,比1ns肯定是大了几个数量级.

OK, 就算是一次tick引发的时间1ms,那你当前进程因为pause()而处于suspend状态,过了1ms触发一个tick,产生一个信号,让你的进程唤醒,然后调度到你的进程进入运行状态, 从面进入你的……

关于这个定时器如何达到ns级别你可以查找下posix timer的资料,我在ubuntu下确实可以得到us级的时间间隔,ns级的没测试过,我主要问题是为什么在ubuntu下可以但redhat下却不可以,有什么差异呢?是否是内核配置方面的?或者redhat下定时器有其他实现方式?

#13


你可以
cat /proc/cpuinfo得到cpu的频率, 你可以比较一下你运行ubuntu的机器跟运行redhat的机器的频率是不是一样的

#14


你的程序显示的是你要求100ms产生一个信号,

#15


引用 13 楼 guosha 的回复:
你可以
cat /proc/cpuinfo得到cpu的频率, 你可以比较一下你运行ubuntu的机器跟运行redhat的机器的频率是不是一样的

ubuntu 双核,2.2Ghz
redhat 双核,2.6Ghz
redhat的频率还要高些。。。

#16


引用 7 楼 steptodream 的回复:
引用 6 楼 justplayit 的回复:

引用 3 楼 steptodream 的回复:
对开发不是很懂喲
gettimeofday呢

gettimeofday是获取系统时间的吧

http://hi.baidu.com/ybzzzzz/blog/item/2bf442181f6e8db24bedbc6d.html

谢谢,可是没怎么提到定时器呀

#17


引用 14 楼 guosha 的回复:
你的程序显示的是你要求100ms产生一个信号,

上面代码只是我找的一个和我程序结构一样的代码,我在自己的测试的代码里面用的是80us哈~

#18


你的意思是说用ubuntu, 你可以取得80us级的精度,而用redhat却只能达到ms级的精度?
两个的内核是一样的吗?

#19


引用 18 楼 guosha 的回复:
你的意思是说用ubuntu, 你可以取得80us级的精度,而用redhat却只能达到ms级的精度?
两个的内核是一样的吗?

都是2.6的内核,而且调用的一样的库函数

#20


redhat 是2.6.18
ubuntu是2.6.32

#21


上网找了一下资料,也不知正确与否,
'POSIX timer可以提供1kHz的触发器使这一切变得简单,从而可以有效地控制进度'

也就是说理论上间隔(1 / 2.6G) * 1K 就可以产生一个信号,也就是大约0.38us. 算上进程调度的话,应该可以提供1us的时间精度, 不过最好是你不要直接printf输出, 因为这样涉及到了IO, 把时间保存在内存里,结果会更准确.

#22


看上去不太可能readhat会由80us剧增到2ms, 是不是你有用虚拟机?
引用 20 楼 justplayit 的回复:
redhat 是2.6.18
ubuntu是2.6.32

#23


引用 21 楼 guosha 的回复:
上网找了一下资料,也不知正确与否,
'POSIX timer可以提供1kHz的触发器使这一切变得简单,从而可以有效地控制进度'

也就是说理论上间隔(1 / 2.6G) * 1K 就可以产生一个信号,也就是大约0.38us. 算上进程调度的话,应该可以提供1us的时间精度, 不过最好是你不要直接printf输出, 因为这样涉及到了IO, 把时间保存在内存里,结果会更准确.

printf确实会有影响,在 ubuntu下也只是us级,我用printf是为了能比较直接的看出定时器是否正确工作,但在redhat下就打出来得时间间隔就全是ms级的了。。。

#24


引用 22 楼 guosha 的回复:
看上去不太可能readhat会由80us剧增到2ms, 是不是你有用虚拟机?

引用 20 楼 justplayit 的回复:
redhat 是2.6.18
ubuntu是2.6.32

有的,还是ubuntu用的虚拟机。。。

#25


我觉得你可以新建一个跟ubuntu一样的虚拟机,装上rhel5再试一下, 消除硬件的影响. 或许是你装rhel5的机器里bios做了什么设定呢, 导致只能产生ms级的信号.

#26


进程切换都在毫秒级的。所以不要指望普通的操作系统小于毫秒级的定时精度。
实时操纵系统提供的定时器精度可以达到0.1毫秒。

#27


进程切换的速度跟当前系统的运行状态相关, 如果要切换的进程还处在内存以内,不涉及到swap的话, 应该是不需要1ms的, 比如1GHZ的CPU, 1ms可以运行1000 * 1000 条指令, 显然做一次进程切换需要的指令数远比1000 * 1000小.

引用 26 楼 mymtom 的回复:
进程切换都在毫秒级的。所以不要指望普通的操作系统小于毫秒级的定时精度。
实时操纵系统提供的定时器精度可以达到0.1毫秒。

#28


关于在 red hat 下用posix timer实现高精度定时器的问题 急!!!

#29


我换过 setitimer这个函数来设置定时器,结果一样达不到us级的精度,期待大家解惑!

#30


放了几天假回来,问题还是没有解决,不过感谢各位支持哈,结贴散分~~

#1


受限于操作系统吧,通过应用层面估计无法做到

#2


引用 1 楼 justkk 的回复:
受限于操作系统吧,通过应用层面估计无法做到

为什么在redhat下就无法实现高精度定时器呢?我想在redhat上搞开发的人还是很多的吧,应该有人会用到高精度定时器吧?

#3


对开发不是很懂喲
gettimeofday呢

#4


涉及到了进程调度,精度只能在ms级以上

#5


引用 4 楼 guosha 的回复:
涉及到了进程调度,精度只能在ms级以上

可是在ubuntu下高精度定时器至少可以达到微妙的,我测过的~

#6


引用 3 楼 steptodream 的回复:
对开发不是很懂喲
gettimeofday呢

gettimeofday是获取系统时间的吧

#7


引用 6 楼 justplayit 的回复:
引用 3 楼 steptodream 的回复:
对开发不是很懂喲
gettimeofday呢

gettimeofday是获取系统时间的吧

http://hi.baidu.com/ybzzzzz/blog/item/2bf442181f6e8db24bedbc6d.html

#8


与机器配置有关?不懂 ^_^

#9


问题的关键楼主都没有说明, 你没有说明你的timer是怎么实现的,你也没有说明你是怎么使用你的timer的.就叫人帮你找问题所在.咋可能呢?

#10


引用 9 楼 guosha 的回复:
问题的关键楼主都没有说明, 你没有说明你的timer是怎么实现的,你也没有说明你是怎么使用你的timer的.就叫人帮你找问题所在.咋可能呢?


用的posix timer,基本就是下面代码的模式:
 

void handler (int sig, siginfo_t * extra, void *cruft)
...{
static last_i=0;
unsigned int i, j;
rdtsc(i,j);
printf ("time:%u, %u, [%u] %uHZ ", j, i, i-last_i, (i-last_i)*10/1000000);
last_i = i;
}

int main ()
...{
int i=0;
sigset_t sigset;

sigfillset (&sigset);
sigdelset (&sigset, SIGRTMIN);
sigprocmask (SIG_SETMASK, &sigset, NULL);

struct sigaction sa;
sigfillset (&sa.sa_mask);
sa.sa_flags = SA_SIGINFO;
sa.sa_sigaction = handler;

if (sigaction (SIGRTMIN, &sa, NULL) < 0)
...{
perror ("sigaction failed ");
exit (-1);
}

struct sigevent timer_event;
struct itimerspec timer;

timer.it_interval.tv_sec = 0;
timer.it_interval.tv_nsec = 100 * 1000 * 1000;
timer.it_value = timer.it_interval;

timer_event.sigev_notify = SIGEV_SIGNAL;
timer_event.sigev_signo = SIGRTMIN;
timer_event.sigev_value.sival_ptr = (void *) &tt;

if (timer_create (CLOCK_REALTIME, &timer_event, &tt) < 0)
...{
perror ("timer_create failed");
exit (-1);
}

if (timer_settime (tt, 0, &timer, NULL) < 0)
...{
perror ("timer_settime failed");
exit (-1);
}

while (i++ < 10)
...{
pause ();
}

return 0;
}

#11


你的这个程序不可能达到ns级别,
linux应用层理论上能达到的最大精度是每次时间中断间隔的时间. 这个tick间隔时间一般来说是1ms, 就算比1ms小,比1ns肯定是大了几个数量级.

OK, 就算是一次tick引发的时间1ms,那你当前进程因为pause()而处于suspend状态,过了1ms触发一个tick,产生一个信号,让你的进程唤醒,然后调度到你的进程进入运行状态, 从面进入你的信号处理函数,然后再printf输出你当前的时间. 这一切的动作都需要花费时间,也就是说当最终这个时间输出来的时候,可能已经过了2ms甚至更多, 所以你无法获得ns级的时间精度.

#12


引用 11 楼 guosha 的回复:
你的这个程序不可能达到ns级别,
linux应用层理论上能达到的最大精度是每次时间中断间隔的时间. 这个tick间隔时间一般来说是1ms, 就算比1ms小,比1ns肯定是大了几个数量级.

OK, 就算是一次tick引发的时间1ms,那你当前进程因为pause()而处于suspend状态,过了1ms触发一个tick,产生一个信号,让你的进程唤醒,然后调度到你的进程进入运行状态, 从面进入你的……

关于这个定时器如何达到ns级别你可以查找下posix timer的资料,我在ubuntu下确实可以得到us级的时间间隔,ns级的没测试过,我主要问题是为什么在ubuntu下可以但redhat下却不可以,有什么差异呢?是否是内核配置方面的?或者redhat下定时器有其他实现方式?

#13


你可以
cat /proc/cpuinfo得到cpu的频率, 你可以比较一下你运行ubuntu的机器跟运行redhat的机器的频率是不是一样的

#14


你的程序显示的是你要求100ms产生一个信号,

#15


引用 13 楼 guosha 的回复:
你可以
cat /proc/cpuinfo得到cpu的频率, 你可以比较一下你运行ubuntu的机器跟运行redhat的机器的频率是不是一样的

ubuntu 双核,2.2Ghz
redhat 双核,2.6Ghz
redhat的频率还要高些。。。

#16


引用 7 楼 steptodream 的回复:
引用 6 楼 justplayit 的回复:

引用 3 楼 steptodream 的回复:
对开发不是很懂喲
gettimeofday呢

gettimeofday是获取系统时间的吧

http://hi.baidu.com/ybzzzzz/blog/item/2bf442181f6e8db24bedbc6d.html

谢谢,可是没怎么提到定时器呀

#17


引用 14 楼 guosha 的回复:
你的程序显示的是你要求100ms产生一个信号,

上面代码只是我找的一个和我程序结构一样的代码,我在自己的测试的代码里面用的是80us哈~

#18


你的意思是说用ubuntu, 你可以取得80us级的精度,而用redhat却只能达到ms级的精度?
两个的内核是一样的吗?

#19


引用 18 楼 guosha 的回复:
你的意思是说用ubuntu, 你可以取得80us级的精度,而用redhat却只能达到ms级的精度?
两个的内核是一样的吗?

都是2.6的内核,而且调用的一样的库函数

#20


redhat 是2.6.18
ubuntu是2.6.32

#21


上网找了一下资料,也不知正确与否,
'POSIX timer可以提供1kHz的触发器使这一切变得简单,从而可以有效地控制进度'

也就是说理论上间隔(1 / 2.6G) * 1K 就可以产生一个信号,也就是大约0.38us. 算上进程调度的话,应该可以提供1us的时间精度, 不过最好是你不要直接printf输出, 因为这样涉及到了IO, 把时间保存在内存里,结果会更准确.

#22


看上去不太可能readhat会由80us剧增到2ms, 是不是你有用虚拟机?
引用 20 楼 justplayit 的回复:
redhat 是2.6.18
ubuntu是2.6.32

#23


引用 21 楼 guosha 的回复:
上网找了一下资料,也不知正确与否,
'POSIX timer可以提供1kHz的触发器使这一切变得简单,从而可以有效地控制进度'

也就是说理论上间隔(1 / 2.6G) * 1K 就可以产生一个信号,也就是大约0.38us. 算上进程调度的话,应该可以提供1us的时间精度, 不过最好是你不要直接printf输出, 因为这样涉及到了IO, 把时间保存在内存里,结果会更准确.

printf确实会有影响,在 ubuntu下也只是us级,我用printf是为了能比较直接的看出定时器是否正确工作,但在redhat下就打出来得时间间隔就全是ms级的了。。。

#24


引用 22 楼 guosha 的回复:
看上去不太可能readhat会由80us剧增到2ms, 是不是你有用虚拟机?

引用 20 楼 justplayit 的回复:
redhat 是2.6.18
ubuntu是2.6.32

有的,还是ubuntu用的虚拟机。。。

#25


我觉得你可以新建一个跟ubuntu一样的虚拟机,装上rhel5再试一下, 消除硬件的影响. 或许是你装rhel5的机器里bios做了什么设定呢, 导致只能产生ms级的信号.

#26


进程切换都在毫秒级的。所以不要指望普通的操作系统小于毫秒级的定时精度。
实时操纵系统提供的定时器精度可以达到0.1毫秒。

#27


进程切换的速度跟当前系统的运行状态相关, 如果要切换的进程还处在内存以内,不涉及到swap的话, 应该是不需要1ms的, 比如1GHZ的CPU, 1ms可以运行1000 * 1000 条指令, 显然做一次进程切换需要的指令数远比1000 * 1000小.

引用 26 楼 mymtom 的回复:
进程切换都在毫秒级的。所以不要指望普通的操作系统小于毫秒级的定时精度。
实时操纵系统提供的定时器精度可以达到0.1毫秒。

#28


关于在 red hat 下用posix timer实现高精度定时器的问题 急!!!

#29


我换过 setitimer这个函数来设置定时器,结果一样达不到us级的精度,期待大家解惑!

#30


放了几天假回来,问题还是没有解决,不过感谢各位支持哈,结贴散分~~