最近看到中断这块,有一处不太理解,希望大家能指点一下。
比如我现在有一个外部中断0的中断函数
这个函数每次延迟50ms
我想实现就是每过10s中让蜂鸣器响一下
我想知道我在调用beep()这个蜂鸣器的函数中不影响此中断么
就比如我这个beep里面有delay(100)这样的 那岂不是我每调用
一次就会有这么多的误差吗
void t0() interrupt 1
{
if(++count==200)
{
beep();
count=0;
}
}
友情提示: 此问题已得到解决,问题已经关闭,关闭后问题禁止继续编辑,回答。
实际上根据我的实验效果看
只要delay函数不超过interrupt函数的时间就没有问题
当delay函数在执行++操作时 中断函数并没有被delay打断
而是按照他原来自己的时钟执行 所以我初步判断只要delay函数的时间小于
中断这个程序就不会有错,但是应该把delay时间调短一点 要不然就失去了中断节省CPU的意义了
中断函数并不是执行到delay就把自己的模式中断 简而言之他们是两个完全独立的
只有当中断溢出的时候才会中断CPU当前操作。 不知道我想的对不对
【玩】蜂鸣器连叫
http://bbs.elecfans.com/jishu_514253_1_1.html
(出处: 中国电子技术论坛)
这是我以前发的一个蜂鸣器的帖子,也是利用定时器实现蜂鸣器的叫的,你可以参考一下。
你理解的基本正确,假设的例子不可能,什么定时器中断能长达500ms,12M时钟最长只能65ms,中断程序耗时过长也不符合使用中断的原则。在实际应用中常会使用中断嵌套,很有可能发生冲突。
如果你有2个中断在进行任务操作,中断本身的目的就是为了快速响应。如果高优先级的中断先中断了,结果进去以后来个delay延时,恰巧低优先级的任务需要执行,那这效率就大打折扣了。
还有啊,中断里加延时也会导致你的超级大循环的效率降低,比方说你在主函数里用延时做个闪灯,由于中断延时的问题,主函数的闪灯时间也将变得不可确定。 当然如果你觉得这些都是假设,那就按照自己的理解来。
一周热门 更多>