如何衡量资源够不够用呢?

2019-07-27 17:14发布

现有一复杂算法,想在DSP上做实现,如何衡量资源够不够用呢?
友情提示: 此问题已得到解决,问题已经关闭,关闭后问题禁止继续编辑,回答。
15条回答
houcs
2019-07-28 08:43


t2-t1是你的算法的时间,以秒为单位. 假设你的PC CPU是1GHz, 那么大约执行该算法的CPU指令数是1G * (t2-t1).

如果你选用的DSP是500MHz, 不考虑并行指令的因素,那该DSP的MIPS是500. 看看1G*(t2-t1)是不是大于
500,大的太多估计500MHz的DSP不行. 考虑并行指令的因素,比如C6000,就算最大8条指令并行,可以算500*8 = 4000MIPS.

google一下该算法在其他DSP上有没有实现过的,这样就可以更准确的参考.

一周热门 更多>