如何衡量资源够不够用呢?

2019-07-27 17:14发布

现有一复杂算法,想在DSP上做实现,如何衡量资源够不够用呢?
友情提示: 此问题已得到解决,问题已经关闭,关闭后问题禁止继续编辑,回答。
该问题目前已经被作者或者管理员关闭, 无法添加新回复
15条回答
houcs
1楼-- · 2019-07-28 08:43


t2-t1是你的算法的时间,以秒为单位. 假设你的PC CPU是1GHz, 那么大约执行该算法的CPU指令数是1G * (t2-t1).

如果你选用的DSP是500MHz, 不考虑并行指令的因素,那该DSP的MIPS是500. 看看1G*(t2-t1)是不是大于
500,大的太多估计500MHz的DSP不行. 考虑并行指令的因素,比如C6000,就算最大8条指令并行,可以算500*8 = 4000MIPS.

google一下该算法在其他DSP上有没有实现过的,这样就可以更准确的参考.
houcs
2楼-- · 2019-07-28 09:08


至于memory的评估,如果DSP可以外接外部memory,比如DDR, SDRAM,那么空间可能就没啥问题,但要考虑比如数据程序放在外部空间会降低DSP的效率,进而对MIPS有影响. 如果不能外接memory,那要仔细研究算法,需要多少数据(静态/动态)/程序空间,哪些可以overlay?等等.
kangzj
3楼-- · 2019-07-28 11:01
纯C代码,基本上按这个计算就可以了,但要注意,你的程序在PC上测试时,要关掉系统中其它不相关程序。
chenjunt
4楼-- · 2019-07-28 14:15
 精彩回答 2  元偷偷看……
chenjunt
5楼-- · 2019-07-28 19:25

这个对MIPS的影响,和内部的区别要怎么算。对系统级的架构,譬如取址取数据是否占用数据周期不太了解,正在学习中
zwll
6楼-- · 2019-07-28 23:27
高手真多啊

一周热门 更多>