有没有对无损数据压缩有研究的

2019-03-25 07:23发布

我能查到几种算法,也应该能硬件实现。但是这些都是通用的算法
而我的数据有明显的特征,我想知道有没有针对有特征数据的无损数据压缩算法。
比如我的每个数据都是0~255范围的。但是我知道有50%的数据都集中在30~50之间,理论上应该会有更好的算法。
求提供个思路。 此帖出自小平头技术问答
友情提示: 此问题已得到解决,问题已经关闭,关闭后问题禁止继续编辑,回答。
该问题目前已经被作者或者管理员关闭, 无法添加新回复
5条回答
fxyc87
1楼-- · 2019-03-25 10:03
< / 计算重复的次数,比如文件中0x1,0x5出次的次数较多,那就将这两字节用0x7f替换,当文中有出现 0x7f时换成0x7f 00,类似这样的,当然数据重复出现比较多时可以这样,再有比如有连续10个1,也可以用类似方法压缩
汤权
2楼-- · 2019-03-25 11:01
你这种适合用哈夫曼压缩算法,我曾经写过哈夫曼算法,用java写很简单,用C就麻烦了点了。
suicone
3楼-- · 2019-03-25 12:59
fxyc87 发表于 2017-8-21 22:28
计算重复的次数,比如文件中0x1,0x5出次的次数较多,那就将这两字节用0x7f替换,当文中有出现 0x7f时换成0x ...

谢谢,思路很简单明了~
suicone
4楼-- · 2019-03-25 18:17
汤权 发表于 2017-8-22 08:59
你这种适合用哈夫曼压缩算法,我曾经写过哈夫曼算法,用java写很简单,用C就麻烦了点了。

谢谢,所以用单片机就属于麻烦了点的那种了。那用FPGA岂不是更蛋疼。。。
汤权
5楼-- · 2019-03-25 21:30
 精彩回答 2  元偷偷看……

一周热门 更多>