有谁知道从16bit量化到8bit的误差怎么计算?
我看过关于 Quantization 的维基百科文章,但这并没有解释这一点。
谁能解释一下这是怎么做到的?
满满的爱, 路易丝
更新:我的函数看起来像这样。
unsigned char quantize(double d, double max) {
return (unsigned char)((d / max) * 255.0);
}
最佳答案
我认为您需要将 16 位值和 8 位值都转换为它们各自表示的模拟值,然后取它们之间的差值。为了坚持使用维基百科条目,这里是 one谈论它。
关于c++ - 如何计算16bit到8bit的量化误差?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/1989222/