我正在寻找有趣的图像放大算法,这些算法可以在 GPU 上实现以实时缩放视频。线性和双三次插值算法不够好。
建议?
这是我找到的一些论文,不确定它们是否适合 gpu 实现。
我看过一些关于用于电视缩放的单元处理器的演示,这些演示取得了一些令人印象深刻的结果,遗憾的是没有链接。
最佳答案
lanczos3
是一个非常好的插值算法(您可以在 GIMP 或 virtualDub 中测试它)。它通常比三次插值性能更好,并且可以并行化。
基于 GPU 的版本在 Chromium 中实现:
http://code.google.com/p/chromium/issues/detail?id=47447
查看 Chrome 源代码。
对于实时视频处理来说,它可能仍然太慢,但如果您不使用太高的分辨率,也许值得尝试。
关于c++ - GPU 上的高质量图像放大,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/4047710/