c++ - GPU 上的高质量图像放大

标签 c++ opengl image-processing

我正在寻找有趣的图像放大算法,这些算法可以在 GPU 上实现以实时缩放视频。线性和双三次插值算法不够好。

建议?

这是我找到的一些论文,不确定它们是否适合 gpu 实现。

Adaptive Interpolation

Level Set

我看过一些关于用于电视缩放的单元处理器的演示,这些演示取得了一些令人印象深刻的结果,遗憾的是没有链接。

最佳答案

lanczos3 是一个非常好的插值算法(您可以在 GIMP 或 virtualDub 中测试它)。它通常比三次插值性能更好,并且可以并行化。
基于 GPU 的版本在 Chromium 中实现:
http://code.google.com/p/chromium/issues/detail?id=47447
查看 Chrome 源代码。

对于实时视频处理来说,它可能仍然太慢,但如果您不使用太高的分辨率,也许值得尝试。

关于c++ - GPU 上的高质量图像放大,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/4047710/

相关文章:

jquery - 如何创建图像标签云

c++ - 如何用 C++ 编写一个小的内存泄漏检测?

c++ - 位移位及其逻辑运算符

OpenGL:计算着色器工作组是否并行执行?

c++ - 没有子类化的 QOpenGLWidget

java - 在 Android 中对图像进行二值化

c++ - OpenCV:如何混合多个不同颜色的半透明多边形?

c++ - Qt QTest 执行结束时出现段错误

c++ - R/C++ 中集合覆盖问题的变体

c++ - Freetype 字形在加载到 openGL 时换行