我正在尝试获取图像像素的相对深度。例如 https://www.awn.com/news/nvidia-unveils-quadro-rtx-worlds-first-ray-tracing-gpu 中的图像.我不需要每个像素的精确距离,我认为这是不可能的,但我想得到“绿球比其他球更远”的东西。是否可以在 python 中使用 OpenCV?我生成的代码可以识别每个球,但不能识别它们的相对距离或深度,因此它们对我的意图几乎没有用处。
最佳答案
这是一个不适定的问题(你不能用单个 RGB 相机测量深度)和一个最近研究的话题。我找到了 survey paper .大多数情况下,深度图像是使用卷积神经网络从 RGB 图像中学习的。
但是,如果您使用有关场景的大量先验信息(图像中的所有对象都是圆形的,并且部分可见的圆圈对应于背景中的那些),那么您可以使用启发式方法来做一些事情,例如,阈值,边缘检测或霍夫变换,但这并不容易。
关于python - 如何检测图像上像素的相对深度?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56032540/