我有一个履带式机器人,其大脑是 iPhone。它有两个摄像头 - 一个来自 iPhone,另一个是独立摄像头。该手机配备 GPS、陀螺仪、加速计和磁力计,并具有传感器融合功能,可将用户引起的加速度与重力分开。手机可以一起检测它自己在太空中的姿态。我想教机器人如果以前撞到过墙壁,至少要避开它们。
任何人都可以推荐一个由此类机器人完成的视觉同步定位和绘图的入门项目吗?我将非常感谢 Objective-C 实现,因为我在以下位置看到了一些用 C/C++ 编写的项目OpenSlam.org,但那些不是我最强的编程语言。
我无法使用激光测距仪,因此任何有关 Visual SLAM 的文章、关键字或学术论文也会有所帮助。
感谢您的投入!
最佳答案
关于iPhone Robotics Visual-SLAM算法实现,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11037903/