iPhone Robotics Visual-SLAM算法实现

标签 iphone gps camera robotics slam-algorithm

我有一个履带式机器人,其大脑是 iPhone。它有两个摄像头 - 一个来自 iPhone,另一个是独立摄像头。该手机配备 GPS、陀螺仪、加速计和磁力计,并具有传感器融合功能,可将用户引起的加速度与重力分开。手机可以一起检测它自己在太空中的姿态。我想教机器人如果以前撞到过墙壁,至少要避开它们。

任何人都可以推荐一个由此类机器人完成的视觉同步定位和绘图的入门项目吗?我将非常感谢 Objective-C 实现,因为我在以下位置看到了一些用 C/C++ 编写的项目OpenSlam.org,但那些不是我最强的编程语言。

我无法使用激光测距仪,因此任何有关 Visual SLAM 的文章、关键字或学术论文也会有所帮助。

感谢您的投入!

最佳答案

我建议你看看FAB-MAP,它在OpenCV中有一个实现。

我正在写关于视觉 SLAM 的硕士学位论文,特别是关于闭环问题。

它是用 C++ 编写的,但如果您遵循示例,您会发现它非常容易使用。

关于iPhone Robotics Visual-SLAM算法实现,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11037903/

相关文章:

Iphone 将 url 标记为不安全

android - 从相机捕获后如何旋转图像

java - 使图像不出现在 Android 相册中

database - 有效存储和查询GPS坐标

gps - 将行车记录仪 .MOV 文件中的十六进制转换为纬度经度

Android Location getTime() 错误?

android - 如何显示原始尺寸的相机捕获的图像?

iphone - 在 iPhone 中添加 UILabel

ios - 将 swift 闭包存储为 objective-c 类的属性,其中使用 typedef 声明 block

iphone - 如何与obd ii elm327接口(interface)?