machine-learning - 手势识别功能

标签 machine-learning gesture

我想创建一个应用程序,它可以学习对用户绘制的一系列点进行分类,例如比如手写识别之类的。如果数据点由许多 (x,y) 对组成(例如对应于手势实例的像素),那么计算该实例的最佳特征是什么,这将有助于形成良好的多类分类器(例如 SVM、 NN等)?特别是在提供的培训示例有限的情况下。

最佳答案

如果我是你,我会找到与角点、端点和交叉点相对应的数据点,将它们用作特征并丢弃中间点。您还可以包含这些兴趣点的角度或其他一些描述符。

要检测兴趣点,您可以使用 Harris detector ,然后您可以使用该点的梯度值作为简单的描述符。或者,您可以使用更奇特的方法,例如 SIFT .

您可以使用下采样图像中每个像素的描述符,然后使用 SVM 进行分类。这样做的缺点是特征向量中会有大量不感兴趣的数据点。

另一种方法是不将其视为分类问题,而是将其视为模板匹配问题(在 中相当常见)。在这种情况下,可以将手势指定为任意数量的兴趣点,完全忽略不感兴趣的数据。实例点的一定阈值百分比必须与模板匹配才能进行积极识别。例如,当将“R”实例的角点与“X”模板进行匹配时,右下点应该匹配,作为相同位置方向的端点,但其他点太不相似,给出的匹配度相当低分数和识别 R=X 将被拒绝。

关于machine-learning - 手势识别功能,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11023016/

相关文章:

python - python scikit 中更快的数据拟合(或学习)功能

ios - iOS 滑动时使用的速度/加速度方程是什么?

iphone - 如何识别 UIScrollView 中的滑动手势

android - 如何制作一个在滑动/翻动 View 之间翻转的 Android View

matlab - 任一特征集上的分类都很好,但组合特征集上的分类很差

tensorflow - 当验证数据的准确性提高但损失也增加时该怎么办?

machine-learning - 二元机器学习分类的置信概率

python - 在 TensorFlow 中完成训练过程后使用 predict() 方法

android - 谷歌眼镜 - 查看捕获手势(向下滑动)

ios - SKSpriteNode 能识别手势吗?