python - 用于将二维坐标映射到值的机器学习算法

标签 python machine-learning scikit-learn regression

我正在尝试构建一个程序来将二维坐标(纬度、经度)映射到浮点值。我有大约 100 万行训练数据,例如

(41.140359, -8.612964) -> 65
... -> ...

我认为这是一个回归问题,除了我发现的所有回归示例都只使用一维,所以我不确定。

在这种情况下我应该使用什么算法(或算法类别)?

最佳答案

在尝试查找函数之前,将数据绘制在 Python 绘图的 Excel 上,您可能会看到您正在寻找的函数类型。

此外,excel还有回归计算模块。

关于python - 用于将二维坐标映射到值的机器学习算法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37883325/

相关文章:

python - 当我们只向 kmeans 提供单个单词的 tfidf 向量时,kmeans 如何知道如何对文档进行聚类?

python - scikit学习凝聚聚类错误

python - tfidf.transform() 函数没有返回正确的值

python - 使用 pyparsing 如何忽略嵌套结构?

python - 即使在dockerfile/requirements.txt中添加了numpy之后,在docker容器中使用numpy运行python代码的“Module not found error”

python - 我如何检查数据框中行之间的相似性并添加一列作为计数器和增量。当行匹配时呢?

Python 小批量字典学习

python - 使用 Flask 将变量传递给所有 Jinja2 模板

python - 如果 min(list) 引发 ValueError,我该如何返回 0 或其他内容?

以 svmlight 格式导出 numpy/列表的 python 程序