graph - 在Python的机器学习中是否可以找到数据集的x和y坐标的移位值?

标签 graph python

我正在尝试查找覆盖在另一个数据集上的 x 和 y 坐标中的数据集的移位或滚动值。数据未处理的状态显示在标记为“之前”的图中。这里,点是观察数据集,线是模型数据集。我希望模型数据集适合观测数据集,如标记为“之后”的图中所示。该拟合是通过直接给出这些值来手动完成的。执行 python 代码后可以看到我的之前/之后图像。

我不知道如何找到模型数据集的 x 和 y 坐标的偏移值。我的数据集位于最小的工作代码中。

import numpy as np
import matplotlib.pyplot as plt

model = np.array([(0.310, -0.687), (0.407, -0.355), (0.455, -0.142), (0.504, 0.061), (0.552, 0.238), 
                  (0.601,  0.380), (0.698,  0.549), (0.746,  0.581), (0.795, 0.587), (0.859, 0.567), 
                  (0.956,  0.511), (1.053,  0.473), (1.150,  0.489), (1.199, 0.523), (1.296, 0.640), 
                  (1.393,  0.812), (1.490,  0.981), (1.587,  1.189), (1.684, 1.386), (1.781, 1.572), 
                  (1.878, 1.766)])

obser = np.array([(0.212, -0.114), (0.199, 0.017), (0.259, 0.020), (0.199, 0.076), (0.297, 0.082), 
                  (0.735, 0.085), (0.641, 0.104), (0.791, 0.104), (0.681, 0.109), (0.606, 0.132), 
                  (0.262, 0.135), (0.813, 0.137), (0.334, 0.157), (0.565, 0.165), (0.647, 0.170), 
                  (0.876, 0.174), (0.746, 0.186), (0.509, 0.197), (0.398, 0.203), (0.693, 0.207), 
                  (0.829, 0.215), (0.299, 0.226), (0.585, 0.228), (0.549, 0.242), (0.430, 0.242), 
                  (0.637, 0.253), (0.511, 0.257), (0.918, 0.268), (0.813, 0.269), (0.746, 0.271), 
                  (0.336, 0.288), (0.449, 0.297), (0.398, 0.299), (0.783, 0.306), (0.578, 0.312), 
                  (0.871, 0.330), (0.515, 0.345), (0.468, 0.353), (0.818, 0.380), (0.936, 0.391), 
                  (0.889, 0.416), (0.876, 0.503), (1.027, 0.522), (1.040, 0.601), (0.965, 0.656), 
                  (1.130, 0.796), (1.224, 0.845), (1.261, 0.964), (1.378, 1.149)])

fig, (ax1, ax2) = plt.subplots(nrows=1, ncols=2, figsize=(9,6))
fig.subplots_adjust(wspace=0.5, hspace=0)

# how can we obtain the shift values of [0.37, 0.32] with machine learning?
model2 = model - [0.37, 0.32]

ax1.invert_yaxis()
ax1.set_xlabel("BmV")
ax1.set_ylabel("UmB")
ax1.scatter(obser[:, 0], obser[:, 1], s=2, c="black")
ax1.plot(model[:, 0], model[:, 1], linewidth=1, c="red")
ax1.text(0.7, 0.96, 'Before', verticalalignment='top', horizontalalignment='left', 
transform = ax1.transAxes, color = 'black', fontsize=12)

ax2.invert_yaxis()
ax2.set_xlabel("BmV")
ax2.set_ylabel("UmB")
ax2.scatter(obser[:, 0], obser[:, 1], s=2, c="black")
ax2.plot(model2[:, 0], model2[:, 1], linewidth=1, c="red")
ax2.text(0.8, 0.96, 'After', verticalalignment='top', horizontalalignment='left', 
transform = ax2.transAxes, color = 'black', fontsize=12)

plt.show()

我认为这种滚动可以通过Python中的机器学习来完成。但我不知 Prop 体怎么做。有人可以帮助我吗?

最佳答案

tl;dr:使平均值对齐。

您评论说您希望最小化模型与观察值之间的差异之和。从数学上讲,这可以写成 Σij|mi-oj-s|,其中 s 是移位。与标准差/平均差(参见 stats.semo )一样,事实证明,最好将 Σij(mi-o<子>j-s)2

微分,当 0=-2Σij(mi-oj-s) 时最小化。如果我们说有M个模型点和O个观测点,那么这意味着0=-2(Σimi)O+2(Σj oj)M+2sOM。因此,s=(Σimi)/M-(Σjoj)/O,他们的平均值的差异。 (细节人员可能会注意到我们正在处理一维;这是因为平方距离可以分解为沿每个轴的平方距离,即毕达哥拉斯定理。)

回到您的数据,这意味着您想要
model3 = 模型 - (model.mean(axis=0) - obser.mean(axis=0))
移动 [0.35096599,0.27984354]。虽然说实话,我没有看到 model2 和 model3 之间有太大区别。

关于graph - 在Python的机器学习中是否可以找到数据集的x和y坐标的移位值?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57475298/

相关文章:

android - Graphview 未显示所有 x 轴值

java - Dijkstra 算法是否跟踪访问过的节点以找到最短路径?

python - 从 numpy.timedelta64 值中提取天数

Python Socket 编程(TCP 与 UDP)

c++ - 我无法编译此 dijkstra 代码。 (算法设计手册)

data-structures - 有向图和无向图有什么区别

c++ - 如何在 C++ 中可视化/绘制图形?

Python:列表列表的字典

python - Python 中的字符串除法

python - gunicorn:开始:作业无法启动