machine-learning - 关于估计训练值和调整权重的特定机器学习查询

标签 machine-learning artificial-intelligence information-retrieval training-data

嘿,我对机器学习领域真的很陌生,最近开始阅读 Tom Mitchell 的《机器学习》一书,并陷入了第一章中的特定部分,他谈到了估计训练值以及调整权重。对估计培训值(value)的概念进行解释会很棒,但我知道解释这一切并不容易,因此如果有人能够向我指出资源(讲座视频或简单的讲座幻灯片,或一些文本片段)谈论估计训练数据等概念。

再次抱歉,我无法就我所提出的问题提供更多信息。如果有人读过这本书并且在理解这些章节中描述的概念时遇到了同样的问题,那么这本书的章节是“Tom Mitchell 的机器学习”中的 1.2.4.1 和 1.2.4.2。

提前致谢。

最佳答案

啊。经典教科书。我的副本有点过时,但看起来我的第 1.2.4 节涉及与您相同的主题。

首先,这是一个介绍性的章节,试图做到通用且不令人生畏,但结果也非常抽象,有点模糊。在这一点上,我不会太担心你不理解这些概念,更有可能的是你想得太多了。后面的章节将充实现在看来不清楚的事情。

在这种情况下,

值(value)应被理解为对特定状态或实例的质量或性能的衡量,而不是一般数字中的“值(value)”。以跳棋为例,具有高值的状态是对计算机玩家有利/有利的棋盘情况。

这里的主要思想是,如果您可以提供一个可以遇到的每种可能的状态,并且有一组规则定义可以通过以下方式从当前状态到达哪些状态:执行哪些操作,然后您就可以就采取哪些操作做出明智的决定。

但是对于游戏的最终状态来说,为状态赋值只是一项微不足道的任务。最终状态获得的值(value)通常称为“奖励”。目标当然是最大化奖励。 估计训练值是指根据您稍后在游戏中获得的结果将猜测值分配给中间状态的过程。

因此,在玩许多训练游戏时,您会记录遇到的状态,如果您发现某些状态 X 导致状态 Y,您可以根据当前估计稍微更改 X 的估计值X 和 Y 的当前估计。这就是“估计训练权重”的全部内容。通过重复训练,模型变得经验丰富,估计值应该收敛到可靠的值。它将开始避免导致失败的举动,而青睐导致胜利的举动。有许多不同的方法可以进行此类更新,也有许多不同的方法来表示游戏状态,但这就是本书其余部分的内容。

希望这会有所帮助!

关于machine-learning - 关于估计训练值和调整权重的特定机器学习查询,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10661581/

相关文章:

python - 如何估计特定文档的查询的重要性?

python - 使用 python 和 numpy 进行梯度下降

r - 测试集中存在的训练集特征向量中看不见的值

algorithm - TSP的GA算法方法

web-scraping - 抓取网页并查找行标题

algorithm - 在 Porter Stemming 算法中,包含 SS -> SS 等身份规则的目的是什么?

machine-learning - tensorflow : how to share data across inputs?

python - 在非 Spark 环境中加载 pyspark ML 模型

swift - 如何在 Swift 中同时运行定时器和 AI 逻辑

python - 从维基百科文章中提取统计信息