machine-learning - 机器学习 - 故意过度拟合数据集

标签 machine-learning neural-network artificial-intelligence

我最近学习了机器学习,并且正在开发一个井字棋引擎,该引擎可以预测给定井字棋位置(或棋盘状态)的最佳 Action 作为我的第一个项目。我用蛮力创建了 3 x 3 棋盘的所有可能位置(不包括已完成和重复的游戏),并得到了 4520 不同的可能位置。然后我使用 MinMax 找出每个位置的最佳 Action 。现在我想为这些数据拟合一个模型以达到最大的准确性。我想到的是:

Since I have all possible positions, why don't I train the model on the whole set (So there won't be a test set), and use a complicated neural network to overfit the data and get 100% accuracy, then it will also be 100% accurate in practical use since it won't encounter any new positions.

问题是,我注意到人们总是将过度拟合视为一件坏事,所以我的问题是:这是一个好的做法吗?为什么它好或不好?

最佳答案

当您希望模型泛化到新数据时,过度拟合就会出现问题。在您的情况下,没有新数据,因此过度拟合不是问题。

但是,这并不是机器学习通常的用途,在大多数情况下,泛化才是重点,这就是为什么我们竭尽全力避免过度拟合。

关于machine-learning - 机器学习 - 故意过度拟合数据集,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56916437/

相关文章:

python - Python 中的归一化互相关

python - 使用 sklearn 找出错误率

python - 如何选择 tf.keras 模型隐藏层输出神经元的值?

machine-learning - 如何在caffe中将hdf5格式转换为caffemodel格式?

javascript - 是否有像15个谜题一样无法解决的8个谜题

machine-learning - 有没有办法在 python (sklearn/keras) 中使用余弦相似度而不是点积

java - 神经网络错误趋势

python - tensorflow/keras 神经网络中的复杂输入/输出是可能的吗?

algorithm - 树搜索算法(从边缘/队列中删除前面的节点-目标测试-扩展)

python - "FFMPEG Binary Not Found" python