machine-learning - 使用小批量训练时如何加快神经网络的训练速度?

标签 machine-learning neural-network

如果训练涉及小批量,谁能给我一些关于加速多层人工神经网络训练过程的可能技术的想法?

到目前为止,我知道随机训练可能会导致更快的收敛,但是,如果我们必须使用小批量训练,有什么方法可以使收敛更快吗?

(相关论文的一些提示也会有所帮助!)

谢谢!

最佳答案

就一般技巧而言,您可能希望在编写神经网络时使用 GPU;它们极大地提高了速度和性能。请参阅http://web.stanford.edu/~acoates/papers/CoatesHuvalWangWuNgCatanzaro_icml2013.pdf

就机器学习而言,更好的权重初始化可以带来更快的收敛。实现此目的的一种方法是无监督特征学习。请参阅http://web.stanford.edu/~acoates/papers/CoatesLeeNg_nips2010_dlwkshp_singlelayer.pdf

关于machine-learning - 使用小批量训练时如何加快神经网络的训练速度?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24556833/

相关文章:

machine-learning - 将用户资料与就业机会相匹配

c# - 完全基于实体相似性的无监督聚类

python - 如何使用 Keras 可视化神经网络架构?

python - 具有不同 k-hot 编码向量的 LSTM

architecture - 时间序列预测 LSTM 神经网络的正确架构是什么?

python - Keras:获取 fit_generator (verbose=1) 显示的不同值和历史对象中的指标

python - 评估 SMOTE 和 RandomUnderSampling 不同策略

r - 与游侠的重要性不同

neural-network - Style Transfer 和 GAN 之间的关系是什么?

neural-network - 根据 caffe 中的 "badness"缩放损失值