neural-network - 辍学实现 : Do all images in a batch get the same mask in Caffe?

标签 neural-network deep-learning caffe

我只是想确认小批量中的所有图像是否都具有相同的 dropout mask。

澄清一下:假设一个大小为 1000 的向量通过 Dropout 层,最小批量大小为 100。 现在,第一个图像向量的第 21 个和第 31 个元素被丢弃。 对于批处理中所有剩余的 99 张图像,是否有必要删除第 21 个和第 31 个元素?还是每个图像都有一个单独的 mask ?

最佳答案

不,批处理中的每张图像都有一个独立的、完全随机的蒙版。

实际上,Dropout layer甚至不关心其输入的形状:它计算底部 Blob 中的元素数量(即对于 10 张图像、3 个 channel 和 224x224 的批量大小,它将是 10 * 3 * 224 * 224 = 1505280), 并生成相同数量的独立随机数。

关于neural-network - 辍学实现 : Do all images in a batch get the same mask in Caffe?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41669489/

相关文章:

c++ - 机器学习/openVino代码中的Zoo文件的目的是什么

python - 如何为 4d 张量中的 k 个最大元素创建一个单热张量?

machine-learning - FaceNet 傻瓜版

machine-learning - 使用我自己的网络在caffe上训练mnist :Message type "caffe.LayerParameter" has no field named "lr_mult"

machine-learning - 卷积降低一维向量的维数

python - 从顺序 Keras 模型中保存特定层

python - 使用 TensorFlow 从 Google Drive 下载时出现 HTTP 错误

python - 针对特定情况实现 SmoothL1Loss

python - 使用 Python 为 NVIDIA Digit 创建训练/验证 LMDB

machine-learning - 为什么在 Caffe 的示例中要交换 RGB channel ?