python - PyTorch 的 `no_grad` 函数在 TensorFlow/Keras 中的等价物是什么?

标签 python tensorflow keras pytorch

在编写机器学习模型时,我发现自己需要计算指标,或者为了可视化目的在回调中运行额外的前向传递。在 PyTorch 中,我使用 torch.no_grad() 执行此操作,这会阻止计算梯度,因此这些操作不会影响优化。

  1. 此机制在 TensorFlow/Keras 中如何运作?
  2. Keras 模型是可调用的。所以,像 model(x) 这样的东西是可能的。但是,也可以说 model.predict(x),它似乎也调用了 call。两者有区别吗?

最佳答案

tensorflow 等效项为 tf.stop_gradient

另外不要忘记,Keras 在使用预测时不会计算梯度(或者只是通过 __call__ 调用模型)。

关于python - PyTorch 的 `no_grad` 函数在 TensorFlow/Keras 中的等价物是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/67385963/

相关文章:

python - 在Python MySQLdb中抑制cursor.execute()消息

Python 和 pymysql - 无法通过 MySQL 执行系统命令

python - 如何触发值(value)变化的功能?

python - "list assignment index out of range"与 numpy.histogram

tensorflow - 为什么我们需要 tf.convert_to_tensor?

tensorflow - 我需要在tensorflow和numpy之间切换吗?

python - 如何检查当前tensorflow版本是否至少是python脚本中的特定版本?

python - Keras中这两种添加神经网络层的方式有什么区别?

python - 在 Google Cloud Platform 中读取存储桶中 Keras ML 训练的批量数据的理想方法是什么?

python - 如何在keras神经网络中正确设置input_shape?