tensorflow - 即使在训练后量化后也是 "Model not quantized"

标签 tensorflow tensorflow-lite google-coral

我从 Custom Vision 下载了一个 tensorflow 模型,并想在 Coral tpu 上运行它。因此,我将其转换为 TensorFlow-lite 并应用混合训练后量化(据我所知,这是唯一的方法,因为我无法访问训练数据)。 您可以在此处查看代码:https://colab.research.google.com/drive/1uc2-Yb9Ths6lEPw6ngRpfdLAgBHMxICk 当我尝试为 Edge tpu 编译它时,我得到以下结果:

    Edge TPU Compiler version 2.0.258810407
    INFO: Initialized TensorFlow Lite runtime.
    Invalid model: model.tflite
    Model not quantized

知道我的问题是什么吗?

最佳答案

tflite 模型未使用 converter.optimizations = [tf.lite.Optimize.OPTIMIZE_FOR_SIZE] 进行完全量化。您可能会使用表示数据集查看训练后全整数量化:https://www.tensorflow.org/lite/performance/post_training_quantization#full_integer_quantization_of_weights_and_activations只需调整您的生成器函数即可生成代表性样本(例如,相似的图像,您的图像分类网络应预测的内容)。很少的图像就足以让转换器识别最小值和最大值并量化您的模型。但是,与量化感知学习相比,您的准确性通常较低。

关于tensorflow - 即使在训练后量化后也是 "Model not quantized",我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57447933/

相关文章:

python - 使用 tensorflow 进行语义分割 - 损失函数中的 ValueError (sparse-softmax)

python - ValueError : Cannot set tensor: Dimension mismatch. 得到 3 但预期输入 0 为 4

tensorflow - 有没有办法在不使用 tensorflow 中的转置函数的情况下转置张量?

python - Google EdgeTPU 无法让 PWM 与 Python 配合使用

tensorflow - reshape tensorflow 输出张量

python - tensorflow 2.0.0 中 tf.one_hot 的等价物是什么

python - Tensorflow:如何替换计算图中的节点?

python - 调试 tensorflow 单元测试

tensorflow - 在其他平台(如 Linux)上构建 tensorflow lite

linux - Coral 开发板 hdmi arc 输入/输出错误