python - 在 Tensorflow 2.0 上使用 tf.data.Dataset 和 Keras 输入层

标签 python tensorflow keras tensorflow2.0

我正在试验 TensorFlow 2.0 alpha,我发现它在使用 Numpy 数组时按预期工作,但在 tf.data.Dataset<使用时,出现输入尺寸错误。我使用 iris 数据集作为最简单的示例来演示这一点:

from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler, OneHotEncoder

import tensorflow as tf
from tensorflow.python import keras

iris = datasets.load_iris()

scl = StandardScaler()
ohe = OneHotEncoder(categories='auto')
data_norm = scl.fit_transform(iris.data)
data_target = ohe.fit_transform(iris.target.reshape(-1,1)).toarray()
train_data, val_data, train_target, val_target = train_test_split(data_norm, data_target, test_size=0.1)
train_data, test_data, train_target, test_target = train_test_split(train_data, train_target, test_size=0.2)


train_dataset = tf.data.Dataset.from_tensor_slices((train_data, train_target))
train_dataset.batch(32)

test_dataset = tf.data.Dataset.from_tensor_slices((test_data, test_target))
test_dataset.batch(32)

val_dataset = tf.data.Dataset.from_tensor_slices((val_data, val_target))
val_dataset.batch(32)

mdl = keras.Sequential([
    keras.layers.Dense(16, input_dim=4, activation='relu'),
    keras.layers.Dense(8, activation='relu'),
    keras.layers.Dense(8, activation='relu'),
    keras.layers.Dense(3, activation='sigmoid')]
)

mdl.compile(
    optimizer=keras.optimizers.Adam(0.01),
    loss=keras.losses.categorical_crossentropy,
    metrics=[keras.metrics.categorical_accuracy]
    )

history = mdl.fit(train_dataset, epochs=10, steps_per_epoch=15, validation_data=val_dataset)

我收到以下错误:

ValueError: Error when checking input: expected dense_16_input to have shape (4,) but got array with shape (1,)

假设数据集只有一维。如果我通过 input_dim=1 我会得到一个不同的错误:

InvalidArgumentError: Incompatible shapes: [3] vs. [4]
     [[{{node metrics_5/categorical_accuracy/Equal}}]] [Op:__inference_keras_scratch_graph_8223]

在具有 Tensorflow 2.0Keras 模型上使用 tf.data.Dataset 的正确方法是什么?

最佳答案

一些更改应该可以修复您的代码。 batch() 数据集转换不会就地进行,因此您需要返回新的数据集。其次,您还应该添加一个 repeat() 转换,以便数据集在看到所有数据后继续输出示例。

...

train_dataset = tf.data.Dataset.from_tensor_slices((train_data, train_target))
train_dataset = train_dataset.batch(32)
train_dataset = train_dataset.repeat()

val_dataset = tf.data.Dataset.from_tensor_slices((val_data, val_target))
val_dataset = val_dataset.batch(32)
val_dataset = val_dataset.repeat()
...

您还需要在 model.fit() 函数中添加 validation_steps 参数:

history = mdl.fit(train_dataset, epochs=10, steps_per_epoch=15, validation_data=val_dataset, validation_steps=1)

对于您自己的数据,您可能需要调整验证数据集的batch_sizevalidation_steps,以便验证数据在每个步骤中仅循环一次。

关于python - 在 Tensorflow 2.0 上使用 tf.data.Dataset 和 Keras 输入层,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55961894/

相关文章:

python - 消除嵌套循环

python - 基于 Pandas 中特殊字符分隔列中的每个项目进行聚合

tensorflow - 如何构建一个从输出到下一个输入有大量额外循环的 RNN 模型?

python - 如何将本地数据加载到我的tensorflow/keras-model中?

python - 使用 Clang 绑定(bind)提取类型字符串

python - 类方法的并行执行

python - Tensorflow:如何在新图中使用预训练权重?

python - 在 Keras/TensorFlow 中使用纯 numpy 指标作为指标

tensorflow - CNN 在 keras 中具有多个 conv3d

python - 用于多数字识别的 Keras