我生成了一个用于训练 RNN 的张量,输入的大小为 [batch_size, max_time_step, num_features]
,但由于多个训练样本不具有相同的 time_step
,我在末尾用零填充它们,以匹配具有该特定批处理的 max_time_step
的训练样本。然而,train_seq_len
具有一维向量[batch_size]
中每个输入样本的实际time_step
值。对于标签,它们存在于形状为[batch_size, max_label_size]
的稀疏张量中,其中小于max_label_size
的标签向量用零填充。
我的问题是针对tf.nn.ctc_loss(inputs, labels,sequence_length)
,这里需要的sequence_length
是我定义的train_seq_len
多于?或者它是label_size_len
,大小为[batch_size]
的一维向量,包含每个标签向量的label_size
?
最佳答案
sequence_length 是后者:批量大小长度向量。
关于tensorflow - 我们将哪个sequence_length用于tf.nn.ctc_loss,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42965698/