tensorflow - 使用附加数据重新训练现有的基本 BERT 模型

标签 tensorflow bert-language-model tensorflow-hub

我使用 cased_L-12_H-768_A-12 生成了新的 Base BERT 模型(dataset1_model_cased_L-12_H-768_A-12)作为来自 biobert-run_classifier 的训练多标签分类

我需要添加更多额外数据作为dataset2,模型应该是dataset2_model_cased_L-12_H-768_A-12

tensorflow-hub帮助解决我的问题?

模型训练生命周期如下图,

cased_L-12_H-768_A-12 => dataset1 => dataset1_model_cased_L-12_H-768_A-12

dataset1_model_cased_L-12_H-768_A-12 => dataset2 => dataset2_model_cased_L-12_H-768_A-12

最佳答案

Tensorflow Hub 是一个用于共享预训练模型片段或整个模型的平台,以及一个促进这种共享的 API。在 TF 1.x 中,此 API 是一个独立的 API,而在 TF 2.x 中,此 API(SavedModel:https://www.tensorflow.org/guide/saved_model)是核心 TF API 的一部分。

在建议的训练生命周期示例中,使用 SavedModel 在训练步骤之间保存相关模型可以简化流水线架构设计。或者,您可以使用作为 TF 模型花园的一部分提供的编码示例来执行此预训练:https://github.com/tensorflow/models/tree/master/official/nlp .

关于tensorflow - 使用附加数据重新训练现有的基本 BERT 模型,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62948266/

相关文章:

python - 无法写入 TensorArray 索引,因为值形状与 TensorArray 的推断元素形状不兼容

tensorflow - tflite 转换器错误操作不支持

python-3.x - RuntimeError : Given groups=3, 大小为 12 64 3 768 的权重,预期输入 [32, 12, 30, 768] 有 192 个 channel ,但得到了 12 个 channel

python - 如何访问 TF Hub 模块中的 BERT 中间层输出?

python - 在 sagemaker 上的 tensorflow 上接收错误,因为输入必须是向量,形状为 : [1, 2]

python - Tensorflow 重新训练.py tensorflow.python.framework.errors_impl.FailedPreconditionError

tensorflow - Keras - fit_generator 中的 class_weight 与 sample_weights

tensorflow - 在 tensorflow 中将单词剥离为其组成字符

machine-learning - tensorflow 中的多热编码(谷歌云机器学习,tf estimator api)

machine-learning - BERT 的表现比 word2vec 差