nlp - 拥抱脸 pytorch 变压器 : how to initialize embeddings with certain values?

标签 nlp huggingface-transformers

我正在微调来自 huggingface 的 bert 模型.有没有办法手动设置某个词块的初始嵌入?例如使单词“dog”的初始嵌入等于 torch.ones(768) .谢谢!

最佳答案

您可以设置 BertModel 的输入嵌入:get_input_embeddings()

您需要知道词汇表中的词片索引,并且可以更改嵌入矩阵中的相应行。

关于nlp - 拥抱脸 pytorch 变压器 : how to initialize embeddings with certain values?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57581587/

相关文章:

nlp - 寻找有效的 NLP Phrase Embedding 模型

python - BertForSequenceClassification 是否对 CLS 向量进行分类?

自然语言处理 : Get 5 best candidates from QuestionAnsweringPipeline

python - Tensorflow 2.0 拥抱人脸变压器、TFBertForSequenceClassification、推理中意外的输出维度

python - Huggingface Transformer - GPT2 从保存的检查点恢复训练

python - 如何在 Transformers 库中截断 Bert 分词器

time-series - 为什么要采用 HuggingFace 的第一个隐藏状态进行序列分类(DistilBertForSequenceClassification)

nlp - 斯坦福CoreNLP : Why multiple roots for SemanticGraph (e. g。依赖解析)

命名实体的 Python 自然语言处理

python - word2vec_basic 输出 : trying to test word similarity versus human similarity scores