你好,我想要继续在自己的语料库上进行预训练,但是所需的词汇量比已发布的模型要大。我直接修改了"bert_config.json"中的"vocab_size",但在训练过程中遇到了以下问题,请问如何解决?
$x^1_{c0d1}x$
oxf4rvwz1#
MoxuanYang,你找到解决这个问题的方法了吗?
1条答案
按热度按时间oxf4rvwz1#
MoxuanYang,你找到解决这个问题的方法了吗?