bert 在预训练过程中遇到的错误

r7knjye2  于 5个月前  发布在  其他
关注(0)|答案(1)|浏览(38)

你好,我想要继续在自己的语料库上进行预训练,但是所需的词汇量比已发布的模型要大。我直接修改了"bert_config.json"中的"vocab_size",但在训练过程中遇到了以下问题,请问如何解决?

$x^1_{c0d1}x$

oxf4rvwz

oxf4rvwz1#

MoxuanYang,你找到解决这个问题的方法了吗?

相关问题