失效链接处理 |
transformers 操作?PDF 下蝲
相关截图Q?/strong>
![]() 主要内容Q?/strong> 1. 如何 利用 transformers 加蝲 Bert 模型Q?/strong>
2. 如何 利用 transformers 输出 Bert 指定 hidden_stateQ?/strong>
Bert 默认?十二层,但是有时候预训练时ƈ不需要利用全部利用,而只需要预训练前面几层?/span>
可,此时该怎么做呢Q?/span>
下蝲?/span>bert-base-uncased的模型目录里面包?配置文g config.json, 该文件中包含
output_hidden_statesQ可以利用该参数来设|?~码器内隐藏层层?/span>
|