LeeSureman / Flat-Lattice-Transformer

code for ACL 2020 paper: FLAT: Chinese NER Using Flat-Lattice Transformer
1k stars 178 forks source link

请问作者如果设置self_supervised=True,chars_target这部分是什么? #52

Open Kgoeson opened 3 years ago

Kgoeson commented 3 years ago

models.py line 407 def forward(self, lattice, bigrams, seq_len, lex_num, pos_s, pos_e, target, chars_target=None):

models.py line 520 chars_target = chars_target.view(size=[batch_size*max_seq_len])

LeeSureman commented 3 years ago

原始的字序列,这个是很久以前加的一个选项了,好像没啥用,flat也没用这个

Kgoeson commented 3 years ago

原始的字序列,这个是很久以前加的一个选项了,好像没啥用,flat也没用这个

感谢您的回复,冒昧再问一句,这个字序列的输入shape是什么呀? 不胜感激。

LeeSureman commented 3 years ago

原始的字序列,这个是很久以前加的一个选项了,好像没啥用,flat也没用这个

感谢您的回复,冒昧再问一句,这个字序列的输入shape是什么呀? 不胜感激。

应该是batch * seq_len