Closed tonyqtian closed 4 years ago
你好,我发现K-bert目前的entity linking的方式比较直接,并不会对有多种含义的实体进行区别,在实际使用过程中这往往会带来噪声,特别是一些大的知识库,有高频词带低频标签的情况。 比如用到过一个百科知识库里,有 舒适 → 作家名 这样的实体映射,也有大量一词多义的现象,单纯从word matching选择实体很容易将大量的噪声带入。 在实际使用中我发现特别是inference过程,大量是因为这类噪声知识的引入,反而让模型错判。
1 针对目前直接查表的entity linking,请问有没有合适的降噪思路? 2 我看到作者提到“知识驱动”型任务,在微观层面是对每个识别的实体判断是否需要引入知识,请问这方面有没有什么思路或者可以借鉴的前沿研究可以参考? 比如早年比较火的attention机制,有没有可能引入类似selective attention的方法,来判断实体是否应该挂载知识以及挂载哪个知识,这类思路和k-bert的知识挂载方式有没有结合点?
你好,正如你所说,在entity linking中因一词多义等原因引入的噪声是一个亟待解决的问题。如你所说,使用attention机制给每个候选entity打分是一个方法,目前我们还在尝试,不久将会推出K-BERT2.0,将会比当前版本的K-BERT鲁棒性更好,欢迎关注哈。
你好,我发现K-bert目前的entity linking的方式比较直接,并不会对有多种含义的实体进行区别,在实际使用过程中这往往会带来噪声,特别是一些大的知识库,有高频词带低频标签的情况。 比如用到过一个百科知识库里,有 舒适 → 作家名 这样的实体映射,也有大量一词多义的现象,单纯从word matching选择实体很容易将大量的噪声带入。 在实际使用中我发现特别是inference过程,大量是因为这类噪声知识的引入,反而让模型错判。 1 针对目前直接查表的entity linking,请问有没有合适的降噪思路? 2 我看到作者提到“知识驱动”型任务,在微观层面是对每个识别的实体判断是否需要引入知识,请问这方面有没有什么思路或者可以借鉴的前沿研究可以参考? 比如早年比较火的attention机制,有没有可能引入类似selective attention的方法,来判断实体是否应该挂载知识以及挂载哪个知识,这类思路和k-bert的知识挂载方式有没有结合点?
你好,正如你所说,在entity linking中因一词多义等原因引入的噪声是一个亟待解决的问题。如你所说,使用attention机制给每个候选entity打分是一个方法,目前我们还在尝试,不久将会推出K-BERT2.0,将会比当前版本的K-BERT鲁棒性更好,欢迎关注哈。
您好,我想最近沿着您的Kbert在1.具有不同实体名的相同实体识别(目前kbert还是基于分词,字符级别上匹配实体)2.具有多关系的实体,不能主动选择插入具有帮助性的三元组 两个问题上做一些改进,不知道会和您的Kbert2.0冲突吗?谢谢
你好,我发现K-bert目前的entity linking的方式比较直接,并不会对有多种含义的实体进行区别,在实际使用过程中这往往会带来噪声,特别是一些大的知识库,有高频词带低频标签的情况。 比如用到过一个百科知识库里,有 舒适 → 作家名 这样的实体映射,也有大量一词多义的现象,单纯从word matching选择实体很容易将大量的噪声带入。 在实际使用中我发现特别是inference过程,大量是因为这类噪声知识的引入,反而让模型错判。 1 针对目前直接查表的entity linking,请问有没有合适的降噪思路? 2 我看到作者提到“知识驱动”型任务,在微观层面是对每个识别的实体判断是否需要引入知识,请问这方面有没有什么思路或者可以借鉴的前沿研究可以参考? 比如早年比较火的attention机制,有没有可能引入类似selective attention的方法,来判断实体是否应该挂载知识以及挂载哪个知识,这类思路和k-bert的知识挂载方式有没有结合点?
你好,正如你所说,在entity linking中因一词多义等原因引入的噪声是一个亟待解决的问题。如你所说,使用attention机制给每个候选entity打分是一个方法,目前我们还在尝试,不久将会推出K-BERT2.0,将会比当前版本的K-BERT鲁棒性更好,欢迎关注哈。
您好,我想最近沿着您的Kbert在1.具有不同实体名的相同实体识别(目前kbert还是基于分词,字符级别上匹配实体)2.具有多关系的实体,不能主动选择插入具有帮助性的三元组 两个问题上做一些改进,不知道会和您的Kbert2.0冲突吗?谢谢
不会冲突哈,就算思路接近,实现细节也会不同。欢迎一起努力将结构化知识注入到NLP模型中,一起把这个方向做的更完善。
你好,我发现K-bert目前的entity linking的方式比较直接,并不会对有多种含义的实体进行区别,在实际使用过程中这往往会带来噪声,特别是一些大的知识库,有高频词带低频标签的情况。 比如用到过一个百科知识库里,有 舒适 → 作家名 这样的实体映射,也有大量一词多义的现象,单纯从word matching选择实体很容易将大量的噪声带入。 在实际使用中我发现特别是inference过程,大量是因为这类噪声知识的引入,反而让模型错判。 1 针对目前直接查表的entity linking,请问有没有合适的降噪思路? 2 我看到作者提到“知识驱动”型任务,在微观层面是对每个识别的实体判断是否需要引入知识,请问这方面有没有什么思路或者可以借鉴的前沿研究可以参考? 比如早年比较火的attention机制,有没有可能引入类似selective attention的方法,来判断实体是否应该挂载知识以及挂载哪个知识,这类思路和k-bert的知识挂载方式有没有结合点?
你好,正如你所说,在entity linking中因一词多义等原因引入的噪声是一个亟待解决的问题。如你所说,使用attention机制给每个候选entity打分是一个方法,目前我们还在尝试,不久将会推出K-BERT2.0,将会比当前版本的K-BERT鲁棒性更好,欢迎关注哈。
您好,我想最近沿着您的Kbert在1.具有不同实体名的相同实体识别(目前kbert还是基于分词,字符级别上匹配实体)2.具有多关系的实体,不能主动选择插入具有帮助性的三元组 两个问题上做一些改进,不知道会和您的Kbert2.0冲突吗?谢谢
不会冲突哈,就算思路接近,实现细节也会不同。欢迎一起努力将结构化知识注入到NLP模型中,一起把这个方向做的更完善。
好的谢谢~
你好,我发现K-bert目前的entity linking的方式比较直接,并不会对有多种含义的实体进行区别,在实际使用过程中这往往会带来噪声,特别是一些大的知识库,有高频词带低频标签的情况。 比如用到过一个百科知识库里,有 舒适 → 作家名 这样的实体映射,也有大量一词多义的现象,单纯从word matching选择实体很容易将大量的噪声带入。 在实际使用中我发现特别是inference过程,大量是因为这类噪声知识的引入,反而让模型错判。 1 针对目前直接查表的entity linking,请问有没有合适的降噪思路? 2 我看到作者提到“知识驱动”型任务,在微观层面是对每个识别的实体判断是否需要引入知识,请问这方面有没有什么思路或者可以借鉴的前沿研究可以参考? 比如早年比较火的attention机制,有没有可能引入类似selective attention的方法,来判断实体是否应该挂载知识以及挂载哪个知识,这类思路和k-bert的知识挂载方式有没有结合点?
你好,正如你所说,在entity linking中因一词多义等原因引入的噪声是一个亟待解决的问题。如你所说,使用attention机制给每个候选entity打分是一个方法,目前我们还在尝试,不久将会推出K-BERT2.0,将会比当前版本的K-BERT鲁棒性更好,欢迎关注哈。
谢谢,期待k-bert2.0
你好,我发现K-bert目前的entity linking的方式比较直接,并不会对有多种含义的实体进行区别,在实际使用过程中这往往会带来噪声,特别是一些大的知识库,有高频词带低频标签的情况。 比如用到过一个百科知识库里,有 舒适 → 作家名 这样的实体映射,也有大量一词多义的现象,单纯从word matching选择实体很容易将大量的噪声带入。 在实际使用中我发现特别是inference过程,大量是因为这类噪声知识的引入,反而让模型错判。
1 针对目前直接查表的entity linking,请问有没有合适的降噪思路? 2 我看到作者提到“知识驱动”型任务,在微观层面是对每个识别的实体判断是否需要引入知识,请问这方面有没有什么思路或者可以借鉴的前沿研究可以参考? 比如早年比较火的attention机制,有没有可能引入类似selective attention的方法,来判断实体是否应该挂载知识以及挂载哪个知识,这类思路和k-bert的知识挂载方式有没有结合点?