Closed Yuanml1225 closed 3 years ago
那后者用于什么呢?前者已经包含了知识图谱了吧?
发自我的iPhone
------------------ 原始邮件 ------------------ 发件人: Tianxiang Sun <notifications@github.com> 发送时间: 2020年11月3日 22:25 收件人: txsun1997/CoLAKE <CoLAKE@noreply.github.com> 抄送: Yuanml1225 <331872074@qq.com>, Author <author@noreply.github.com> 主题: 回复:[txsun1997/CoLAKE] 你好我只想要你的预训练模型的word embedding该如何操作呢 (#1)
我们放出了预训练的model和entity embedding,可以只下载其中的model
— You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe.
后者包含了约30万个entity的embedding,可以用于知识图谱上的一些任务以及entity linking等知识相关的任务。前者就是一个pretrained Transformer,但包含了relation embedding
我们放出了预训练的model和entity embedding,可以只下载其中的model