txsun1997 / CoLAKE

COLING'2020: CoLAKE: Contextualized Language and Knowledge Embedding
https://aclanthology.org/2020.coling-main.327/
MIT License
114 stars 17 forks source link

你好我只想要你的预训练模型的word embedding该如何操作呢 #1

Closed Yuanml1225 closed 3 years ago

txsun1997 commented 3 years ago

我们放出了预训练的modelentity embedding,可以只下载其中的model

Yuanml1225 commented 3 years ago

那后者用于什么呢?前者已经包含了知识图谱了吧?

发自我的iPhone

------------------ 原始邮件 ------------------ 发件人: Tianxiang Sun <notifications@github.com> 发送时间: 2020年11月3日 22:25 收件人: txsun1997/CoLAKE <CoLAKE@noreply.github.com> 抄送: Yuanml1225 <331872074@qq.com>, Author <author@noreply.github.com> 主题: 回复:[txsun1997/CoLAKE] 你好我只想要你的预训练模型的word embedding该如何操作呢 (#1)

我们放出了预训练的model和entity embedding,可以只下载其中的model

— You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe.

txsun1997 commented 3 years ago

后者包含了约30万个entity的embedding,可以用于知识图谱上的一些任务以及entity linking等知识相关的任务。前者就是一个pretrained Transformer,但包含了relation embedding