Open zchen0420 opened 2 months ago
EMNLP 2021
借助已有的知识去解决复杂的问题:case-based reasoning (CBR) CBR-KBQA:a nonparametric memory存储cases (问题和logical forms) + a parametric model
数学拟合/状态机
像U-Net
2024.4 | MIT, CIT, NEU, and NSF Institute | 视频 结偶复杂函数(多元近似单元合成:精确解、解析解;小波变换,样条插值)
对比feature:
2015 | Geoffrey Hinton, Oriol Vinyals, and Jeff Dean | Google
Distillation: 🐛→🪲(原因:幼虫为成虫提供了很强适应性)🧑🏫→🧑🎓(老师不仅教课本的知识,还有自己的内化和感受。学生不是直接接触第一手的01世界,而是老师处理过的、包含更多信息的soft target。)
18年当时我老想着改softmax,但是Hinton却利用现有softmax形成两层的知识结构。巧妙。
【再度一遍看看公式和实验细节】
选取200个Word Usage(句子),标注他们之间的远近程度并训练模型泛化这个距离。
概率和条件概率之间的差: $KL(w) := KL(p(\cdot|w)||p(\cdot))$ LIME for BERT
Zhuoyuan Mao
[LEALLA: Learning Lightweight Language-agnostic Sentence Embeddings with Knowledge Distillation] 句子对齐:句子之间的相似度;把LaBSE蒸馏进更小的LEALLA中。
When do Contrastive Word Alignments Improve Many-to-many Neural Machine Translation? 在MT的loss中加入(对比式)word alignment作为joint task
Exploring the Impact of Layer Normalization for Zero-shot Neural Machine Translation Pre和post LN的影响,pre泛化能力不足,所以0-shot不好。
What We Know About The Voynich Manuscript