Open Kosei1227 opened 3 days ago
I haven't tried translation models for the Encoder, but someone else have. Please check https://github.com/kaistAI/LangBridge/issues/9 . They also found that NLLB doesn't perform well.
Also do note that smaller Encoder models will not perform well. Check Appendix D.2.
Hi! Thank you so much with your informative reply. NLLB is a great encoder but I doubt whether NLLB is capable of producing soft-prompts. Do you have any theoretical and experimental ideas why NLLB won't work in LangBridge?
Thank you
I don't have a clear answer for that.
My speculation is that the output representation of NLLB encoder might not be as language agnostic as mT5. mT5 was trained with completely unlabeled multilingual data, so the output representation is naturally language agnostic.
I'm not sure if the same holds for NLLB, since when NLLB was trained, you would explicitly tell the model what the input language is with language tokens. I'm quite sure that will deter the encoder from forming a language agnostic feature at the output.
But again, this is just my speculation and I don't have clear evidence of it.
Hi, based on my understanding, we can extend the LangBridge approach to the seq2seq models which have {model_name}EncoderModel in HuggingFace. However, how about seq2seq models which only have general models such as m2m100 and nllb-200?
I implemented the NLLBModeling from scratch.
The results after LangBridge on NLLB-200 were terrible. It doesn't even output readable sentences. Question: A basket contains 25 oranges among which 1 is bad, 20% are unripe, 2 are sour and the rest are good. How many oranges are good? Response: paa family צריך ukatsti family צריךတို့သည်ikisaant family צריךတို့သည်တို့သည်တို့သည်яў the family צריךတို့သည်တို့သည်တို့သည် т family צריךတို့သည်يىن צריךတို့သည်တို့သည် su family צריךတို့သည်တို့သည်яў ukatsti d valor ukatsti family צריךတို့သည်ikisaant family צריךတို့သည်တို့သည်яў the family צריךတို့သည်တို့သည် т family צריךတို့သည်يىن צריךတို့သည်တို့သည် su family צריךတို့သည်яў ukatsti dण्ड ukatsti family צריךတို့သည်ikisaant family צריךတို့သည်яў the family צריךတို့သည် т family צריךတို့သည်يىن צריךတို့သည်တို့သည် su family צריך tout ukatsti d 지원 ukatsti family צריךတို့သည်ikisaant family צריך tout the family צריך т family צריךတို့သည်يىن צריךတို့သည်တို့သည် su familyတို့သည်яў ukatsti d dद्धन् hokன்00 family צריךတို့သည်တို့သည်တို့သည် А family צריךတို့သည်တို့သည် А family צריךတို့သည် А familyတို့သည် su family צריך צריך צריךတို့သည်яў ئ kol ukatsti dरे family צריך צריך צריךတို့သည် dக்க Fran thepaa family צריך צריך צריךတို့သည်يىن צריך צריך צריךတို့သည်يىن צריך צריך צריךတို့သည် family צריך צריך צריךတို့သည်يىن צריך צריך צריךတို့သည် family צריך צריך צריךတို့သည်يىن צריך צריך צריךတို့သည် family צריך צריך צריךတို့သည်يىن צריך צריך צריךတို့သည် family צריך צריך צריךတို့သည်يىن צריך צריך צריךတို့သည် family צריך צריך צריךတို့သည်يىن צריך צריך צריךတို့သည် family צריך צריך צריךတို့သည်يىن צריך צריך צריךတို့သည် family צריך צריך צריךတို့သည်يىن צריך צריך צריךတို့သည် family צריך צריך צריךတို့သည်يىن צריך צריך צריךတို့သည် family צריך צריך צריךတို့သည်يىن צריך צריך צריךတို့သည် family צריך צריך צריךတို့သည်يىن צריך צריך צריךတို့သည် family צריך צריך צריךတို့သည်يىن צריך צריך צריךတို့သည် family צריך צריך צריךတို့သည်يىن צריך צריך צריךတို့သည် family צריך צריך צריךတို့သည်يىن צריך צריך צריךတို့သည် family צריך צריך צריךတို့သည်يىن צריך צריך צריךတို့သည် family
Have authors ever tried to implement LangBridge on other models? Also, I want to know by implementations we can do LangBridge even with the following short codes.