llm-jp / experiments

Issue-Only Pretrain Task Management Repository
0 stars 0 forks source link

[マルチモーダルWG] - Mamba VLMモデル学習 #81

Open daichi1207 opened 5 days ago

daichi1207 commented 5 days ago

Overview

既存のMLLM(LLaVA-phi)を教師モデルとしてSSM(Mamba)ベースのVLMへ蒸留を行います.

Details

コンポーネント LLaVA-phi (3B)
Vision Encoder openai/clip-vit-large-patch14-336
Projector mlp2x_gelu
Language Model Phi-3-mini-128k-instruct

Resources