-
### Your current environment
The output of `python collect_env.py`
```
Collecting environment information...
Traceback (most recent call last):
File "/home/kojoe/EasyAnimate/easyanimate/i…
-
![image](https://github.com/YoojLee/paper_review/assets/52986798/1fd311e0-fa81-4b5c-a152-26fc4eb1e397)
## Summary
기존의 CLIP-like VLM의 prompt를 few labeled images로 tuning하여 transferability를 개선한 CoOp …
-
![image](https://github.com/YoojLee/paper_review/assets/52986798/5fd58c1e-e243-42b7-afa5-ea8c35404e15)
## Summary
VLM은 prompting을 통해 zero-shot transfer가 가능해진다는 장점이 있음. 그러나, 효과적인 zero-shot transfer…
-
- https://arxiv.org/abs/2109.12178
- 2021
視覚と言語の事前学習(VLP)は,画像やテキストの入力を必要とする下流のタスクのモデル性能を向上させる.
現在のVLPアプローチは、
(i)モデルアーキテクチャ(特に画像エンベッダー)、
(ii)損失関数、
(iii)マスキングポリシーによって異なります。
画像エンベッダーは、ResNet…
e4exp updated
3 years ago
-
A significant achievement in aligning Vision-Language Models!
While running the code 'RLAIF-V/muffin/train/train_llava15.py', I noticed that all model parameters are trainable. Due to hardware limi…
-
An Introduction to Vision-Language Modeling
https://arxiv.org/abs/2405.17247
-
SUMMARY:
- [x] Avoid full pass through the model for quantization modifier
- [x] Data free `oneshot`
- [x] Runtime of GPTQ with large models – how to do a 70B model?
- [x] Runtime of GPTQ with act…
-
- https://arxiv.org/abs/2101.00529
- CVPR 2021
本論文では、視覚言語(VL)タスクのための視覚表現の改善に関する詳細な研究を行い、画像のオブジェクト中心の表現を提供するために、改良されたオブジェクト検出モデルを開発しました。
このモデルは、最も広く使われているモデルである ˶‾᷄ -̫ ‾᷅˵ "Bottom-up and top-down"…
e4exp updated
3 years ago
-
### Feature Name
MiniCPM-v2.5
### Feature Description
Research about MiniCPM-v2.5
### Research Findings
MiniCPM-v2.5 is a Chinese language model developed by the Beijing Academy of Artificial Int…
-
Hello,
I have been facing a weird issue, here is my setup:
----------------------------------------------------------------------------------------------------
| Required Info …