jungwoo-ha / WeeklyArxivTalk

[Zoom & Facebook Live] Weekly AI Arxiv 시즌2
973 stars 41 forks source link

[20220515] Weekly AI ArXiv 만담 - 51회차 #51

Closed jungwoo-ha closed 2 years ago

jungwoo-ha commented 2 years ago

News

ghlee0304 commented 2 years ago

Arxiv

kimyoungdo0122 commented 2 years ago

News

veritas9872 commented 2 years ago

Better plain ViT baselines for ImageNet-1k

Arxiv: https://arxiv.org/pdf/2205.01580.pdf GitHub: https://github.com/google-research/big_vision/tree/main/big_vision

ViT 학습이 기존 통념보다 잘 된다고 합니다. 기존 CNN에 사용하던 테크닉 없이 단순한 학습 방법을 적용했을 때 오히려 ViT 모델이 성능이 더 좋다는 구글의 연구 결과입니다. ViT 모델이 문제없이 ImageNet top-1 80%를 300 epoch 만에 찍는 것을 보여줍니다. 결론은 너무 어렵게 생각하지 말자는 것...

Screenshot (52)

Screenshot (53)

CoCa: Contrastive Captioners are Image-Text Foundation Models

Screenshot (54)

ImageNet 새로운 SOTA가 등장했습니다. 구글에서 Image to Text 모델을 학습한 결과 모든 라벨을 text 형태로 촐력하게 하여 zero-shot accuracy 86.3%와 fine-tuning 결과 91.0%라는 SOTA를 세웠습니다. ~결론은 역시 돈 많은 자가 승리한다는 것...~

Screenshot (56)

이번 주는 너무 새로 나온 내용이 많아서 Yannic Kilcher의 YouTube 공유해드립니다.

ML News Part 1: https://www.youtube.com/watch?v=pwSnC8jlh50 ML News Part 2: https://www.youtube.com/watch?v=smUHQndcmOY

veritas9872 commented 2 years ago

Tensorboard / W&B 대신 사용할 수 있는 AimStack 공유해드립니다. https://aimstack.io/ W&B와는 다르게 오픈소스입니다!