jungwoo-ha / WeeklyArxivTalk

[Zoom & Facebook Live] Weekly AI Arxiv 시즌2
973 stars 41 forks source link

[20210502] Weekly AI Arxiv 만담 #8

Closed jungwoo-ha closed 3 years ago

jungwoo-ha commented 3 years ago

image

veritas9872 commented 3 years ago

Self-Supervised Learning과 Vision Transformer 관련 최신 논문 공유드립니다.

Facebook AI Research에서 Self-Supervised Learning을 통해 VIsion Transformer를 학습할 때 Labelled data가 없거나 매우 적더라도 explainable segmentation map을 생성하는 새로운 연구를 발표했습니다.

Labelled data를 사용하지 않고서도 interpretable segmentation map을 만들 수 있었다는 점이 연구의 가장 impacful한 부분이라고 생각됩니다.

또한, 기존의 Self-Supervised Learning보다 빠르게 수렴하는 PAWS 학습 방법 또한 발표했는데 labelled data가 적은 환경에서 학습해야 하는 분들께 도움이 될 것 같습니다.

Blog Post: https://ai.facebook.com/blog/dino-paws-computer-vision-with-self-supervised-transformers-and-10x-more-efficient-training/

DINO Paper: https://arxiv.org/abs/2104.14294 GitHub: https://github.com/facebookresearch/dino

PAWS Paper: https://arxiv.org/abs/2104.13963 PAWS GitHub: https://github.com/facebookresearch/suncet

nick-jhlee commented 3 years ago
nick-jhlee commented 3 years ago
nick-jhlee commented 3 years ago

서울대 AIIS에서 하계 인턴 모집한대요~~ (모집안내글)

hollobit commented 3 years ago

공유 하루만에 527명 넘게 좋아요를 눌렀고, 163회 이상 공유된 “ML 논문 유형들” 만평에 대한 이야기를 해봐도 좋을 것 같아요

https://www.facebook.com/groups/TensorFlowKR/permalink/1474178286256558/

nick-jhlee commented 3 years ago

Geometric Deep Learning (~Erlangen program)

jshin49 commented 3 years ago

Knowledge Neurons in Pretrained Transformers

ZeRO-Infinity: Breaking the GPU Memory Wall for Extreme Scale Deep Learning

We Need to Talk About Random Splits

Generating Datasets with Pretrained Language Models