Closed jungwoo-ha closed 3 years ago
ICML 2021 Accepted Papers (Initial) ICML 2021 페이퍼들이 나왔습니다. 다음 주 중으로 재미있어 보이는 논문 선별해 공유해드리도록 하겠습니다. https://icml.cc/Conferences/2021/AcceptedPapersInitial
CALM (feature attribution) 네이버에서 새로 나온 연구 제가 하정우님 대신해서 올려드립니다 ㅋㅋㅋ https://github.com/naver-ai/calm 아직 Arxiv에 논문은 찾지 못했지만 기존의 GradCAM의 단점을 극복할 수 있는 deep learning attrribution 연구를 기대하겠습니다.
Single Image Depth Estimation using Wavelet Decomposition (CVPR 2021) https://arxiv.org/abs/2106.02022 추억팔이 느낌으로 공유해드립니다. 대부분 비전 딥러닝은 이미지 영역에서 (아직까지는) CNN을 사용해서 학습을 진행하는데 Wavelet transform 혹은 Fourier Transform으로 다른 feature representation으로 바꾸어 학습하는 것을 생각해볼 수 있습니다. 여기에서는 사용되지 않았지만 예를 들어 Fourier Transform으로 변환한 후에 complex-valued transformer를 사용해보는 방법 또한 생각해볼 수 있습니다. 마침 PyTorch 1.8.1부터 복소수 학습 지원이 추가되었는데 혹시나 연구 주제가 필요하신 분들은 참조하시기를 ㅎㅎ
Heavy Tails in SGD and Compressibility of Overparametrized Neural Networks
Regularization in ResNet with Stochastic Depth
E(n) Equivariant Graph Neural Networks (ICML 2021)
Barlow Twins: Self-Supervised Learning via Redundancy Reduction (ICML 2021)
Graph Barlow Twins: A self-supervised representation learning framework for graphs
Chasing Sparsity in Vision Transformers: An End-to-End Exploration
Implicit Representations of Meaning in Neural Language Models (ACL 2021)
위 RL 이용한 chip design 관련 link 입니다. https://www.nature.com/articles/d41586-021-01515-9?fbclid=IwAR2m-A7IbIWAMQiddsAUJ_v6R2TCz5arnfBwbnRzUzBAB0dQClNmP5BUHaU
stochastic depth on Transformers
Reducing Transformer Depth on Demand with Structured Dropout
AI News
Arxiv