Closed jungwoo-ha closed 3 years ago
Very Deep Graph Neural Networks Via Noise Regularisation
Do Transformers Really Perform Bad for Graph Representation?
Does Knowledge Distillation Really Work?
FedBABU: Towards Enhanced Representation for Federated Image Classification
Knowledge distillation: A good teacher is patient and consistent https://arxiv.org/abs/2106.05237 Google Research에서 Knowledge Distillation을 사용할 때 어떤 요소가 중요한지 분석해준 실험 논문입니다. Knowledge Distillation은 많이 사용되는 만큼 어떻게 할때 잘 되는지 알면 도움이 많이 될 것 같습니다.
Efficient Deep Learning: A Survey on Making Deep Learning Models Smaller, Faster, and Better https://arxiv.org/abs/2106.08962 제목 그대로 딥러닝을 더 효율적으로 학습하고 inference하는 방법들을 한군데에 정리한 Google Research의 리뷰 페이퍼입니다. 대부분 한번쯤 들어보셨을 내용이지만 한군데에 정리되어 있다는게 도움이 되어 공유합니다.
4차 산업혁명 시대, 인공지능(AI)과 빅데이터 분야 표준화 시급 - 국가기술표준원
보건의료 데이터‧인공지능 혁신전략(’21~’25년) 수립 - 보건복지부 (6/3)
G7 보건의료 관계장관회의 성명 요약 (6/4)
AI can now convincingly mimic cybersecurity experts and medical researchers
인공지능 육성 및 신뢰 기반 조성 등에 관한 법률안 입법공청회 (6/18)
Data-Centric AI Competition https://https-deeplearning-ai.github.io/data-centric-comp/