jungwoo-ha / WeeklyArxivTalk

[Zoom & Facebook Live] Weekly AI Arxiv 시즌2
973 stars 41 forks source link

[20210620] Weekly AI ArXiv 만담 #14

Closed jungwoo-ha closed 2 years ago

jungwoo-ha commented 3 years ago
nick-jhlee commented 3 years ago
veritas9872 commented 3 years ago

Knowledge distillation: A good teacher is patient and consistent https://arxiv.org/abs/2106.05237 Google Research에서 Knowledge Distillation을 사용할 때 어떤 요소가 중요한지 분석해준 실험 논문입니다. Knowledge Distillation은 많이 사용되는 만큼 어떻게 할때 잘 되는지 알면 도움이 많이 될 것 같습니다.

Efficient Deep Learning: A Survey on Making Deep Learning Models Smaller, Faster, and Better https://arxiv.org/abs/2106.08962 제목 그대로 딥러닝을 더 효율적으로 학습하고 inference하는 방법들을 한군데에 정리한 Google Research의 리뷰 페이퍼입니다. 대부분 한번쯤 들어보셨을 내용이지만 한군데에 정리되어 있다는게 도움이 되어 공유합니다.

hollobit commented 3 years ago

4차 산업혁명 시대, 인공지능(AI)과 빅데이터 분야 표준화 시급 - 국가기술표준원

보건의료 데이터‧인공지능 혁신전략(’21~’25년) 수립 - 보건복지부 (6/3)

G7 보건의료 관계장관회의 성명 요약 (6/4)

AI can now convincingly mimic cybersecurity experts and medical researchers

인공지능 육성 및 신뢰 기반 조성 등에 관한 법률안 입법공청회 (6/18)

hollobit commented 3 years ago

Data-Centric AI Competition https://https-deeplearning-ai.github.io/data-centric-comp/