jungwoo-ha / WeeklyArxivTalk

[Zoom & Facebook Live] Weekly AI Arxiv 시즌2
973 stars 41 forks source link

[20220227] Weekly AI ArXiv 만담 - 41회차 #41

Closed jungwoo-ha closed 2 years ago

jungwoo-ha commented 2 years ago
hollobit commented 2 years ago

Good News About the Carbon Footprint of Machine Learning Training

논문에서 사용한 용어 및 에너지 및 carbon footprint 추정 방법

training task을 수행하는 서버의 에너지 소비는 사용된 프로세서 수와 교육 실행 기간에 비례

𝑀𝑊ℎ = 𝐻𝑜𝑢𝑟𝑠 𝑡𝑜 𝑡𝑟𝑎𝑖𝑛 × 𝑁𝑢𝑚𝑏𝑒𝑟 𝑜𝑓 𝑃𝑟𝑜𝑐𝑒𝑠𝑠𝑜𝑟𝑠 × 𝐴𝑣𝑒𝑟𝑎𝑔𝑒 𝑃𝑜𝑤𝑒𝑟 𝑃𝑟𝑜𝑐𝑒𝑠𝑠𝑜𝑟

"프로세서"에 모든 서버 구성 요소(로컬 메모리, 네트워크 링크 등 포함)가 포함됩니다.

데이터 센터는 PUE에서 캡처한 하드웨어(예: 전압 변환 손실, 냉각 장비)에 전력을 공급하고 냉각하는 데 에너지를 소비합니다. 따라서 에너지 소비에 대한 최종 공식은

𝑀𝑊ℎ = (𝐻𝑜𝑢𝑟𝑠 𝑡𝑜 𝑡𝑟𝑎𝑖𝑛 × 𝑁𝑢𝑚𝑏𝑒𝑟 𝑜𝑓 𝑃𝑟𝑜𝑐𝑒𝑠𝑠𝑜𝑟𝑠 × 𝐴𝑣𝑒𝑟𝑎𝑔𝑒 𝐴𝑣𝑒𝑟𝑎𝑔𝑒 𝑃𝑜𝑤𝑒𝑟 𝑝𝑒𝑟 𝑃𝑜𝑤𝑒𝑟) × PUE

그런 다음 에너지 공급의 탄소 강도를 곱하여 에너지를 탄소로 전환

𝑡𝐶𝑂2𝑒 = 𝑀𝑊ℎ × 𝑡 𝐶𝑂2𝑒 𝑝𝑒𝑟 𝑀𝑊ℎ

GLaM과 GPT3 비교를 이용한 평가

AI 생성 예술 작품이 저작권 보호를 받을 수 있습니까?

https://news.artnet.com/art-world/us-copyright-office-rejects-artificial-intelligence-art-2076830

ghlee0304 commented 2 years ago
kimyoungdo0122 commented 2 years ago
veritas9872 commented 2 years ago

Singularity: Planet-Scale, Preemptive and Elastic Scheduling of AI Workloads

Arxiv: https://arxiv.org/abs/2202.07848v2

Screenshot (19)

Microsoft에서 Singularity라는 Kubernetes 경쟁제품을 출시한다는 논문을 냈습니다. 아쉽지만 아직 소스코드는 공개되지 않았습니다.

Large-scale AI를 하시는 많은 분들께서 Kubernetes와 NVIDIA Driver를 호환하는데 많은 어려움을 겪고 계실 것으로 생각되는데 아직 코드가 공개되지 않아 확실치는 않지만 기존 PyTorch 코드를 수정하지 않고도 Elastic & distributed & large scale training을 할 수 있다고 합니다.

또한, 아직 대학원에 계시거나 small-to-medium-scale AI를 하시는 분들도 서버 고장 등으로 인해 며칠동안의 학습 결과가 없어지거나 하나의 서버는 사용하지 않는데 다른 서버에서는 GPU가 부족한 것을 겪어보셨을 것으로 생각됩니다. 많은 유저에게 도움이 될 것 같습니다.

Graph Data Augmentation for Graph Machine Learning: A Survey

GitHub: https://github.com/zhao-tong/graph-data-augmentation-papers

Arxiv: https://arxiv.org/abs/2202.08871v1

Graph Neural Network에 대해 data augmentation 방법론을 정리한 review paper가 나왔습니다. 저자들에 의하면 GNN에서 data augmentation에 대한 review paper는 기존에 없었다고 하는데 (저와 같은) GNN 비전문가에게 GNN에 대한 연구 트렌드 및 공부를 시작할 위치를 찾는데 도움이 될 것 같습니다. 인용한 논문이 잘 정리되어 있고 결론은 아직 general하게 적용되는 graph augmentation은 많이 없고 domain-specific knowledge에 기반한 augmentation이 필요하다는 내용입니다.

Screenshot (20)

Natural Language Processing with Transformers

image

https://www.oreilly.com/library/view/natural-language-processing/9781098103231

Code: https://huggingface.co/transformersbook

HuggingFace 엔지니어들이 직접 쓴 Transformer 책이 출간되었습니다.

딥러닝 분야는 일반적으로 논문과 블로그를 통해 배우게 되지만 검증된 전문가가 쓴 책을 시간내어 읽는 것도 도움이 된다고 생각됩니다. 특히, NLP 분야에서는 HuggingFace는 Transformer 분야에서 가장 많이 사용되는 라이브러리로 많은 자연어 연구자에게 도움이 될 것 같습니다.

kimyoungdo0122 commented 2 years ago

image