Closed jungwoo-ha closed 2 years ago
training task을 수행하는 서버의 에너지 소비는 사용된 프로세서 수와 교육 실행 기간에 비례
𝑀𝑊ℎ = 𝐻𝑜𝑢𝑟𝑠 𝑡𝑜 𝑡𝑟𝑎𝑖𝑛 × 𝑁𝑢𝑚𝑏𝑒𝑟 𝑜𝑓 𝑃𝑟𝑜𝑐𝑒𝑠𝑠𝑜𝑟𝑠 × 𝐴𝑣𝑒𝑟𝑎𝑔𝑒 𝑃𝑜𝑤𝑒𝑟 𝑃𝑟𝑜𝑐𝑒𝑠𝑠𝑜𝑟
"프로세서"에 모든 서버 구성 요소(로컬 메모리, 네트워크 링크 등 포함)가 포함됩니다.
데이터 센터는 PUE에서 캡처한 하드웨어(예: 전압 변환 손실, 냉각 장비)에 전력을 공급하고 냉각하는 데 에너지를 소비합니다. 따라서 에너지 소비에 대한 최종 공식은
𝑀𝑊ℎ = (𝐻𝑜𝑢𝑟𝑠 𝑡𝑜 𝑡𝑟𝑎𝑖𝑛 × 𝑁𝑢𝑚𝑏𝑒𝑟 𝑜𝑓 𝑃𝑟𝑜𝑐𝑒𝑠𝑠𝑜𝑟𝑠 × 𝐴𝑣𝑒𝑟𝑎𝑔𝑒 𝐴𝑣𝑒𝑟𝑎𝑔𝑒 𝑃𝑜𝑤𝑒𝑟 𝑝𝑒𝑟 𝑃𝑜𝑤𝑒𝑟) × PUE
그런 다음 에너지 공급의 탄소 강도를 곱하여 에너지를 탄소로 전환
𝑡𝐶𝑂2𝑒 = 𝑀𝑊ℎ × 𝑡 𝐶𝑂2𝑒 𝑝𝑒𝑟 𝑀𝑊ℎ
https://news.artnet.com/art-world/us-copyright-office-rejects-artificial-intelligence-art-2076830
News
윤리, 기술, 교육 세 분과로 나누어 접근한 것이 의미있는 듯, ai 윤리를 현실에 적용할 수 있는 논의가 진행되기를!!
다음 주에 하정우 소장님 오시면 자세히 여쭤보는걸로
Inside the Lab: Building for the metaverse with AI 다시보기
Schmidt Futures Launches AI2050 to Protect Our Human Future in the Age of Artificial Intelligence
Arxiv
Singularity: Planet-Scale, Preemptive and Elastic Scheduling of AI Workloads
Arxiv: https://arxiv.org/abs/2202.07848v2
Microsoft에서 Singularity라는 Kubernetes 경쟁제품을 출시한다는 논문을 냈습니다. 아쉽지만 아직 소스코드는 공개되지 않았습니다.
Large-scale AI를 하시는 많은 분들께서 Kubernetes와 NVIDIA Driver를 호환하는데 많은 어려움을 겪고 계실 것으로 생각되는데 아직 코드가 공개되지 않아 확실치는 않지만 기존 PyTorch 코드를 수정하지 않고도 Elastic & distributed & large scale training을 할 수 있다고 합니다.
또한, 아직 대학원에 계시거나 small-to-medium-scale AI를 하시는 분들도 서버 고장 등으로 인해 며칠동안의 학습 결과가 없어지거나 하나의 서버는 사용하지 않는데 다른 서버에서는 GPU가 부족한 것을 겪어보셨을 것으로 생각됩니다. 많은 유저에게 도움이 될 것 같습니다.
Graph Data Augmentation for Graph Machine Learning: A Survey
GitHub: https://github.com/zhao-tong/graph-data-augmentation-papers
Arxiv: https://arxiv.org/abs/2202.08871v1
Graph Neural Network에 대해 data augmentation 방법론을 정리한 review paper가 나왔습니다. 저자들에 의하면 GNN에서 data augmentation에 대한 review paper는 기존에 없었다고 하는데 (저와 같은) GNN 비전문가에게 GNN에 대한 연구 트렌드 및 공부를 시작할 위치를 찾는데 도움이 될 것 같습니다. 인용한 논문이 잘 정리되어 있고 결론은 아직 general하게 적용되는 graph augmentation은 많이 없고 domain-specific knowledge에 기반한 augmentation이 필요하다는 내용입니다.
Natural Language Processing with Transformers
https://www.oreilly.com/library/view/natural-language-processing/9781098103231
Code: https://huggingface.co/transformersbook
HuggingFace 엔지니어들이 직접 쓴 Transformer 책이 출간되었습니다.
딥러닝 분야는 일반적으로 논문과 블로그를 통해 배우게 되지만 검증된 전문가가 쓴 책을 시간내어 읽는 것도 도움이 된다고 생각됩니다. 특히, NLP 분야에서는 HuggingFace는 Transformer 분야에서 가장 많이 사용되는 라이브러리로 많은 자연어 연구자에게 도움이 될 것 같습니다.