jungwoo-ha / WeeklyArxivTalk

[Zoom & Facebook Live] Weekly AI Arxiv 시즌2
971 stars 41 forks source link

[20211212] Weekly AI ArXiv 만담 - 33회차 #33

Closed jungwoo-ha closed 2 years ago

jungwoo-ha commented 2 years ago
hollobit commented 2 years ago

AIFrendz 학회 출범식 (12/8)

https://www.hellodd.com/news/articleView.html?idxno=95189 https://www.youtube.com/watch?v=AvL-RMw1RtM AI 프렌즈 단톡방 링크: https://open.kakao.com/o/ggewxi2 AI 프렌즈 블로그 링크: https://aifrenz.github.io AI 프렌즈 홈페이지: https://aifrenz.notion.site

"내가 윤석열로 보이니"… 'AI 정치인' 선거 혁신인가, 민주주의 재앙인가

https://www.hankookilbo.com/News/Read/A2021120816460003987

첨단 조작 기술(deepfake), 인공지능용 학습데이터 분야의 국면 전환 요소로 급부상

https://www.korea.kr/news/pressReleaseView.do?newsId=156485475 https://www.kipo.go.kr/kpo/BoardApp/UnewPress1App?a=&board_id=press&cp=&pg=&npp=&catmenu=m03_05_01&sdate=&edate=&searchKey=&searchVal=&bunryu=&st=&c=1003&seq=19322

美 중국 인공지능(AI) 기업에 대한 투자 금지

https://www.kdfnews.com/news/articleView.html?idxno=84108

하버드 연구진 “中, 10년 안에 AI·5G 등 핵심분야서 美 따라잡을 것”

https://biz.chosun.com/international/international_general/2021/12/10/PI3AVCZXFBFFBJ7JZR6L3FWJI4/

IBM Research, AI에게 기계 학습 모델 코딩을 가르치는 것을 목표로 하는 대규모 데이터 세트 'CodeNet' 소개

https://www.marktechpost.com/2021/12/10/ibm-research-introduces-codenet-a-large-scale-dataset-aimed-at-teaching-ai-to-code-for-machine-learning-models/

신경망에 맬웨어를 숨길 수 있다고

https://bdtechtalks.com/2021/12/09/evilmodel-neural-networks-malware/ 관련 - https://arxiv.org/abs/2107.08590 evilmodel

kimyoungdo0122 commented 2 years ago
veritas9872 commented 2 years ago

CoLLA: Conference on Lifelong Learning Agents URL: http://lifelong-ml.cc/ Lifelong learning과 continual learning 등 지속적인 학습에 초점을 맞춘 새로운 학회가 생겼습니다. 내년 3월 1일까지 abstract 제출이니 관련 분야 연구하시는 분 참조 부탁드립니다.

Screenshot (3)

Simplifying Transformer Research with xFormers & Lightning image

https://devblog.pytorchlightning.ai/part-i-simplifying-transformer-research-with-xformers-lightning-a715737b8ad4 Meta AI Research에서 xFormer 라는 새로운 Transformer library를 오픈소스했습니다. GitHub: https://github.com/facebookresearch/xformers 기존 여러가지 Transformer 구조들은 내부적으로 차이가 많고 GPU 최적화가 되어 있지 않았는데 새로 나온 NVIDIA Triton 및 kernel fusion 방법을 적용하여 최적화되었으면서 사용하기 단순한 라이브러리를 만들었습니다. Transformer 연구를 하시는 많은 분들께 도움이 될 것으로 생각됩니다. image

Pushing the Frontiers of Density Functionals by Solving the Fractional Electron Problem

GitHub: https://github.com/deepmind/deepmind-research/tree/master/density_functional_approximation_dm21

DeepMind에서 양자역학의 영역까지 진출했습니다. 기존 분자에서 전자의 위치를 정확하게 판단하는 것은 근사 함수를 이용해서 계산을 했지만 새로운 데이터셋을 이용해 MSE loss를 이용해 전자의 위치를 계산하는 과정을 학습했습니다.

https://www.researchgate.net/publication/356914883_Pushing_the_frontiers_of_density_functionals_by_solving_the_fractional_electron_problem

Editing a Classifier by Rewriting Its Prediction Rules NeurIPS Link: https://papers.nips.cc/paper/2021/hash/c46489a2d5a9a9ecfc53b17610926ddd-Abstract.html

Screenshot (4)

Screenshot (1)

Madry Lab 에서 나온 NeurIPS 논문인데 classifier의 출력을 추가적인 데이터를 사용하지 않고 직접적으로 editing을 하는 방식입니다.

Screenshot (2)

Drivable GAN 방법에 기반해 ImageNet의 alternative class를 사용해서 background 정보와 text attack를 직접적으로 공략하는 방식입니다.

xxxnell commented 2 years ago

loss-landscape

fourier

architecture

nick-jhlee commented 2 years ago

CLeaR: Causal Learning and Reasoning URL: https://www.cclear.cc/2022 Causal learning등 지속적인 학습에 초점을 맞춘 새로운 학회가 생겼습니다. 이미 deadline은 끝났습니다만, 앞으로 커질 가능성이 많은 학회인 것 같습니다. (물론 전 개인적으로 causal의 c도 모릅니다...)

tentative conference 기간: Apr 11 - Apr 13, 2022

jwlee-ml commented 2 years ago

NL-Augmenter: A Framework for Task-Sensitive Natural Language Augmentation

여러 학교, 회사 소속 100명 넘는 저자 NLP의 data augmentation을 해주는 python framework 신청곡(X)논문(O)입니다. 다음주에 누군가 해주시면 감사히 듣겠습니다 ㅎㅎ

image