Closed jungwoo-ha closed 2 years ago
- SW정책연구소 보고서…"지능형반도체·자율무기·GAN"
- "AI는 기존 인간의 능력 이상으로 모방과 위변조, 전략적 판단 등을 수행함으로써 적대 세력이 완성도 높은 AI를 보유했을 경우 국가 안보에 매우 큰 위협"
- 미국 AI국가안보위원회(NSCAI)11)는 자율무기 금지 반대, 예산투자촉구(연 350억불), 반도체 자국생산 추진 등의 성명을 발표(`21.03.)
- 중국은 「중국제조2025(
15)」를 통해 반도체 자급률 제고 및 「차세대 AI 발전계획(
17)」을 토대로 미국을 제치고 AI 세계 1위를 목표- 세계 정부, 협‧단체, 학계는 AI의 무분별한 활용 및 비인도적 차원의활용 금지를 표방하며 최근 AI 윤리 및 신뢰성 이슈를 중요 과제로 선정
- Simply adding “Let’s think step by step” before each answer
- GPT-3로 MultiArith 벤치마크에서 17.7%에서 78.7%로, 수학문제 데이터인 GSM8K 벤치마크 데이터셋에서 10.4% 에서 40.7%로 성능 향상 되었다고
Autoformalization with Large Language Models
- 몇 가지 예를 보여주고 나면 대형 언어 모델은 자연어 수학 문장을 formal specifications으로 변환할 수 있음
Google blog - Language Models Perform Reasoning via Chain of Thought
ArXiv
Photorealistic Text-to-Image Diffusion Models with Deep Language Understanding
DALLE2의 대항마로 구글이 내놓은 초거대 Text-to-image 생성 AI
요즘 대세에 맞게 이미지 생성은 diffusion model을 씀. T2I도 Super resolution도
Text -> 64x64 (UNet) -> 256 x 256 -> 1024x1024 순서로.
특이한 부분은 멀티모달 pretrained embedding이 아니라 (CLIP 같은) T5-XXL을 사용 (text만 학습한 LM)
Diffusion model개선을 위해 dynamic sampling 제안
근본없던 성능 평가 프로토콜을 위해 DrawBench 제안
https://imagen.research.google/
AdaptFormer: Adapting Vision Transformers for Scalable Visual Recognition
ImageNet pretrained 모델을 adapter-based learning하는 연구 (from 홍콩대, Tencent AI)
모델구조는: http://www.shoufachen.com/adaptformer-page/ 에서 티저영상을 보시기를
기본적으로 MAE와 VideoMAE pretraining하고 MLP 부분에 bottleneck 스타일의 추가 파라미터를 사용 (약간 LoRA 랑도 비슷한데)
흥미있는 연구
Protein Structure and Sequence Generation with Equivariant Denoising Diffusion Probabilistic Models Data-driven modeling of protein structure and sequence
Towards Learning Universal Hyperparameter Optimizers with Transformers
How to train your ViT? Data, Augmentation, and Regularization in Vision Transformers