Closed jungwoo-ha closed 3 years ago
Cross-speaker Style Transfer with Prosody Bottleneck in Neural Speech Synthesis
Neural Remixer: Learning to Remix Music with Interactive Control
Neural Mix Pro
ICCV 2021 Accepted Papers List (Unofficial): https://github.com/amusi/ICCV2021-Papers-with-Code
ICCV 2021의 결과가 나오면서 많은 수의 Computer Vision Paper가 Arxiv에 업로드 되었습니다.
아직 공식적인 목록은 아니지만 비공식적으로 Accepted Papers List가 정리되었습니다.
많은 참조 부탁드립니다.
@veritas9872 인간적으로 글로벌리 보는 거면 영어로좀 해주면 좋을텐데 말이죠 ㅎㅎㅎ
Paper
Improving Early Sepsis Prediction with Multi Modal Learning
Artificial intelligence can now be recognised as an inventor after historic Australian court decision
Apple’s Machine Learning Researchers Have Developed A No-Code AI Platform Called ‘Trinity’ For Complex Spatial Datasets
NSF partnerships expand National AI Research Institutes to 40 states
Hundreds of AI tools have been built to catch covid. None of them helped
"AI와 데이터 분석은 개인화된 의료의 핵심 요소"...미국 의료계 대세가 된 AI
제가 CVPR Buzz를 조금 읽어보고 있었는데 링크만 조금 바꾼다면 다른 학회 등에도 어렵지 않게 사용할 수 있을 것 같습니다. 잘하면 Arxiv Sanity 경쟁 웹사이트 만드실 수도 있을 것 같습니다. ㅋㅋㅋ 예를 들면 한국인 저자가 있는 논문만 리스트를 작성하거나 특정 대학교의 논문만 사용하는 방식으로 사이트를 새로 만들어볼 수 있을 것 같습니다.
@veritas9872 네 소스코드도 공개되어 있어서 accepted paper list만 확보하면 어렵지 않게 가능할 것 같네용.
https://blogs.windows.com/windows-insider/2021/07/22/announcing-windows-11-insider-preview-build-22000-100/ Windows 11이 beta channel로 이동했습니다! 저도 지금 Windows 11에서 작업을 진행하는 중인데 딥러닝을 하는 연구자에게는 드디어 Windows에서 CUDA Docker를 사용할 수 있다는 점이라고 생각됩니다. 실제로 PyTorch를 실행했을 때 잘 작동하는 것을 확인했습니다. 또한, WSL에서 Windows11에서 GUI 앱이 실행되니 윈도우 사용자 분들 사용해보시면 좋을 것 같습니다.
ArXiv
Go Wider Instead of Deeper
MHSA 블럭내에 FC --> MoE 구조
MHSA와 MoE는 block 간 sharing, LN만 블럭별로 --> 그렇게 파라미터를 절약
FaVIQ: FAct Verification from Information-seeking Questions
새로운 Fact check dataset (고대 + UW)
https://faviq.github.io/
Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing
Hyperscale LM 등장에 따른 새로운 패러다임인 prompt-based learning in PLM 정리
관련 주제 연구자들이 집단지성으로 social research survey를 만드는 느낌.
메인페이지에 연구 토픽별로 중요 논문들이 리스트업 --> Prompt-based Large-scale PLM 최신 논문이나 연구 파악에 유용해 보임
본인의 연구논문을 paperlist에 직접 업로드 + promotion 가능
http://pretrain.nlpedia.ai/
Image Scene Graph Generation (SGG) Benchmark
Image scene graph (object들의 attribute 와 relation 까지 detecting) generation 을 위한 벤치마크 + 코드 (from MS)
mask-rcnn + Visual Genome & Openimages data
https://github.com/microsoft/scene_graph_benchmark
Transfer Learning in Electronic Health Records through Clinical Concept Embedding
EHR 데이터에 대한 pretraining embedding과 이에 기반한 transfer learning 분석 (U. of Oxford)
질병 embedding 학습, embedding 평가 방법,
310만 환자 EHR 데이터 (CPRD 데이터)
xMoCo: Cross Momentum Contrastive Learning for Open-Domain Question Answering
Open domain QA의 dense retrieval model 학습을 위한 MoCo기반의 contrastive SSL
MoCo는 둘다 이미지지만 여긴 Question, Passage라 생겨 먹은게 달라서 모델 개선이 필요
그래서 둘다 각각 fast / slow (moving average) encoder
AutoTinyBERT: Automatic Hyper-parameter Optimization for Efficient Pre-trained Language Models
작은 스케일 PLM (BERT) 만들기 위한 evolutionary algorithm 활용 hyperparam optimization 기법 (화웨이+칭화대)
SuperPLM을 원샷으로 학습하고 latency constraint 걸어 모델을 깍아나가는 세팅
NAS-BERT나 DistillBERT보다 정확도도 좋고 효율적이라고..
https://github.com/huawei-noah/Pretrained-Language-Model/tree/master/AutoTinyBERT
실제 응용서비스 적용을 위해 PLM 깍으실 필요가 있는 분들께 유용할 듯?