sy00n / DL_paper_review

issues에 논문 요약
0 stars 0 forks source link

[36] Zero-Shot Anomaly Detection via Batch Normalization #41

Open sy00n opened 7 months ago

sy00n commented 7 months ago

Abstract

Introduction

Method

image fig1 처럼 학습때 보지 못했던 geese를 lion 사이에서 찾아내는 것이다. DSVDD를 통해 임베딩 스페이스 상에서 pre-specified point로 매핑하고 그 포인터로부터의 거리를 기반으로 scoring한다.

그럼 어떻게 batch-level information을 anomaly detection에 conjuction할 수 있을까?

몇 가지 가정이 필요함

  1. 항상 meta-training set에 available 하다고 가정 (meta-set으로 re-training없이 adapt가 가능)
  2. Batch-level anomaly detection (test 시에 batch-level prediction이 이루어짐.)
  3. Majority of normal data (모든 i.i.d sampled test batch 마다 정상 데이터가 주를 이룬다고 가정) Test 시에는 abnormaly labels가 없기 때문에 가정 2,3 없이는 정확한 inference가 불가능함.

Adaptively Centered Representations

Training Objective

Meta Outlier Exposure

image 위 loss는 outlier exposure loss와 유사하지만 이미지 단에서의 generated sample이 아니라 학습 시에 나온 분포로 pseudo anomaly 만듦.

Batch-level Prediction

inference시에는 batch-level prediction이 수행됨. 이때도 마찬가지로 대부분의 샘플이 정상이라고 가정하고 anomaly score에 thresholding 함. 시간복잡도는 딥러닝 프레임워크가 대부분 병렬처리가 가능하다보니 배치사이즈랑 연관되어 O(1)

image image

meta outlier exposure 실험이랑 tabular 데이터 실험, 다른 nomalization 실험과의 비교 등은 다 supp에 있음. image image image