prior distribution : > the standard normal distribution
각 scale에서 G에 의해 발생하는 image
latent variables z는 각 layer에서 hidden feature로 전환
그래서, non-linear transformation에 의해 각 G_i를 위한, hidden features h_i를 계산.
h_i는 i 번째 branch에서의 hidden feature
m는 전체 branch 개수
F_i 는 neural network > Fig.2
noise vector z는 h_i를 계산하기 위한 Fi의 입력값으로써, 이전 branch hidden feature h(i-1)와 concat.
why? branch에서 생략정 정보를 capture하기 위해
각각의 다른 layer에서의 feature를 가지고 G는 작은 사이즈부터 큰 사이즈()
까지 샘플(G가 만들어낸 이미지를 이렇게 표현)을 generator한다.
G_i는 i번째 branch에서의 Generator
D와 G > cross-entropy loss > min화~
x는 real image, s는 G가 만들어낸 이미지.
는 i 번째 scale에서 image distribution를 최적화하기 위한 loss function.
StackGAN-v2에서 제안한 동기는 다수의 스케일에서의 data distributions를 모델링할수 있다는 것.
if any one of those model distributions shares support with the real data distribution at that scale, the overlap could provide good gradient signal to expedite or stabilize training of the whole network at multiple scales.
좋은 gradient signal에 대한 신속한 처리 또는 학습의 안정화..등의 장점.
점점 높은 scale로 가면서, 좀더 디테일한 shape/color/structures등의 처리가 점점 더해져 가면서 학습. > 그래서 최종적으로 high-resolution 이미지 generator.
Joint conditional and unconditional distribution approximation
https://arxiv.org/abs/1710.10916