728x90
재방문하다가 아니라,
재고하다는,
좀 회의적인 의미로 해석하는 게 옳을 듯하다.
In particular, we redesign the generator normalization, revisit progressive growing, and regularize the generator to encourage good conditioning in the mapping from latent codes to images. In addition to improving image quality, this path length regularizer yields the additional benefit that the generator becomes significantly easier to invert.
progressive growing에 대해 이 방법에 회의를 품고 다시 재고해본다는 말로 이해하면 된다.
'Data-science > 논문 읽기' 카테고리의 다른 글
i.i.d. random variables가 뭐지? 독립 항등 분포 (iid, independent and identically distributed) (0) | 2020.10.05 |
---|---|
gan 논문에 등장하는 artifact 뜻? (0) | 2020.10.04 |
[Deep learning 논문 읽기] StyleGAN loss 이해, 얕게 읽는 WGAN, WGAN-GP (0) | 2020.09.01 |
[Deep learning 논문 읽기] style-gan 1 (0) | 2020.08.26 |
[딥러닝 논문 리뷰] A Spatio-Temporal Spot-Forecasting Framework for Urban Traffic Prediction - 1 (0) | 2020.06.22 |