본문 바로가기

Data-science/deep learning

[stylegan2] ada 논문 다시보기 & afhq + ada + freezeD

반응형

셋 다 썼을때 가장 성능이 좋다.

freezeD를 어떻게 써야할까? .

k=13으로! 13개 layer를 얼린다.

4까지 다 얼리고, 5,6과 마지막 레이어는 학습시키면 될듯하다

nvlabs-fi-cdn.nvidia.com/stylegan2-ada/pretrained/paper-fig11a-small-datasets/

 

stylegan2-ada / pretrained / paper-fig11a-small-datasets

 

nvlabs-fi-cdn.nvidia.com

여기에 있는 weight들 중에 가장 좋은 성능을 고른다! 

사실 밑에 있는 걸 그냥해도 될듯하다.

nvlabs-fi-cdn.nvidia.com/stylegan2-ada/pretrained/

 

stylegan2-ada / pretrained

 

nvlabs-fi-cdn.nvidia.com

위 모델의 weight를 변환하여 사용하려 했으나... CUDA, tf, pytorch 버전 충돌?로 인해 실패... 여러번 시도했는데도 안됐음.. 포기

ffhq data set pre-trained로 부터 ada를 그대로 써서 논문 그대로 재현하고자 했다.

반응형