Data-science/deep learning
[stylegan2] ada 논문 다시보기 & afhq + ada + freezeD
study&grow
2020. 12. 28. 09:07
728x90
셋 다 썼을때 가장 성능이 좋다.
freezeD를 어떻게 써야할까? .
k=13으로! 13개 layer를 얼린다.
4까지 다 얼리고, 5,6과 마지막 레이어는 학습시키면 될듯하다
nvlabs-fi-cdn.nvidia.com/stylegan2-ada/pretrained/paper-fig11a-small-datasets/
stylegan2-ada / pretrained / paper-fig11a-small-datasets
nvlabs-fi-cdn.nvidia.com
여기에 있는 weight들 중에 가장 좋은 성능을 고른다!
사실 밑에 있는 걸 그냥해도 될듯하다.
nvlabs-fi-cdn.nvidia.com/stylegan2-ada/pretrained/
stylegan2-ada / pretrained
nvlabs-fi-cdn.nvidia.com
위 모델의 weight를 변환하여 사용하려 했으나... CUDA, tf, pytorch 버전 충돌?로 인해 실패... 여러번 시도했는데도 안됐음.. 포기
ffhq data set pre-trained로 부터 ada를 그대로 써서 논문 그대로 재현하고자 했다.