728x90
셋 다 썼을때 가장 성능이 좋다.
freezeD를 어떻게 써야할까? .
k=13으로! 13개 layer를 얼린다.
4까지 다 얼리고, 5,6과 마지막 레이어는 학습시키면 될듯하다
nvlabs-fi-cdn.nvidia.com/stylegan2-ada/pretrained/paper-fig11a-small-datasets/
여기에 있는 weight들 중에 가장 좋은 성능을 고른다!
사실 밑에 있는 걸 그냥해도 될듯하다.
nvlabs-fi-cdn.nvidia.com/stylegan2-ada/pretrained/
위 모델의 weight를 변환하여 사용하려 했으나... CUDA, tf, pytorch 버전 충돌?로 인해 실패... 여러번 시도했는데도 안됐음.. 포기
ffhq data set pre-trained로 부터 ada를 그대로 써서 논문 그대로 재현하고자 했다.
'Data-science > deep learning' 카테고리의 다른 글
pytorch 에러 DistributedDataParallel 에러 (0) | 2020.12.29 |
---|---|
[pytorch] 강아지 스타일 합성 stylegan2 freezeD + freezeG ( freezing layer 시행 착오) (0) | 2020.12.28 |
[pytorch] 유명인 합성 stylegan2 freezeD + freezeG ( freezing layer 시행 착오) (0) | 2020.12.27 |
g_ema?, EMA 구하는 공식 (0) | 2020.12.26 |
[pytorch] stylegan2 pretrained model load error (0) | 2020.12.26 |