뭔가 학습할수록 이미지가 더 일그러진다.... generaotr학습을 제대로 하지 못한다고 생각했다. 15k 기준으로 이미지가 점점 깨지기 시작한다. 그래서 기존의 generator에서 미세조정하면 되지 않을까란 생각이 들었다. 구체적으로는 14k 정도에서의 weight를 조금만 조정해보면 어떨까? 하는 생각!
freezeD만 해선 생성할 때 많이 일그러지는 것 같다. generator를 고정시켜보자! Generator도 일부는 고정하고 싶단 생각을 했다. 그러던 차에 누가 이미 실험을 해봤다. freezeG라는 github에 구현한 코드도 있었다. 감사! 감사
우선 이해를 해야했기에, 노트북에 정리해보았다. 어떤 layer를 학습하는지.
stylegan2에서는 skip generator를 이용한다. 여기서 마지막 tRGB layer와, 마지막 resoultion에서 이루어지는 2개의 conv layer를 fine tuning하기로 했다.
코드는 이러하다.
# requires_grad(generator, True)
# requires_grad(discriminator, False)
'''growth-kim add'''
if args.freezeD:
for loc in range(args.training_features):
requires_grad(discriminator, False, target_layer=f'convs.{6-loc}')
requires_grad(discriminator, False, target_layer=f'final_')
else:
requires_grad(discriminator, False)
if args.freezeG:
for loc in range(args.training_features_G):#size=256 -> num_layers = (self.log_size - 2) * 2 + 1 : 6*2 + 1 = 13
requires_grad(generator, True, target_layer=f'convs.{generator.num_layers-2-2*loc}') # 11
requires_grad(generator, True, target_layer=f'convs.{generator.num_layers-3-2*loc}') # 10
requires_grad(generator, True, target_layer=f'to_rgbs.{generator.log_size-3-loc}') # 5
else:
requires_grad(generator, True)
''''''
noise = mixing_noise(args.batch, args.latent, args.mixing, device)
fake_img, _ = generator(noise)
if args.augment:
fake_img, _ = augment(fake_img, ada_aug_p)
fake_pred = discriminator(fake_img)
g_loss = g_nonsaturating_loss(fake_pred)
초기 엔트리 포인트에서 arguments는 새로 만들었다.
쭉~ 내려가서 학습할 때... 둘 다 기본적으로 False로 세팅후 train에 들어가야 위 코드가 먹힌다.
이렇게하면 안 돌아가는데
'RuntimeError: One of the differentiated Variables does not require grad'
이런 에러가 나온다.
geneartor의 regularizer를 사용하지 못하도록 설정해야 한다. freezeG를 쓸 경우엔 g_regularize를 하지 않도록 한다.
if not args.freezeG and g_regularize:
path_batch_size = max(1, args.batch // args.path_batch_shrink)
noise = mixing_noise(path_batch_size, args.latent, args.mixing, device)
fake_img, latents = generator(noise, return_latents=True)
학습 결과는 어떠할까? 시험해봐야 한다.
'Data-science > deep learning' 카테고리의 다른 글
2020.12.31 회의록 (petcon stylegan2 학습 진행 과정2, 할 일, 관련 논문) (0) | 2021.01.01 |
---|---|
[pytorch] stylegan2 여러 지표들 용어 정리. real score? fake score? (0) | 2020.12.31 |
pytorch 에러 DistributedDataParallel 에러 (0) | 2020.12.29 |
[pytorch] 강아지 스타일 합성 stylegan2 freezeD + freezeG ( freezing layer 시행 착오) (0) | 2020.12.28 |
[stylegan2] ada 논문 다시보기 & afhq + ada + freezeD (0) | 2020.12.28 |