본문 바로가기

Data-science/deep learning

(87)
RainNet v1.0 설명 (Spatiotemporal prediction) Network architecture encoder–decoder architecture 20 conv 4 max pooling 4 upsampling 2 dropout 4 skip connections. 이미지 한 변의 길이가 1km라고 생각하면 됨. 픽셀의 각 값은 강수량을 로그 변환한 값임 Each grid contains 928 cells×928 cells with an edge length of 1 km; for each cell, the input value is the logarithmic precipitation depth as retrieved from the radar-based precipitation product. RainNet은 CNN 구조로만 이루어짐. 왜냐? RNN 구조보다 ..
stylegan2 & stylegan2-ada 코드 (loss & network) stylegan2 Loss # Copyright (c) 2019, NVIDIA Corporation. All rights reserved. # # This work is made available under the Nvidia Source Code License-NC. # To view a copy of this license, visit # https://nvlabs.github.io/stylegan2/license.html """Loss functions.""" import numpy as np import tensorflow as tf import dnnlib.tflib as tflib from dnnlib.tflib.autosummary import autosummary #-------------..
[StyleGan2-ada 실습] AFHQ 데이터 셋 이용해서 stylegan2-ada 학습하기 2 Stylegan2-ada 뭐가 달라진 걸까? We propose an adaptive discriminator augmentation mechanism that significantly stabilizes training in limited data regimes. ada(adaptive discriminator augmentation) 라는 증강 기법이 추가됨. 이 메커니즘만으로 학습을 상당히 안정화 시킴 The approach does not require changes to loss functions or network architectures, and is applicable both when training from scratch and when fine-tuning an existing GAN..
[StarGan v2] AFHQ 데이터 셋 및 pretrained network 성능 Srargan v2 성능 비디오도 만들어주나 PC 메모리 한계로 실패 Stargan v2 성능
[StyleGan2-ada 실습] AFHQ 데이터 셋 이용해서 stylegan2-ada 학습하기 1 데이터 셋 준비 AFHQ는 동물 데이터이다. (개, 고양이, 야생동물 각 5000 정도) github.com/clovaai/stargan-v2/blob/master/README.md#animal-faces-hq-dataset-afhq clovaai/stargan-v2 StarGAN v2 - Official PyTorch Implementation (CVPR 2020) - clovaai/stargan-v2 github.com 위 사이트에서 데이터 셋을 다운로드한다. stylegan2-ada를 학습하기 위해선, tf-records 형태로 데이터 셋을 변환해줘야 한다. github.com/NVlabs/stylegan2-ada NVlabs/stylegan2-ada StyleGAN2 with adaptive di..
[Deep learning 논문 읽기] 리뷰할 논문 목록 (주1 예정) stylegan2 단점 보완 논문 : 너무 많은 데이터가 필요하단 점을 보완한 논문 1. Training Generative Adversarial Networks with Limited Data arxiv.org/pdf/2006.06676.pdf Metric 관련 2. generator metric : GANs Trained by a Two Time-Scale Update Rule Converge to a Local Nash Equilibrium (Learned Perceptual Image Patch Similarity (LPIPS)) arxiv.org/abs/1706.08500 GANs Trained by a Two Time-Scale Update Rule Converge to a Local Nash..
[Deep learning 논문 읽기] StyleGAN2 Abstract 뜯어보기 We expose and analyze several of its characteristic artifacts, and propose changes in both model architecture and training methods to address them stylegan2에서는 지난 버전에서 몇 가지 특징적인 결함들을 분석했고, 이에 대한 방법으로 모델 구조와, 훈련 방법에 있어 변화를 제안한다. In particular, we redesign the generator normalization, revisit progressive growing, and regularize the generator to encourage good conditioning in the mapp..
[Coursera 강의] Sequences, Time Series and Prediction - 4주 차. CNN + LSTM + DNN sun spot data prediction, forecasting (TensorFlow Developer 전문 자격증 강의) coursera 강의를 정리해서 스스로 이해를 돕기 위해 만든 자료입니다. 추가된 점 앞단에 Conv1D를 추가하고 그 뒤로 LSTM과 DNN을 쌓는 구조로 최상의 성능 산출했다. 실제 데이터인 흑점데이터를 로드하고 전처리하는 작업이 추가된다. Conv1D가 추가되다 보니 이전에 Lambda layer로 마지막 차원에 1을 추가해준 것을 빼고, 이걸 데이터 전처리 코드 (windowed_dataset)에 추가해준다. 그결과 Conv1D의 input_shape는 [None, 1]로 고정시켜줄 수 있다. 오류 투성이 mae가 30 epoch내에 2보다 작아야 한다고 했다. 한참동안 해서 안돼서 정답을 봤는데, 2보다 작게 돌아간다... 네트워크 구조를 같게해도 내 notebook에선 2보다 작아지지 않는데 ..

728x90