본문 바로가기

반응형

Data-science/논문 읽기

(31)
i.i.d. random variables가 뭐지? 독립 항등 분포 (iid, independent and identically distributed) It means "Independent and identically distributed". 독립항등분포 확률변수가 여러 개 있을 때 (X1 , X2 , ... , Xn) 이들이 상호독립적이며, 모두 동일한 확률분포 f(x)를 가진다면 iid이다. namu.wiki/w/%EB%8F%85%EB%A6%BD%ED%95%AD%EB%93%B1%EB%B6%84%ED%8F%AC 독립항등분포 - 나무위키 independent and identically distributed (iid) 확률변수가 여러 개 있을 때 (X1 , X2 , ... , Xn) 이들이 상호독립적이며, 모두 동일한 확률분포 f(x)를 가진다면 iid이다. 만일 오차항(error term)의 공분산 행렬을 안� namu.wiki www.ktword...
gan 논문에 등장하는 artifact 뜻? 사전에서 artifact는 “인공물“, “유물” 이란 뜻이다. Many observers have noticed characteristic artifacts in images generated by StyleGAN [3] - sytlegan2에 등장하는 글귀이다. gan은 그럴싸하게 원본 이미지와 최대한 유사한 가짜 이미지를 만들어 내는 것이다. 이때, artifact란 단어는 gan의 목적에 비추어볼 때, 생성한 이미지가 어떤 지와 관련됐다. 즉, 이 이미지가 진짜 이미지와 다르게 뭔가 인공적고, 인위적이라고 느껴지는 결점이나 옥에 티를 의미한다고 할 수 있겠다. 이미지 생성시 발생하는 특징적인 결점들이 있다.라고 의역하는 게 옳을 듯 https://arxiv.org/pdf/1912.04958.pdf
논문에 등장하는 revisit 뜻? 재방문하다가 아니라, 재고하다는, 좀 회의적인 의미로 해석하는 게 옳을 듯하다. In particular, we redesign the generator normalization, revisit progressive growing, and regularize the generator to encourage good conditioning in the mapping from latent codes to images. In addition to improving image quality, this path length regularizer yields the additional benefit that the generator becomes significantly easier to invert. progre..
[Deep learning 논문 읽기] StyleGAN loss 이해, 얕게 읽는 WGAN, WGAN-GP style gan loss 이해하기 위해, 여기에 쓰인 WGAN-GP loss를 살펴볼까 한다. 우선 GAN loss, WGAN loss의 차이를 살펴보고 WGAN loss를 이해한다면 WGAN-GP loss도 이해할 수 있다. 수식적으로 깊게 들어가진 않는다. 얕게! GAN vs WGAN 위 그림을 보면 GAN과 WGAN의 차이를 확연하게 알 수 있다. GAN의 Discriminator와 유사한 역할을 하는 게 Critic이다. 그런데 discriminator의 경우 출력 값으로 확률 값이 필요하기에 Logistic Sigmoid function을 마지막 logit에 취해줘야 했다. Critic의 경우 이게 없다. 대신 f 가 추가 되는데, 위에서 f는 1-Lipschitz function이다. 이 조..
[Deep learning 논문 읽기] style-gan 1 1. Abstract & Introduction 중요한 점 원래 gan은 latent vector에서 바로 mapping해서 뭔가 style 조절하기가 어려웠다. 또 latent vector가 학습 데이터의 확률 분포를 따를 수 밖에 없다. 이걸 entanglement (얽혔다는 뜻) 라고 하는 듯. style-gan은 이를 보완한다. 그게 여기서 강조하는 intermediate latent space이다. 2. Style Based Generator - 예전엔 latent code(z)가 input layer를 통과하는 형식으로 generator가 동작했다. 여기선 아예 input layer를 생략하고 어떤 상수를 배우고 이렇게 배운 상수에서 시작한다! 이 상수가 뭐냐면 아래 그림 (b)에서 합성 네트..
[딥러닝 논문 리뷰] A Spatio-Temporal Spot-Forecasting Framework for Urban Traffic Prediction - 1 A Spatio-Temporal Spot-Forecasting Framework for Urban Traffic Prediction https://arxiv.org/pdf/2003.13977v2.pdf https://github.com/rdemedrano/crann_traffic 시공간 예측 모델의 특징 머신러닝 기반 데이터 표본들이 모두 독립적으로 발생했다는 가정이 있는데, 사실 데이터 간에 상관관계는 매우 높아 문제가 있음 딥러닝 기반 임의의 복잡한 함수를 근사시키는 능력, feature representation 학습하기 쉬운점 위 두 특징들이 가정을 덜 가져가도되게하고 데이터상 상관관계를 허용한다. RNN 시계열 데이터 예측엔 강점을 가졌으나, 공간 데이터에 적용하긴 쉽지 않다. 따라서 RNN의 ..
ablation study가 뭐냐 대체... An LSTM has 4 gates: feature, input, output, forget. We might ask: are all 4 necessary? What if I remove one? Indeed, lots of experimentation has gone into LSTM variants, the GRU being a notable example (which is simpler). If certain tricks are used to get an algorithm to work, it’s useful to know whether the algorithm is robust to removing these tricks. For example, DeepMind’s original DQN pape..

728x90
반응형