본문 바로가기

Data-science

(128)
동물(개, 강아지) 얼굴만 추출, pretrained detection model 이용하기 github.com/kairess/dog_face_detector kairess/dog_face_detector Detect dog face rect and facial landmarks(6 points) using dlib - kairess/dog_face_detector github.com detector만 필요하다. cnn base의 얼굴 검출기다. 여러 개가있는 이미지를 입력하고. Detector에서 검출된 Rectangle에 빨간 테투리를 그려준다. 그려준 후, (내가 추가한 코드) 원하는 크기만큼 잘라서 얼굴 이미지를 원하는 사이즈로 리사이징한 후 저장해준다. 빨간 사각형이 잘 그려졌다. 강아지 얼굴만 저장하기! 그럭저럭 잘 된듯하다. 학습 하나 안 하고도 이렇게 검출이 가능합니다.
multi gpu 실패... 원인을 알 수 없다. study-grow.tistory.com/entry/multi-gpu-%EC%8B%A4%ED%8C%A8-tensorflow-mirrored-strategy multi gpu 실패, tensorflow mirrored strategy 멀티 GPU가 잡히지 않을 떄 mirrored_strategy = tf.distribute.MirroredStrategy() tf.keras로 multi gpu를 쓰려면 위에 구문을 쳐주고 mirrored_strategy scope내에 model 생성 및 compile을 해줘야 한다. with.. study-grow.tistory.com 위 방법을 쓰면 될 줄 알았다만... gpu가 동작하지 않는다... 뭐가 문제인 걸까? NotImplementedError: _reduce ..
multi gpu 실패, tensorflow mirrored strategy 멀티 GPU가 잡히지 않을 떄 mirrored_strategy = tf.distribute.MirroredStrategy() tf.keras로 multi gpu를 쓰려면 위에 구문을 쳐주고 mirrored_strategy scope내에 model 생성 및 compile을 해줘야 한다. with mirrored_strategy.scope(): dense = densenet.DenseNet121(include_top=False, classes=2) inputs = tf.keras.Input(shape=(256, 256, 3)) x = dense(inputs) x = tf.keras.layers.GlobalAveragePooling2D()(x) outputs = tf.keras.layers.Dense(1, a..
[논문 읽기] StyleGAN2 Distillation for Feed-forwardImage Manipulation - 2 3.1 Data collection Style mixing 이란? - regularization 기법이다. 다른 스케일에 입력되는 w_1, w_2의 latent code를 사용한다. Face morphing (얼굴이 서서히 변하게 만드는 것)은 이런 w들 사이의 linear interpolation과 관련돼있다. - 각 task 마다 5만장의 샘플을 만들었다. 각 샘플은 2장의 source 이미지와 target 이미지로 이루어진다. 이미지 샘플 생성 과정은 이렇다. 정규 분포에서 임의의 z를 샘플링하고, w로 맵핑 후, stylegan2를 이용해 이미지를 생성한다. 이렇게 각 source 이미지 2장을 생성한다. target 이미지는 대응하는 w에 연산을 수행하고 그 결과 stylegan2에 feedin..
[논문 읽기] StyleGAN2 Distillation for Feed-forwardImage Manipulation - 1 실제 이미지를 임베딩하는 것 (vector, latent code로 표현하는 것)에는 주로 latent code를 역전파로 optimization 하는 과정이 쓰인다. 그런데 이건 매우 느리다. 여기선 stylegan2에 쓰인 이미지 조종 기법을 distillation(선생, 학생 각 네트워크를 이용 정확도 성능을 개선하면서도 좀 더 가볍게 만드는 학습 기법)할 것을 제안한다. 새로운 방식은 pix2pix처럼 paired한 방식으로 훈련된, 이미지 대 이미지 네트워크이다. 이렇게 나온 파이프라인은 기존의 unpaired한 데이터로 훈련된 GAN들을 대체할 수 있다. 사람 얼굴 변형, 성별 변형, 연령 변형, 스타일 변형, 이미지 morphing(모핑, 어떤 모습을 전혀 다른 모습으로 서서히 변형시키는 것..
dacon - Rainnet기반 강수량 예측시 CSI, MAE 계산 CSI 계산법 예) import numpy as np true = np.array([0.2, 0.3, 0.4, 0.05, 0.03]) pred = np.array([0.05, 0.2, 0.3, 0.01, 0.5]) true_ok = true >= 0.1 pred_ok = pred >= 0.1 num_true_ok = np.sum(true_ok) num_pred_ok = np.sum(pred_ok) num_H = np.sum(true_ok & pred_ok) num_total = np.sum(true_ok | pred_ok) print(f'true_ok : {num_true_ok}, pred_ok : {num_pred_ok} ==== \ntrue_ok : {true_ok},\npred_ok : {pred_..
dtreeviz IndexError, decision tree visualization random forest 모델 혹은 decision tree 모델을 이용했을 경우 모델이 어떻게 작동하는지 설명을 요구할 때가 있다. RandomForestRegressor를 이용해서 회귀분석을 진행했다. 그런데 RandomForestRegressor같은 경우 여러 Decision tree의 앙상블 모델로 tree를 한 번에 시각화하기가 어렵다. 그래서 tree중 하나를 선택해서 시각화한다. 그러다 좋은 라이브러리를 발견했다. dtreeviz 이런식으로 쓰면되는 간단하고 편리한 라이브러리다! model = Pipeline([('scaler',MinMaxScaler()), ('DecisionTreeRegressor', DecisionTreeRegressor(criterion='mae', max_depth=..
Spatiotemporal CNN for Video Object Segmentation Spatiotemporal은 시공간 데이터이다. 비디오가 그 예다. 시간에 따라 이미지 데이터가 있다. 이미지내의 픽셀들의 위치는 공간이라 할 수 있으니 비디오는 시공간 데이터다. 또 시간에따른 교통량 데이터라든가, 시간에따른 인공위성에서 찍은 구름 사진 데이터도 Spatiotemporal하게 접근해야할 데이터다. 보통 시간이 들어가면 RNN의 일종인 LSTM이 쓰일 거라 생각한다. ConvLSTM이 그 방법중 하나다. 하지만 LSTM 없이 그냥 segmentation 방식으로 예측하기도 한다. 여기선 비디오 데이터가 input으로 들어가고 특정 시간의 frame, 즉 이미지를 예측하는게 과제다. 신기하게 gan의 loss를 차용한다. 아이디어가 쌈박하다. 그래서 기록해둔다. 그림에서 위의 브런치는 시간..

728x90