본문 바로가기

Data-science

(128)
semantic segmentation loss 관련 고찰 배경 간단한 knowledge distillation을 구현하고 싶은데 그러면 segmentation loss에 대해 빠삭하게 파악하고 있어야 한다. loss는 분류 문제와 동일하다하고 자세한 설명은 없는 글들이 대부분이다. 이에 도움이 되고자 글을 작성한다. segmentation의 경우 각 object에 대한 mask데이터로 정답(ground truth)을 표현한다. 아래 그림처럼 object가 있는 부분만 흰색이고 없는 경우 검은 배경이다. 과제가 조금 달라 loss를 이해하는 방식에도 조금 차이가 있다. Classification loss 우선 분류 문제 부터 살펴보자. binary classification 에서 softmax후 binary_crossentropy를 적용한다고 생각해보면 soft..
pycocotools 설치 gcc, gnu? visual studio c++ build tools? 우분투가아닌 windows 10, cuda 9.0 환경에서 설치하면 여러 에러가 많다.. 삽질을 거듭하고 여기에 적는다. 누군가에게 도움이 된다면 좋겠다. gcc, gnu? visual studio c++ build tools? 윈도우 환경에서 linux에서 처럼 코드를 빌드해서 라이브러리를 설치할 필요가 있다. 그런데 got demn… 뭐만만하면 buildTools 어쩌고 저쩌고 cl.exe~ ,status2라는 오류가 난다… 이건 pycocotools 설치할 때도 그렇고, pytorch에서 DCNV2 build할 때도 그렇다. 그래서 너무 답답했다. build란 무엇인가… c로 코딩된 걸 py로 바꿔주는 건가? 뭐야? 뭔가 전체적인 개념이 필요하다.. 오늘 한 일 gcc, g++를 MingW를 설치하..
1 stage Detection SOTA - M2Det 정리 M2Det 2독 Beyond scale variation, appearance-complexity variation should be considered too for the object detection task, due to that the object instances with similar size can be quite different. Deeper level learns features for objects with more appearance-complexity variation(e.g., pedestrian), while shallower level learns features for more simplistic objects(e.g., traffic light). 1. Multi Lev..
epoch, iter ? epoch, iter (한 번의 epoch는 인공 신경망에서 전체 데이터 셋에 대해 forward pass/backward pass 과정을 거친 것을 말함. 즉, 전체 데이터 셋에 대해 한 번 학습을 완료한 상태) [출처] 머신 러닝 - epoch, batch size, iteration의 의미|작성자 예비개발자 메모리의 한계와 속도 저하 때문에 대부분의 경우에는 한 번의 epoch에서 모든 데이터를 한꺼번에 집어넣을 수는 없습니다. 그래서 데이터를 나누어서 주게 되는데 이때 몇 번 나누어서 주는가를 iteration, 각 iteration마다 주는 데이터 사이즈를 batch size라고 합니다. 전체 2000 개의 데이터가 있고, epochs = 20, batch_size = 500이라고 가정합시다. ..
ablation study가 뭐냐 대체... An LSTM has 4 gates: feature, input, output, forget. We might ask: are all 4 necessary? What if I remove one? Indeed, lots of experimentation has gone into LSTM variants, the GRU being a notable example (which is simpler). If certain tricks are used to get an algorithm to work, it’s useful to know whether the algorithm is robust to removing these tricks. For example, DeepMind’s original DQN pape..
Path Aggregation Network (PANet) Mask R-CNN + FPN + enhancing information propagation Mask R-CNN과의 차이점 1. 피쳐 추출단에서 - 새롭게 증강된 방식의 bottom-up pathway FPN 구조를 이용한다. 이렇게 하면 low-layer의 특징들이 좀 더 잘 전파된다고 한다. 2. adaptative feature pooling를 이용하여 모든 레벨의 피쳐에서 제안들을 다 추출한다. 3. 예측된 픽셀의 위치 정합성을 향상시키위해 FCN의 conv layer의 출력 결과와 fully connected layer를 이어주는 통로를 만들었다. added a path processing the output of a convolutional layer of the FCN with a full..
detection 복습 Faster R-CNN 알고리즘 feature_maps = process(image) # deep CNN으로 피쳐맵 추출 ROIs = region_proposal(feature_maps) # 피쳐맵에서 RPN으로 ROI 추출 for ROI in ROIs # 각 ROI에 대해서 patch = roi_pooling(feature_maps, ROI) # ROI 풀링 class_scores, box = detector(patch) # Expensive! # ROI에 대해 class score/ box regression class_probabilities = softmax(class_scores) # class score에 대한 확률값 cf0) Anchors? - 처음 물체 위치를 예측할 때 reference로..
detection 연구 Anchor box ? region proposal 자세한 원리 training RPNs, we assign a binary class label (of being an object or not) to each anchor. We assign a positive label to two kinds of anchors: (i) the anchor/anchors with the highest Intersection-overUnion (IoU) overlap with a ground-truth box, or (ii) an anchor that has an IoU overlap higher than 0.7 with 5 any ground-truth box. 각각의 anchor마다 이진 분류 label을 할당하고 anchor의 positive label을 두 종류로 판단한다!!..

728x90