728x90
그렇지 않다.
F.cross_entropy 에선 one-hot 인코딩을 하지 않아도 cross entropy loss를 잘 계산해준다.
예를 들어 카테고리가 3개라고 하면 pred 값은 (B, 3) 형태일 것이다.
B는 배치 사이즈
이때 target의 형태는 [B] 이면 된다. 각 Batch 마다 하나의 값을 int 값으로 갖고 있으면 된단 말이다. pytorch 에선 .long()으로 케스팅해주면된다. [B, 3]처럼 one-hot encoding 해줄 필요 없음.
Is One-Hot Encoding required for using PyTorch's Cross Entropy Loss Function?
'Data-science > deep learning' 카테고리의 다른 글
[deep learning] vit-adapter를 이용한 애완동물 segmentation (0) | 2022.07.17 |
---|---|
[pytorch] Expected cuda got cpu, 혹은 타입 에러 발생시 (0) | 2022.03.20 |
[pytorch] pytorch cross entropy 사용시 주의할 점, tf sparse categorical cross entropy in pytorch? (0) | 2022.03.09 |
[pytorch] RuntimeError: 0D or 1D target tensor expected, multi-target not supported 에러 (0) | 2022.03.09 |
[논문 읽기] ConvLSTM 이해하기 (0) | 2022.02.24 |