320x100
320x100
제목 그대로다.
CNN을 사용할 때면 보통 input image를 255로 나눠서 0~1 사이의 값을 갖도록 맞춘다.
왜 그러는 걸까?
정확한 근거를 못 찾아서 어디까지나 내 생각이지만,
neural network가 feature scale에 예민한 모델이라 0 ~ 1로 맞춰주는 게 아닐까 싶다.
그리고 스쳐 지나가듯 읽은 사이트에서
255라는 값이 network 학습에 바로 사용하기에는 너무 큰 값이라서 0 ~ 1로 rescaling하는 것이라는 글을 본 기억이 있다.
제대로 된 결론은 못 내렸지만.. 뭐 그냥 그렇다고... 나처럼 궁금해하는 사람이 있을까 해서..
정확히 알고 계신분 댓글 남겨주시면 감사하겠습니다!
'Deep Learning > 인공지능 개념 정리' 카테고리의 다른 글
헷갈리는 Dice와 IoU 개념, 내가 정리해 봄ㅋ (1) | 2022.08.02 |
---|---|
Probability Calibration 개념 정리 (0) | 2021.12.16 |
IoU, Intersection over Union 개념을 이해하자 (13) | 2021.08.31 |
CNN에서 커널 사이즈는 왜 3x3을 주로 쓸까? (0) | 2020.01.15 |
CNN이 이미지에 더 효율적인 이유 (0) | 2020.01.14 |