<느낀 점>
- 텐서보드 못 믿겠다.. effb7했을 때, train 99 val 97 나오길래 기록 갱신 할 줄..
- (기록 지워서 못 보지만) 분명 overfitting 일어나서 , epochs 30으로 해도 10쯤에 저장되었을 수도
- pth파일 저장되는 시간을 잘 봤어야 함. epochs 무지성으로 늘린다고 효율적이진 않음.
- Pytorch Lite 쓰고나서 내 생각에는 같은 세팅이라 생각했지만, 속도도 빠르고 성능도 상승
- 성능이 잘나와도 머리가 아프다.
- 왜 잘 나오는지? → XAI 공부하기..(Gradient Cam) 🙏규범님
- 성능을 더 높이기 위해 인자들 수정 (optimizer,batch size,lr,epoch, step,decay 등등 너무 많음) → 지수 승으로 늘어나니 .. AutoML 필수다..
- 제출 할 때 annotation 필수!
- 바보 같이 똑같은 제출 2번이나 함..
Sorry to 내가네가..
- SOTA 모델과 검증 해주는 코드 절실!🙏시현님
<높은 등수의 요인(개인적인 생각→발표 자료 목차로 !)>
- 프로그램
- Swin Transformer
- f1 loss
- Pytorch Lite
- 데이터
- 배경제거
- EDA를 통한 mislabeling 해결
- age band 수정 및 샘플링
- random.choices → random.sample
- 커뮤니케이션
<궁금증>
- 베이스라인을 만드신 분들의 여러 코드를 넣은 이유?
- 텐서보드 상의 학습 그래프에서 early stopping 기준 : accuracy? vs loss?
- 왜 test size (96,128) ?
- 최종제출 일반적인 관행?
- SOTA 1
- 앙상블(Hard Voting) →상위 8개
배경제거하지 않은 내 SOTA(ㄲㅂ..)
<해결하지 못한 이슈>
- 모델별 성능
- vgg 모델은 학습시에도 큰 성과 X
- EfficientNet-b7의 경우 epoch30번 → train : 99, val : 97
- best.pth를 확인해가며 학습하지 못한 잘못 도 있지만, 오버피팅의 이슈..?
- dataset.py의 mean,std 값의 의미 ..?
- 이미지넷
- mean = [0.485, 0.456, 0.406]
- std = [0.229, 0.224, 0.225[
- 마스크 데이터 default
- mean = [0.548, 0.504, 0.479]
- std = [0.237, 0.247, 0.246]
- 배경 제거 데이터(train) 🙏상렬님
- 전체 길이 : 18900
- mean = [0.20629331, 0.17723827, 0.16767759]
- std = [0.34968819, 0.30846628, 0.29714536]
- 배경 제거 데이터(eval) 🙏상렬님
- 전체 길이 : 12600
- mean = [0.20683326, 0.16344436, 0.15733106]
- std = [0.35039557, 0.28900916, 0.27917677]
- 원본 데이터
- 구해보진 않았지만, 아마 마스크 데이터의 default일 듯(test 데이터만 해봤는데 비슷하게 나옴)