제출 번호 | 모델 | 메모 | f1 (public → private) | acc (public → private) | acc (train , val) | loss (train , val) | config.json (SOTA 비교하여 다른 점) | 아쉬운 점 + 느낀 점 | |
---|---|---|---|---|---|---|---|---|---|
1 | Eff b6 | train,val 그래프는 좋던데.. | 0.4896 → 0.4872 | 63.2063 → 61.7619 | 90 , 89.31 | 기록 지움ㅠ | batch : 64(valid 도) , optm : Adam ,epoch : 10, loss : focal , lr : 1e-5 | 이미지 사이즈(논문에 맞추지 않고 아마 128,96?) | |
2 | Eff b7 | 오버피팅 끝판왕..; | 0.6077 → 0.5864 | 68.2063 → 67.7619 | 99 , 96.80 | 기록 지움ㅠ | (1) + epoch : 40 | (1)와 같음 | |
3 | Eff b7 | custom augmentation 추가 + age band : 25,55 | 0.5891 → 0.5584 | 64.4286 → 63.7143 | 99 , 92.83 | 기록 지움ㅠ | (2) + custom Augmentation | (1)와 같음 + (25,55)는 아니군! | |
4 | Eff b7 | Base augmentation 그대로 + age band : 27,57 | 0.6332 → 0.5983 | 68.3968 → 66.5238 | 기록 지움ㅠ | 기록 지움ㅠ | (2) + batch : 32 | (1)와 같음 + (27,57)은 그나마..? | |
5 | Vit | age band : 27,57 | 0.2781 → 0.2719 | 37.0635 → 35.6190 | 기록 지움ㅠ | 기록 지움ㅠ | (1) + epoch : 3 + resize : 224,224 | 다른 분들은 잘 되던데.. | |
6 | Swin Transformer | age band : 29,57(🙏태일님) choices → sample(🙏주영님) 여기까지 (base_v2) | 0.6621 → 0.6527 | 73.8571 → 74.3016 | 기록 지움ㅠ | 기록 지움ㅠ | epoch : 1 , dataset : MaskSplitByProfileDataset, augmentation : CustomAugmentation , batch : 16 , optm : AdamW ,lr : 2e-5, loss : f1 , lr_decay_step : 4 ,val_ratio : 0.2 | epoch 왜 1로했지.. | |
7 | Swin Transformer + Lightning | 이제부턴 (6)과 동일(🙏세연님) | 0.7763 → 0.7623 | 81.7619 → 81.1270 | 87 , 83 | 0.57 , 0.38 | (6) + epoch : 5 | 최고 기록 달성! | |
8 | Swin Transformer + Lightning | 0.7594 → 0.7402 | 79.8730 → 79.3333 | 96 , 83 | 0.53 , 0.37 | (6) + epoch : 15 | 오버피팅의 표본.. | ||
9 | Swin Transformer + Lightning | 0.7594 → 0.7402 | 79.8730 → 79.3333 | 96 , 85 | 0.53 , 0.36 | (6) + epoch : 13 | 15번 돌리면 오버피팅 나구나.. 13번 돌린다면 ..? → 여전히 오버피팅, 제출할 때 비교해보고 내자.. | ||
10 | Swin Transformer + Lightning | 0.7414 → 0.7281 | 78.8413 → 79.0000 | 93 , 83 | 0.5 , 0.37 | (6) + epoch : 7 | 7번 돌리면 더 낮게 나오네 ..? → 실시간으로 best.pth 파일 확인해야겠네 | ||
11 | Swin Transformer + Lightning | 0.7763 → 0.7623 | 81.7619 → 81.1270 | 92 , 83 | 0.57 , 0.38 | (6) + epoch : 6 | 무지성으로 6번돌림(자정 직전 기회 남음) → 분석 후 제출하자..그래프 봤으면 3번 돌린게 최적인 걸 알았을텐데.. | ||
12 | Swin Transformer + Lightning | age band 실험 → 29,58 | 0.7808 → 0.7741 | 82.0635 → 81.9524 | 90 , 86 | 0.57 , 0.38 | (6) + epoch : 5 + ageband : 29,58 | 초심으로 돌아와 기본세팅 + age밴드 수정 → 기록 갱신, train vs val 비교해서 그래프만 봐도, ‘이게 일반화가 잘된거구나’ 바로 알 수 있음(train vs val의 그래프 간격 차이) | |
13 | Swin Transformer + Lightning | age band 실험 → 29,59 | 0.7727 → 0.7651 | 82.3175 → 81.9683 | 91 , 89 | 0.55 , 0.3867 | (6) + epoch : 5 + ageband : 29,59 | 내 모델 기준 29,58이 최적이겠군! | |
14 | Swin Transformer + Lightning | age band 29,57로 회귀(age band의 최적을 알았으니.. 다른것을 조절해볼까? → epoch:3) | 0.7763 → 0.7623 | 81.7619 → 81.1270 | 86 , 83 | 0.60 , 0.42 | (6) + epoch : 3 | 무지성 실험 끝 . 실험관리의 중요성 → 하나를 변경했으면 나머지도 다시 변경해야 하나? → 그러지말고 AutoML 또는 최적의 파라미터 세팅후에 비교하자(epoch은 그래프만 봐도 아니까) + 이때 머리 복잡하기 시작 | |
15 | Swin Transformer + Lightning | 최적으로회귀(12) + val_ratio 팀원끼리 다른거 확인하고 0.2 →0.1 | 0.7679 → 0.7430 | 81.0317 → 80.3175 | 90 , 86 | 0.56 , 0.38 | (12) + val_ratio : 0.2 → 0.1 | 태일님 데이터의 경우엔 샘플링을 통해 학습데이터 부족 → val ratio 가 0.1인게 적합, 하지만 내 데이터의 경우는 충분하기에 val ratio를 줄이면 오버피팅이 일어날 수 있음!(f1 score 감소한게 큼), 하지만 실험관리 보면서 꼼꼼하게 다른 점 파악한 건 잘함! | |
16 | Swin Transformer + Lightning | (15) + epoch 8 | 0.7723 → 0.7585 | 81.4762 → 81.3016 | 94 , 87 | 0.55 , 0.40 | (12) + val_ratio : 0.2 → 0.1 + epoch : 5 → 8 | val ratio를 줄이고 epoch을 8로 늘리면, 오히려 오버피팅이 날거라고 생각했는데, 왜 더 늘지..? 알다가도 모르겠네 | |
17 | Swin Transformer + Lightning | 최적으로회귀(12) + Test Data Center Crop | 0.7822 → 0.7731 | 81.6508 → 81.5397 | (12) 그대로 →test data set만 수정했으니 | (12) 그대로 →test data set만 수정했으니 | (12) + Test Data Set Center Crop | 대회마다 다르겠지만, 이번 대회의 경우는 암호화된 파일로 테스트데이터 제공 → 살펴본후에 학습데이터와 다를게없네? → 데이터전처리 학습과 동일하게 해도 될듯! → 개인 최고기록 갱신! | |
18 | Swin Transformer + Lightning | 최적으로회귀(12) + Test Data에 Center Crop, Color Jitter | 0.7776 → 0.7670 | 81.2857 → 81.0794 | (12) 그대로 →test data set만 수정했으니 | (12) 그대로 →test data set만 수정했으니 | (12) + Test Data Set Center Crop + Test Data Set Color Jitter | 센터크롭이 성공했으니, 테스트 데이터를 트레인 데이터와 아예 같게..? → 컬러지터는 안되네.. 어떻게 해석해야 하나(평가 데이터에 노이즈 x..? 학습 데이터와 비슷하다 ..?) |
<실험 메모 → 위의 표 기준>
17번 : 2958nogaussianval0.2e5t_ccrop
15번 : 2958val0.1
16번 : 2958val0.1epochs8real
제출x실험만 : 2960val0.2nogaussian → age : 29,60 + SOTA 동일
제출x실험만 : addgaussiannoise → train 시에 AddGaussiannoise 추가 + SOTA동일
12번 : f1loss_exp19=exp19
제출x실험만 : focal → SOTA 동일 + loss만 focal → 발표자료용
exp 2 : epochs 5, age : 29,57 —> 0.7763_81.7619
exp 13 : epochs 6, age : 29,57 —> 0.7763_81.7619
exp 17(exp9) : epochs 7 , age : 29,57 —> 0.7414_78.8413
exp 4 : epochs 15 , age : 29,57 —> 0.7594_79.8730
exp 5 : epochs 13 , age : 29,57 —> 0.7594_79.8730
exp 19 : epochs 5 , age : 29,58 —> 0.7808_82.0635
exp 20 : epochs 5 , age : 29,59 —> 0.7727_82.3175