Recent Posts
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- docker
- MaskRCNN_colab
- 프로그래머스
- 모델 성능 최적화
- rogistic regression
- bcss
- 객체 성능 평가 지표
- MaskRCNN환경구축
- mmdetection
- bargraph
- mask2cocojson
- RMSLE
- flask모델서빙
- 피처 스케일링
- seaborn.barplot
- 기사단원의무기
- 엘라스틱넷
- mask2coco
- 로지스틱 회귀
- PyQt5
- 회귀 평가 지표
- stratified k-fold
- MaskRCNN코랩
- stacking
- MaskRCNN환경구성
- MSLE
- Python
- spleeter
- 청산원함
- 다중 회귀
- Today
- Total
목록stratified k-fold (1)
노트와 노트

※ 이 글은 책 공부한 내용&개인적으로 공부한 내용을 정리한 글입니다! 오버피팅(Overfitting)과 언더피팅(Underfitting) 오버피팅: 모델이 학습 데이터셋에 대해 과하게 학습된 상태. 노이즈(noise, 잡음)를 지나치게 반영하여 학습 데이터 외의 다른 데이터에 대해선 예측 성능이 과도하게 떨어짐. 오버피팅이 발생했을 때 일반적인 해결책은 아래와 같다. 1. 모델의 복잡도 낮추기: 모델의 layer 개수를 낮춰 학습 데이터에 비해 과하게 학습되지 않도록 조절 2. Dropout: 학습 시 일부 뉴런의 연결을 끊기 3. L1/L2 정규화 L1 정규화 - 예측 영향력이 작은 피처를 0으로 만들어 예측 시 해당 피처가 선택되지 않도록 하는 것 L2 정규화 - 상대적으로 큰 가중치의 값을 작게 ..
Machine Learning & DeepLearning
2022. 3. 25. 22:03