bias2 Bias-Variance Tradeoff / Andrew Ng의 데이터셋 나누기 [Bias-Variance Tradeoff] 2가지 종류의 에러- Bias: 잘 모여있긴 한데 중앙에서 멀어짐- Variance: 평균은 정답에 가깝지만 값별로 차이가 큼 에러는 Bias+Variance+noise Variance - Overfitting이 일어날 수록 커짐Bias - Underfitting일 수록 커질 수 있음두 가지는 Trade off 관계 Train이 진행될 수록(함수가 복잡해질 수록) Bias가 내려가고 Variance가 올라가기 때문에두 가지 에러의 합이 최저가 되는 점을 찾는 것이 Overfitting을 피하는 방법 [Andrew Ng의 데이터 셋 나누기]기존의 Train - Validation - Test데이터로 나누던 것을Train - Train_Validation - Te.. 2017. 3. 27. 누구나 처할 문제 오버피팅overfitting 과적합 누구나 처할 문제 오버피팅overfitting 과적합 [Overfitting]underfit : 너무 단순하게 모델 생성하여 모델의 데이터 설명력이 떨어짐overfit : 너무 테스트 데이터에만 함몰된 모델 생성 미지의 데이터까지 어떻게 generalization 하느냐가 중요함.적절한 복잡도의 model selection problermTrain error가 0이 될 수 있지만 이보다 Test error를 잡는것이 중요함 [Overfitting 피하기]- Train / Test / Validation Set Train을 하면 할 수록 error가 내려가지만Test error는 감소하다가 증가하는 시점이 나타남 그 이후가 Overfitting 시점방법 Validation set에서의 에러가 증가하는 시점.. 2017. 3. 24. 이전 1 다음 반응형