개발한 학습 알고리즘이 높은 피할 수 있는 편향
으로 부터 고통받고 있다면, 다음과 같은 기법들을 시도해 볼 수 있다:
-
모델 크기를 증가 시키는 것 (뉴런/레이어의 수): 알고리즘이 학습 데이터셋에 더 잘 맞아들어가게 해 주는 기법으로
편향
을 줄여줄 것이다. 이 기법으로 인해서분산
의 증가라는 결과가 발생한다면, 정규화 기법을 사용해 보자. 일반적으로 정규화 기법은분산
의 증가를 제거해 준다. -
에러 분석으로 부터 얻은 통찰력에 기반하여, 입력 feature를 변경하는 것: 에러분석이 알고리즘이 실수하는 특정 에러 종류를 제거함에 도움을 줄 수 있는, 추가적인 feature의 생성에 대한 어떤 영감을 주었다고 가정해 보자 (더 많은 내용들이 다음 챕터에서 다뤄진다). 이 새로 정의된 feature는
편향
과분산
모두에게 도움이 될 수도 있을 것이다. 이론적으로, 더 많은 feature를 추가하면분산
이 증가하게 된다; 하지만, 이 경우에는 정규화 방법을 사용해서분산
의 증가를 제거해 나갈 수 있다. -
L2, L1, 또는 Dropout과 같은 정규화 기법의 사용을 제거하거나 줄이는 것: 이 방법은
피할 수 있는 편향
을 줄이는데 도움을 주지만,분산
을 증가시키게 된다. -
모델설계의 구조를 변경하여, 주어진 문제에 더 적합하도록 만드는 것: 이 기법은
분산
과편향
모두에게 영향을 미칠 수 있다.
크게 도움 되지 않는 방법 한 가지:
- 더 많은 학습 데이터를 추가하는 것: 이 기법은
분산
문제에 대해서는 도움을 줄 수 있지만,편향
문제에 대해서는 일반적으로 큰 영향이 없다.