카테고리 없음

[I2S] 90만개 를 학습시킨 모델에 추가학습이 가능할까?

ML.chang 2020. 9. 14. 17:28
  • Epoch: 전체 데이터 학습 한 번만으로 모델이 완성되었다고 보기 어렵기에 반복적인 학습을 통해 높은 정확도 (accuracy)를 가지는 모델을 만들 수 있다. 학습 데이터의 양이 많지 않으면 epoch이 적극적으로 활용된다.
  • Batch: 학습 모델의 weight tuning을 위해 전체 데이터를 메인메모리에 적재하는 것은 기업 규모의 컴퓨터가 아닌 이상 어렵다. 그렇기에 전체 데이터를 잘게 나누어서 메모리에 적재시켜 학습한다.
  • Iteration: 전체 데이터에 대한 오차 (cost) 총합을 가지고 backpropagation을 수행하면 weight가 한 번에 크게 변할 수 있다. 즉, gradient의 이동 폭이 커서 global minimum을 지나칠 수도 있기에 gradient를 반복적으로 조금씩 이동하게 하는 역할을 한다.
  • Epoch 횟수를 너무 크게하면 overfitting이 발생할 수 있다.
  • Batch를 너무 작게하면 iteration이 증가하여 학습 시간(forward + backward propagation)이 오래 걸릴 수 있다.

불가능하다