3.5기(200104~)

3.5기 2팀 regularization

KAU-Deeperent 2020. 1. 17. 15:06

Training 데이터에 과도하게 학습 시키면 Test 데이터에서는 error가 커지는 것을 오버피팅라한다.

그러한 오버피팅을 막기위해서 사용하는 방법들을 Regularization 이라 한다.
Dropout, Dropconnect등 여러가지 방법들이 존재하고 각각 어떤 방법으로 오버피팅을 줄이는지 설명하였다.
Regularization.pptx
0.68MB

'3.5기(200104~)' 카테고리의 다른 글

1팀 Inception Network  (0) 2020.02.01
20.02.01 4팀 발표주제 : MNIST  (0) 2020.02.01
1팀 RBM  (0) 2020.01.18
3.5기 1팀 VGG  (0) 2020.01.14
3.5기 2팀 GoogLeNet  (0) 2020.01.10