안녕하세요? A조 발표를 맡은 홍혜선입니다. 강의 내용은 14~17강의 전반적인 내용과 조별 회의에서 다뤘던 내용을 중심으로 준비했습니다. 먼저 저는 강의별로 내용을 정리했습니다. 14강에서는 ReLU를 다뤘습니다. 기존에 사용했던 Sigmoid는 양 끝 Gradient는 0에 수렴하는 값을 가지기에 Vanishing Gradient 현상이 일어날 수 있습니다. Vanishing Gradient는 다음 사진과 같이 여러 레이어를 쓸 때 Backpropagation으로 Gradient가 소멸되는 현상입니다. 그럼 ReLU의 어떤 특징이 Vanishing Gradient문제를 해결할 수 있었을까요? ReLU는 x가 0보다 작을 때 0을 출력하고, X가 0보다 클 때 자기 자신 출력합니다. 그래프로 나타내면 ..