글의 목적 이전 글에서는 신경망 학습을 위한 매개변수(가중치, 편향)의 기울기를 산출하기 위해서 손실 함수(error function)를 수치 미분하였습니다. 수치 미분은 구현하기 쉽지만 계산이 오래 걸렸습니다. 역전파는 이보다 빠르게 모든 매개변수의 기울기를 산출할 수 있습니다. 이번 글에서는 오차 역전파(backpropagation)에 대해서 알아보도록 하겠습니다. 목차 1. 계산그래프란? 2. 역전파의 기본 과정 3. 활성화 함수의 계층 구현하기 4. (어파인 변환) Affine transformation 5. Softmax & Error function( MSE, CEE ) 6. 역전파( backpropagation ) vs 수치 미분 (numerical differential) 장단점 1. 계산..