Deep Learning

ReLU 함수 - 신경망에서 자주 사용하는 활성화 함수

햇농nongnong 2022. 5. 31. 14:51

ReLU (Rectified Linear Unit) 함수


 

 

 

  • 신경망에서 시그모이드 함수를 오래 전부터 이용해왔으나, 사실 ReLU 를 더 많이 이용
  • ReLU 는 입력이 0을 넘으면 그 입력을 그대로 출력하고, 0 이하면 0을 출력하는 함수
  • h(x) = x (x>0) , 0 (x <= 0)
  • Rectified 란 '정류된' 이라는 뜻 - 정류는 전기회로 쪽 용ㅇ로, 예를 들어 반파정류회로(half-wave rectification circuit)는 +/- 가 반복되는 교류에서 - 흐름을 차단하는 회로
    ReLU 함수도 x 가 0 이하일 때를 차단하여 아무 값도 출력하지 않고 0 을 출력한다. 
    따라서 ReLU 함수를 '정류된 선형 함수' 라고 할 수 있다.

 

ReLU 함수 구현
def relu(x) :
	return np.maximum(0, x)

 

 

 

 

 

 Reference

  • 밑바닥부터 시작하는 딥러닝