메뉴 여닫기
환경 설정 메뉴 여닫기
개인 메뉴 여닫기
로그인하지 않음
지금 편집한다면 당신의 IP 주소가 공개될 수 있습니다.

Activation function: 두 판 사이의 차이

noriwiki
새 문서: 분류: 딥러닝 600픽셀|가운데 == 개요 == 딥러닝 네트워크에서는 노드에 들어오는 값들에 대해 곧바로 다음 레이어로 전달하지 않고 주로 비선형 함수를 통과시킨 후 전달한다. 이때 사용하는 함수를 활성화 함수(Activation Function) 이라 부른다. == 종류 == # Sigmoid # Hyperbolic Tangent # Rectified Linear Unity # Leaky ReLU # Exponential LU
 
(차이 없음)

2023년 2월 16일 (목) 08:24 기준 최신판


개요

딥러닝 네트워크에서는 노드에 들어오는 값들에 대해 곧바로 다음 레이어로 전달하지 않고 주로 비선형 함수를 통과시킨 후 전달한다. 이때 사용하는 함수를 활성화 함수(Activation Function) 이라 부른다.

종류

  1. Sigmoid
  2. Hyperbolic Tangent
  3. Rectified Linear Unity
  4. Leaky ReLU
  5. Exponential LU