차이 선택: 비교하려는 판의 라디오 버튼을 선택한 다음 엔터나 아래의 버튼을 누르세요.
설명: (최신) = 최신 판과 비교, (이전) = 이전 판과 비교, 잔글= 사소한 편집

2023년 2월 16일 (목)

  • 최신이전 08:242023년 2월 16일 (목) 08:24Ahn9807 토론 기여 634 바이트 +634 새 문서: 분류: 딥러닝 600px|섬네일|가운데 == 개요 == ICML'15논문에서 소개된 batch normalization은 딥러닝의 학습 능력, 속도 그리고 안정성을 획기적으로 높힌 알고리즘이었다. Batch normalization은 Input들의 평균과, variance를 구하여 intermediates를 구하여 감마와 베타값을 학습 시켜서 normalization과 학습을 시킨것이다. 이때 hyper parameter인 감마와 베타의...