검색 여닫기
검색
메뉴 여닫기
515
223
4
2천
noriwiki
둘러보기
대문
최근 바뀜
임의의 문서로
미디어위키 도움말
특수 문서 목록
파일 올리기
환경 설정 메뉴 여닫기
notifications
개인 메뉴 여닫기
로그인하지 않음
지금 편집한다면 당신의 IP 주소가 공개될 수 있습니다.
user-interface-preferences
한국어
개인 도구
로그인
Recurrent neural network 문서 원본 보기
noriwiki
문서 공유하기
다른 명령
←
Recurrent neural network
문서 편집 권한이 없습니다. 다음 이유를 확인해주세요:
요청한 명령은 다음 권한을 가진 사용자에게 제한됩니다:
사용자
.
문서의 원본을 보거나 복사할 수 있습니다.
[[분류: 딥러닝]] == 개요 == Feed Forward Neural Network와는 다르게, 은닉층의 출력 값을 출력층으로 보내는 것 뿐만 아니라, 내부적으로 다시 다른 은닉층으로 보내는 신경망을 말한다. RNN은 순차적인 데이터 혹은 시간 의존성이 있는 데이터를 다룰 수 있어서, 자연어 처리, 음성 인식, 시계열 예측등에 널리 사용된다. [[파일:Typical connections in a close-loop cross-coupled perceptron.png|섬네일]] RNN에서 Activation function을 통해서 결과를 도출하는 노드를 Cell이라고 하며, 메모리와 같은 역활을 수행하기 때문에 종종 Memory cell이라고 표현하기도 한다. 이는 전통적인 Feed forward neural network에서 각각의 노드들을 뉴런이라고 불렀던것과는 다르게, 각 노드들을 은닉층이라고 부른다. 이 은닉층들은 이전 단계의 출력을 현재 단계의 입력에 포함시키기 때문에, 데이터의 시간적 관계나 문맥을 학습할 수 있게 한다. RNN는 그러나 '''Vanishing Gradient'''와 '''Exploding Gradient'''문제에서 자유롭지 않다. 이런 문제를 해결하기 위해서 Long Short-Term Memory([[LSTM]])같은 다양한 방식의 RNN아키텍쳐가 개발되었다.
Recurrent neural network
문서로 돌아갑니다.