<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ko">
	<id>http://junhoahn.kr/noriwiki/index.php?action=history&amp;feed=atom&amp;title=Long_short-term_memory</id>
	<title>Long short-term memory - 편집 역사</title>
	<link rel="self" type="application/atom+xml" href="http://junhoahn.kr/noriwiki/index.php?action=history&amp;feed=atom&amp;title=Long_short-term_memory"/>
	<link rel="alternate" type="text/html" href="http://junhoahn.kr/noriwiki/index.php?title=Long_short-term_memory&amp;action=history"/>
	<updated>2026-05-14T20:47:10Z</updated>
	<subtitle>이 문서의 편집 역사</subtitle>
	<generator>MediaWiki 1.43.0</generator>
	<entry>
		<id>http://junhoahn.kr/noriwiki/index.php?title=Long_short-term_memory&amp;diff=2009&amp;oldid=prev</id>
		<title>Ahn9807: 새 문서: 분류: 딥러닝  == 개요 == 섬네일 LSTM은 RNN의 일종으로 Lon-term dependency문제를 해결하기 위해 설계된 모델이다. RNN은 Gradient vanishing문제에서 자유롭지 않다. 예를 들어서, &quot;비가 오는 날에는 공연히 집에만 있고 싶어지네요. 그날도 ( )가 왔죠.&quot;에서 ( )에는 비가 들어가 되지만, Gradient vanshing으로 인해서 ( )에 들어가는 말을 엉뚱하게 예측할 수...</title>
		<link rel="alternate" type="text/html" href="http://junhoahn.kr/noriwiki/index.php?title=Long_short-term_memory&amp;diff=2009&amp;oldid=prev"/>
		<updated>2025-03-26T07:31:30Z</updated>

		<summary type="html">&lt;p&gt;새 문서: &lt;a href=&quot;/noriwiki/index.php?title=%EB%B6%84%EB%A5%98:%EB%94%A5%EB%9F%AC%EB%8B%9D&quot; title=&quot;분류:딥러닝&quot;&gt;분류: 딥러닝&lt;/a&gt;  == 개요 == &lt;a href=&quot;/noriwiki/index.php?title=%ED%8C%8C%EC%9D%BC:LSTM_Cell.svg&quot; title=&quot;파일:LSTM Cell.svg&quot;&gt;섬네일&lt;/a&gt; LSTM은 RNN의 일종으로 Lon-term dependency문제를 해결하기 위해 설계된 모델이다. &lt;a href=&quot;/noriwiki/index.php?title=RNN&quot; class=&quot;mw-redirect&quot; title=&quot;RNN&quot;&gt;RNN&lt;/a&gt;은 &lt;a href=&quot;/noriwiki/index.php?title=Gradient_vanishing&amp;amp;action=edit&amp;amp;redlink=1&quot; class=&quot;new&quot; title=&quot;Gradient vanishing (없는 문서)&quot;&gt;Gradient vanishing&lt;/a&gt;문제에서 자유롭지 않다. 예를 들어서, &amp;quot;비가 오는 날에는 공연히 집에만 있고 싶어지네요. 그날도 ( )가 왔죠.&amp;quot;에서 ( )에는 비가 들어가 되지만, Gradient vanshing으로 인해서 ( )에 들어가는 말을 엉뚱하게 예측할 수...&lt;/p&gt;
&lt;p&gt;&lt;b&gt;새 문서&lt;/b&gt;&lt;/p&gt;&lt;div&gt;[[분류: 딥러닝]]&lt;br /&gt;
&lt;br /&gt;
== 개요 ==&lt;br /&gt;
[[파일:LSTM Cell.svg|섬네일]]&lt;br /&gt;
LSTM은 RNN의 일종으로 Lon-term dependency문제를 해결하기 위해 설계된 모델이다. [[RNN]]은 [[Gradient vanishing]]문제에서 자유롭지 않다. 예를 들어서, &amp;quot;비가 오는 날에는 공연히 집에만 있고 싶어지네요. 그날도 ( )가 왔죠.&amp;quot;에서 ( )에는 비가 들어가 되지만, Gradient vanshing으로 인해서 ( )에 들어가는 말을 엉뚱하게 예측할 수도 있는 것이다. 이처럼 Long-term dependency, 즉 장기 의존성 문제도 해결한 모델이 LSTM이다.&lt;br /&gt;
&lt;br /&gt;
LSTM은 Input에서 어떤 정보가 차후에 유용하게 사용할지를 학습힌다. LLM에서 이러한 유용한 정보에는 문법 정보, 문맥 정보와 같은 정보를 포함하기 때문에 LSTM은 단순히 RNN을 사용하는 것에 비해서, 정확한 값을 도출해 낸다.&lt;br /&gt;
&lt;br /&gt;
LSTM의 동작은 기본적으론 RNN과 유사하지만, 내부에 세개의 주요 게이트를 추가하여 정보의 흐름을 제어한다. 이들 각각의 게이트는 Input gate, Forget gate, Output gate로 구성된다. 또한 각 게이트는 Cell state라는 각 Cell의 상태를 다음 Cell에 전달하는 새로운 Output을 추가하였다.&lt;br /&gt;
* Input gate: 현재 입력과 이전 출력에서 유용한 정보를 받아들이는 역활을 한다.&lt;br /&gt;
* Forget gate: 이전 상태에서 기억해야 할 정보를 결정하는 역활을 한다. 이 게이트는 과거의 정보를 얼마나 잊을지를 조절한다.&lt;br /&gt;
* Output gate: 새로운 출력 값을 생성하는 역활을 한다. 이 게이트는 최종 출력이 무어시 될지를 결정한다. Output gate는 Input gate와 Forget gate의 값을 곱하여 결과를 도출한다.&lt;br /&gt;
* Cell state: Cell state는 Forget gate와 Input gate의 곱으로, 다음 State에 현재 State의 상태를 얼마나 전달할 지를 결정한다.&lt;br /&gt;
&lt;br /&gt;
각 게이트는 [[Sigmoid]] [[Activation function]]을 사용하여 값을 출력하며, 이를 통해서 정보를 얼마나 반영할지를 조절한다.&lt;br /&gt;
&lt;br /&gt;
== 같이 보기 ==&lt;br /&gt;
# [[RNN]]&lt;br /&gt;
# [[GRU]]&lt;/div&gt;</summary>
		<author><name>Ahn9807</name></author>
	</entry>
</feed>