메뉴 여닫기
환경 설정 메뉴 여닫기
개인 메뉴 여닫기
로그인하지 않음
지금 편집한다면 당신의 IP 주소가 공개될 수 있습니다.

최근 바뀜

다른 명령

이 페이지에서 위키의 최근 바뀜을 추적합니다.

최근 바뀜 설정 최근 1 | 3 | 7 | 14 | 30일간의 50 | 100 | 250 | 500개 바뀐 문서 보기
등록된 사용자 숨기기 | 익명 사용자를 숨기기 | 내 편집 숨기기 | 보이기 | 사소한 편집 숨기기
2025년 4월 4일 (금) 03:10부터 시작하는 새로 바뀐 문서 보기
 
약어 목록:
새글
새 문서 (새 문서 목록도 보세요)
잔글
사소한 편집
봇이 수행한 편집
(±123)
바이트 수로 표현한 문서 크기의 차이

2025년 4월 2일 (수)

새글    07:30  Selective On-Device Execution of Data-Dependent Read I/Os 2개 바뀜 역사 +5,182 [Ahn9807 (2×)]
     
07:30 (최신 | 이전) +7 Ahn9807 토론 기여
새글    
07:30 (최신 | 이전) +5,175 Ahn9807 토론 기여 (새 문서: 분류: USENIX FAST Chanyoung Park, Minu Chung, and Hyungon Moon 23rd USENIX Conference on File and Storage Technologies == 개요 == On-device와 In-kernel Near-storage processing의 장점을 모두 살릴 수 있는 새로운 디자인인 SODE를 제시함. SODE는 동적으로 현재 On-device core의 busniess에 따라서 Resubmission logic이 Kernel과 Storage에 적절히 Scheduling할 수 있도록 설계함. 이를 통해서 기존 SOTA였던 XRP보다 향상된...) 태그: 시각 편집
     05:46 올리기 기록 Ahn9807 토론 기여님이 파일:FAST 2025 SODE.png 파일을 올렸습니다

2025년 3월 31일 (월)

새글    04:09  KV Cache 2개 바뀜 역사 +3,751 [Ahn9807 (2×)]
     
04:09 (최신 | 이전) +3,258 Ahn9807 토론 기여 태그: 시각 편집: 전환됨
새글    
03:45 (최신 | 이전) +493 Ahn9807 토론 기여 (새 문서: 분류: Transformer model == 개요 == Autoregression모델에서, KV Cache는 전에 계산한 K값과 V값들을 캐싱하여, 현재 토큰을 계산하는데 필요한 중복되는 연산을 줄여서 생성 속도의 향상을 꾀하는 Caching모델이다. KV Cache는 대표적인 Computing & Memory trade-off를 이용한 방법이다. == 필요성 == 파일:KV_Cache.gif|프레임없음|600픽셀|가운데|https://medium.com/@joaolages/kv-caching-explained-2765...) 태그: 시각 편집: 전환됨
     03:41 올리기 기록 Ahn9807 토론 기여님이 파일:KV Cache.gif 파일을 올렸습니다

2025년 3월 29일 (토)

새글    08:47  Transformer 2개 바뀜 역사 +10,638 [Ahn9807 (2×)]
     
08:47 (최신 | 이전) −32 Ahn9807 토론 기여
새글    
08:46 (최신 | 이전) +10,670 Ahn9807 토론 기여 (새 문서: 분류: Transformer model == 개요 == Transformer모델은 RNN의 한계를 극복하기 위해서 Attention을 최대한 활용하여, 문장내의 각 문맥의 중요도를 최대한 언어 모델에 반영하기 위해서 개발된 모델이다. Transformer모델에서 제안한 디자인은 크게 Tokenization, Embedding, Positional Encoding, Attention layer을 여러개 쌓아 만들어진 Encoder, Decoder부분 그리고 Encoder self-attention, Masked decode...)
새글    06:45  분류:Transformer model 차이역사 +24 Ahn9807 토론 기여 (새 문서: 분류: 인공지능) 태그: 시각 편집: 전환됨

2025년 3월 28일 (금)

새글    04:04  Attention 2개 바뀜 역사 +7,501 [Ahn9807 (2×)]
 잔글   
04:04 (최신 | 이전) 0 Ahn9807 토론 기여 (직관적인 Attention의 이해) 태그: 시각 편집
새글    
04:04 (최신 | 이전) +7,501 Ahn9807 토론 기여 (새 문서: 분류: Transformer model == 개요 == Attention은 기계학습에서 Sequence의 각각의 부분이 얼마나 중요한지를(즉, 얼만큼 관심있게 처리해야 할지를) 결정하는 매커니즘이다. Attention is all you need논문이 나오기 전에는 RNN에 의한 방법들이 많이 사용되었으나, 그후에는 Transformer모델이 주축이 되어서 Attention을 처리하고 있다. Attention매커니즘은 RNN의 단점인, Vanishing gradie...)