메뉴 여닫기
환경 설정 메뉴 여닫기
개인 메뉴 여닫기
로그인하지 않음
지금 편집한다면 당신의 IP 주소가 공개될 수 있습니다.

최근 바뀜

다른 명령

이 페이지에서 위키의 최근 바뀜을 추적합니다.

최근 바뀜 설정 최근 1 | 3 | 7 | 14 | 30일간의 50 | 100 | 250 | 500개 바뀐 문서 보기
등록된 사용자 숨기기 | 익명 사용자를 숨기기 | 내 편집 숨기기 | 보이기 | 사소한 편집 숨기기
2025년 4월 16일 (수) 16:53부터 시작하는 새로 바뀐 문서 보기
 
약어 목록:
새글
새 문서 (새 문서 목록도 보세요)
잔글
사소한 편집
봇이 수행한 편집
(±123)
바이트 수로 표현한 문서 크기의 차이

2025년 4월 12일 (토)

새글    09:33  Fragmentation 차이역사 +37 Ahn9807 토론 기여 (메모리 단편화 문서로 넘겨주기) 태그: 새 넘겨주기 시각 편집
     09:33  메모리 단편화 차이역사 +1,882 Ahn9807 토론 기여
     09:26  Learning-based Memory Allocation for C++ Server Workloads 3개 바뀜 역사 +4,381 [Ahn9807 (3×)]
     
09:26 (최신 | 이전) +67 Ahn9807 토론 기여
     
09:24 (최신 | 이전) +3 Ahn9807 토론 기여
     
08:28 (최신 | 이전) +4,311 Ahn9807 토론 기여
     05:54  (올리기 기록) [Ahn9807 (2×)]
     
05:54 Ahn9807 토론 기여님이 파일:ASPLOS 2020 LLAMA Figure 6.png 파일을 올렸습니다
     
04:27 Ahn9807 토론 기여님이 파일:ASPLOS 2020 LLAMA Figure 3.png 파일을 올렸습니다

2025년 4월 11일 (금)

새글    09:57  Learning-based Memory Allocation for C++ Server Workloads 차이역사 +1,256 Ahn9807 토론 기여 (새 문서: 분류: ACM ASPLOS Martin Mass, David G. Andersen, Michael Isard, Mohammad Mahdi Javanmard, Kathryn S. McKinley, Colin Raffel ACM ASPLOS 2025 == 개요 == Huge page에서 Fragmentation을 줄이는 것이 매우 중요하다. 본 논문은 AI기술을 사용해서 Object lifetime을 추적, Fragmentation을 줄이는 기법을 제시하였다. == Motivation & Importance == 기존 OS에서 사용하는 Huge page management는 life-time에 대한 고려가 없기...)
새글    03:18  위젯:PDFViewer 15개 바뀜 역사 +119 [Ahn9807 (15×)]
     
03:18 (최신 | 이전) −13 Ahn9807 토론 기여
     
03:17 (최신 | 이전) −224 Ahn9807 토론 기여
     
03:16 (최신 | 이전) −29 Ahn9807 토론 기여
     
03:13 (최신 | 이전) +146 Ahn9807 토론 기여
     
03:10 (최신 | 이전) −190 Ahn9807 토론 기여
     
03:10 (최신 | 이전) −10 Ahn9807 토론 기여
     
03:09 (최신 | 이전) −6 Ahn9807 토론 기여
     
03:09 (최신 | 이전) −53 Ahn9807 토론 기여
     
03:07 (최신 | 이전) −685 Ahn9807 토론 기여
     
03:07 (최신 | 이전) +88 Ahn9807 토론 기여
     
03:05 (최신 | 이전) −31 Ahn9807 토론 기여
     
03:05 (최신 | 이전) +274 Ahn9807 토론 기여
     
03:01 (최신 | 이전) −377 Ahn9807 토론 기여
     
02:49 (최신 | 이전) +782 Ahn9807 토론 기여
새글    
02:42 (최신 | 이전) +447 Ahn9807 토론 기여 (새 문서: <widget xmlns="http://www.mediawiki.org/xmlns/widgets-1.0"> <parameters> <param name="url" type="string" required="true" /> <param name="width" type="string" default="100%" /> <param name="height" type="string" default="600px" /> </parameters> <html><![CDATA[ <iframe src="https://mozilla.github.io/pdf.js/web/viewer.html?file={$url}" width="{$width}" height="{$height}" style="border: none;"></iframe> ]]></html> </widget>)
     02:20  분류:Style: Lessons in Clarity and Grace 차이역사 +50 Ahn9807 토론 기여 태그: 시각 편집: 전환됨
     02:12 올리기 기록 Ahn9807 토론 기여님이 파일:Lessons in Clarity and Grace.pdf 파일을 올렸습니다

2025년 4월 10일 (목)

2025년 4월 9일 (수)

     11:50  MOONCAKE: Trading More Storage for Less Computation A KVCache-centric Architecture for Serving LLM Chatbot 차이역사 +2,431 Ahn9807 토론 기여
새글    11:46  PolyStore: Exploiting Combined Capabilities of Heterogeneous Storage 2개 바뀜 역사 +2,766 [Ahn9807 (2×)]
     
11:46 (최신 | 이전) −4 Ahn9807 토론 기여
새글    
10:47 (최신 | 이전) +2,770 Ahn9807 토론 기여 (새 문서: 분류: USENIX FAST Yujie Ren, David Domingo, Jian Zhang, Paul John, Rekha Pitchumani, Sanidhya Kashyap, Sudarsun Kannan USENIX Security 2025 == 개요 == Heterogeneous system이 점차 대두하는 가운데, 현재 존재하는 Caching, Tiering, Application directed방식은 한계를 보이고 있다. 이를 타계하기 위하여, 본 연구에서는 transparent하게 여러 Heterogeous 디바이스들을 사용하는 fine-grained한 레이어를 유저레벨에 구...)
     08:28 올리기 기록 Ahn9807 토론 기여님이 파일:USENIX FAST 2025 PolyStore Figure 2.png 파일을 올렸습니다
     03:54  Concision 차이역사 +2,949 Ahn9807 토론 기여

2025년 4월 8일 (화)

     12:42  Concision 차이역사 +3,519 Ahn9807 토론 기여

2025년 4월 5일 (토)

새글    07:37  BUDAlloc 차이역사 +110 Ahn9807 토론 기여 (BUDAlloc: Defeating Use-After-Free Bugs by Decoupling Virtual Address Management from Kernel 문서로 넘겨주기) 태그: 새 넘겨주기 시각 편집
새글    07:36  멀티코어 2개 바뀜 역사 +27 [Ahn9807 (2×)]
     
07:36 (최신 | 이전) −17 Ahn9807 토론 기여 (Multicore 문서로 넘겨주기) 태그: 새 넘겨주기 시각 편집
새글    
07:36 (최신 | 이전) +44 Ahn9807 토론 기여 (새 문서: <nowiki>#</nowiki>넘겨주기 Multicore) 태그: 시각 편집
새글    07:34  LSM 차이역사 +40 Ahn9807 토론 기여 (Linux Security Modules 문서로 넘겨주기) 태그: 새 넘겨주기 시각 편집

2025년 4월 4일 (금)

     05:45  Motivation 차이역사 −70 Ahn9807 토론 기여

2025년 4월 2일 (수)

새글    07:30  Selective On-Device Execution of Data-Dependent Read I/Os 2개 바뀜 역사 +5,182 [Ahn9807 (2×)]
     
07:30 (최신 | 이전) +7 Ahn9807 토론 기여
새글    
07:30 (최신 | 이전) +5,175 Ahn9807 토론 기여 (새 문서: 분류: USENIX FAST Chanyoung Park, Minu Chung, and Hyungon Moon 23rd USENIX Conference on File and Storage Technologies == 개요 == On-device와 In-kernel Near-storage processing의 장점을 모두 살릴 수 있는 새로운 디자인인 SODE를 제시함. SODE는 동적으로 현재 On-device core의 busniess에 따라서 Resubmission logic이 Kernel과 Storage에 적절히 Scheduling할 수 있도록 설계함. 이를 통해서 기존 SOTA였던 XRP보다 향상된...) 태그: 시각 편집
     05:46 올리기 기록 Ahn9807 토론 기여님이 파일:FAST 2025 SODE.png 파일을 올렸습니다

2025년 3월 31일 (월)

새글    04:09  KV Cache 2개 바뀜 역사 +3,751 [Ahn9807 (2×)]
     
04:09 (최신 | 이전) +3,258 Ahn9807 토론 기여 태그: 시각 편집: 전환됨
새글    
03:45 (최신 | 이전) +493 Ahn9807 토론 기여 (새 문서: 분류: Transformer model == 개요 == Autoregression모델에서, KV Cache는 전에 계산한 K값과 V값들을 캐싱하여, 현재 토큰을 계산하는데 필요한 중복되는 연산을 줄여서 생성 속도의 향상을 꾀하는 Caching모델이다. KV Cache는 대표적인 Computing & Memory trade-off를 이용한 방법이다. == 필요성 == 파일:KV_Cache.gif|프레임없음|600픽셀|가운데|https://medium.com/@joaolages/kv-caching-explained-2765...) 태그: 시각 편집: 전환됨
     03:41 올리기 기록 Ahn9807 토론 기여님이 파일:KV Cache.gif 파일을 올렸습니다

2025년 3월 29일 (토)

새글    08:47  Transformer 2개 바뀜 역사 +10,638 [Ahn9807 (2×)]
     
08:47 (최신 | 이전) −32 Ahn9807 토론 기여
새글    
08:46 (최신 | 이전) +10,670 Ahn9807 토론 기여 (새 문서: 분류: Transformer model == 개요 == Transformer모델은 RNN의 한계를 극복하기 위해서 Attention을 최대한 활용하여, 문장내의 각 문맥의 중요도를 최대한 언어 모델에 반영하기 위해서 개발된 모델이다. Transformer모델에서 제안한 디자인은 크게 Tokenization, Embedding, Positional Encoding, Attention layer을 여러개 쌓아 만들어진 Encoder, Decoder부분 그리고 Encoder self-attention, Masked decode...)
새글    06:45  분류:Transformer model 차이역사 +24 Ahn9807 토론 기여 (새 문서: 분류: 인공지능) 태그: 시각 편집: 전환됨

2025년 3월 28일 (금)

새글    04:04  Attention 2개 바뀜 역사 +7,501 [Ahn9807 (2×)]
 잔글   
04:04 (최신 | 이전) 0 Ahn9807 토론 기여 (직관적인 Attention의 이해) 태그: 시각 편집
새글    
04:04 (최신 | 이전) +7,501 Ahn9807 토론 기여 (새 문서: 분류: Transformer model == 개요 == Attention은 기계학습에서 Sequence의 각각의 부분이 얼마나 중요한지를(즉, 얼만큼 관심있게 처리해야 할지를) 결정하는 매커니즘이다. Attention is all you need논문이 나오기 전에는 RNN에 의한 방법들이 많이 사용되었으나, 그후에는 Transformer모델이 주축이 되어서 Attention을 처리하고 있다. Attention매커니즘은 RNN의 단점인, Vanishing gradie...)

2025년 3월 27일 (목)

새글    05:47  TBT 차이역사 +22 Ahn9807 토론 기여 (TTFT 문서로 넘겨주기) 태그: 새 넘겨주기