2025년 4월 12일 (토)
- 08:282025년 4월 12일 (토) 08:28 차이 역사 +4,311 Learning-based Memory Allocation for C++ Server Workloads 편집 요약 없음
- 05:542025년 4월 12일 (토) 05:54 차이 역사 +26 새글 파일:ASPLOS 2020 LLAMA Figure 6.png 편집 요약 없음 최신
- 04:272025년 4월 12일 (토) 04:27 차이 역사 +26 새글 파일:ASPLOS 2020 LLAMA Figure 3.png 편집 요약 없음 최신
2025년 4월 11일 (금)
- 09:572025년 4월 11일 (금) 09:57 차이 역사 +1,256 새글 Learning-based Memory Allocation for C++ Server Workloads 새 문서: 분류: ACM ASPLOS Martin Mass, David G. Andersen, Michael Isard, Mohammad Mahdi Javanmard, Kathryn S. McKinley, Colin Raffel ACM ASPLOS 2025 == 개요 == Huge page에서 Fragmentation을 줄이는 것이 매우 중요하다. 본 논문은 AI기술을 사용해서 Object lifetime을 추적, Fragmentation을 줄이는 기법을 제시하였다. == Motivation & Importance == 기존 OS에서 사용하는 Huge page management는 life-time에 대한 고려가 없기...
- 03:182025년 4월 11일 (금) 03:18 차이 역사 −13 위젯:PDFViewer 편집 요약 없음 최신
- 03:172025년 4월 11일 (금) 03:17 차이 역사 −224 위젯:PDFViewer 편집 요약 없음
- 03:162025년 4월 11일 (금) 03:16 차이 역사 −29 위젯:PDFViewer 편집 요약 없음
- 03:132025년 4월 11일 (금) 03:13 차이 역사 +146 위젯:PDFViewer 편집 요약 없음
- 03:102025년 4월 11일 (금) 03:10 차이 역사 −190 위젯:PDFViewer 편집 요약 없음
- 03:102025년 4월 11일 (금) 03:10 차이 역사 −10 위젯:PDFViewer 편집 요약 없음
- 03:092025년 4월 11일 (금) 03:09 차이 역사 −6 위젯:PDFViewer 편집 요약 없음
- 03:092025년 4월 11일 (금) 03:09 차이 역사 −53 위젯:PDFViewer 편집 요약 없음
- 03:072025년 4월 11일 (금) 03:07 차이 역사 −685 위젯:PDFViewer 편집 요약 없음
- 03:072025년 4월 11일 (금) 03:07 차이 역사 +88 위젯:PDFViewer 편집 요약 없음
- 03:052025년 4월 11일 (금) 03:05 차이 역사 −31 위젯:PDFViewer 편집 요약 없음
- 03:052025년 4월 11일 (금) 03:05 차이 역사 +274 위젯:PDFViewer 편집 요약 없음
- 03:012025년 4월 11일 (금) 03:01 차이 역사 −377 위젯:PDFViewer 편집 요약 없음
- 02:492025년 4월 11일 (금) 02:49 차이 역사 +782 위젯:PDFViewer 편집 요약 없음
- 02:422025년 4월 11일 (금) 02:42 차이 역사 +447 새글 위젯:PDFViewer 새 문서: <widget xmlns="http://www.mediawiki.org/xmlns/widgets-1.0"> <parameters> <param name="url" type="string" required="true" /> <param name="width" type="string" default="100%" /> <param name="height" type="string" default="600px" /> </parameters> <html><![CDATA[ <iframe src="https://mozilla.github.io/pdf.js/web/viewer.html?file={$url}" width="{$width}" height="{$height}" style="border: none;"></iframe> ]]></html> </widget>
- 02:202025년 4월 11일 (금) 02:20 차이 역사 +50 분류:Style: Lessons in Clarity and Grace 편집 요약 없음 태그: 되돌려진 기여 시각 편집: 전환됨
- 02:122025년 4월 11일 (금) 02:12 차이 역사 +28 새글 파일:Lessons in Clarity and Grace.pdf 편집 요약 없음 최신
2025년 4월 10일 (목)
- 12:472025년 4월 10일 (목) 12:47 차이 역사 +1,184 MOONCAKE: Trading More Storage for Less Computation A KVCache-centric Architecture for Serving LLM Chatbot 편집 요약 없음 최신
- 12:452025년 4월 10일 (목) 12:45 차이 역사 +26 새글 파일:USENIX FAST 2025 MoonCacke.png 편집 요약 없음 최신
2025년 4월 9일 (수)
- 11:502025년 4월 9일 (수) 11:50 차이 역사 +2,431 MOONCAKE: Trading More Storage for Less Computation A KVCache-centric Architecture for Serving LLM Chatbot 편집 요약 없음
- 11:462025년 4월 9일 (수) 11:46 차이 역사 −4 PolyStore: Exploiting Combined Capabilities of Heterogeneous Storage 편집 요약 없음 최신
- 10:472025년 4월 9일 (수) 10:47 차이 역사 +2,770 새글 PolyStore: Exploiting Combined Capabilities of Heterogeneous Storage 새 문서: 분류: USENIX FAST Yujie Ren, David Domingo, Jian Zhang, Paul John, Rekha Pitchumani, Sanidhya Kashyap, Sudarsun Kannan USENIX Security 2025 == 개요 == Heterogeneous system이 점차 대두하는 가운데, 현재 존재하는 Caching, Tiering, Application directed방식은 한계를 보이고 있다. 이를 타계하기 위하여, 본 연구에서는 transparent하게 여러 Heterogeous 디바이스들을 사용하는 fine-grained한 레이어를 유저레벨에 구...
- 08:282025년 4월 9일 (수) 08:28 차이 역사 +35 새글 파일:USENIX FAST 2025 PolyStore Figure 2.png 편집 요약 없음 최신
- 03:542025년 4월 9일 (수) 03:54 차이 역사 +2,949 Concision 편집 요약 없음 최신
2025년 4월 8일 (화)
- 12:422025년 4월 8일 (화) 12:42 차이 역사 +3,519 Concision 편집 요약 없음
2025년 4월 5일 (토)
- 07:372025년 4월 5일 (토) 07:37 차이 역사 +110 새글 BUDAlloc BUDAlloc: Defeating Use-After-Free Bugs by Decoupling Virtual Address Management from Kernel 문서로 넘겨주기 최신 태그: 새 넘겨주기 시각 편집
- 07:362025년 4월 5일 (토) 07:36 차이 역사 −17 멀티코어 Multicore 문서로 넘겨주기 최신 태그: 새 넘겨주기 시각 편집
- 07:362025년 4월 5일 (토) 07:36 차이 역사 +44 새글 멀티코어 새 문서: <nowiki>#</nowiki>넘겨주기 Multicore 태그: 시각 편집
- 07:342025년 4월 5일 (토) 07:34 차이 역사 +40 새글 LSM Linux Security Modules 문서로 넘겨주기 최신 태그: 새 넘겨주기 시각 편집
2025년 4월 4일 (금)
- 05:452025년 4월 4일 (금) 05:45 차이 역사 −70 Motivation 편집 요약 없음 최신
2025년 4월 2일 (수)
- 07:302025년 4월 2일 (수) 07:30 차이 역사 +7 Selective On-Device Execution of Data-Dependent Read I/Os 편집 요약 없음 최신
- 07:302025년 4월 2일 (수) 07:30 차이 역사 +5,175 새글 Selective On-Device Execution of Data-Dependent Read I/Os 새 문서: 분류: USENIX FAST Chanyoung Park, Minu Chung, and Hyungon Moon 23rd USENIX Conference on File and Storage Technologies == 개요 == On-device와 In-kernel Near-storage processing의 장점을 모두 살릴 수 있는 새로운 디자인인 SODE를 제시함. SODE는 동적으로 현재 On-device core의 busniess에 따라서 Resubmission logic이 Kernel과 Storage에 적절히 Scheduling할 수 있도록 설계함. 이를 통해서 기존 SOTA였던 XRP보다 향상된... 태그: 시각 편집
- 05:462025년 4월 2일 (수) 05:46 차이 역사 +14 새글 파일:FAST 2025 SODE.png 편집 요약 없음 최신
2025년 3월 31일 (월)
- 04:092025년 3월 31일 (월) 04:09 차이 역사 +3,258 KV Cache 편집 요약 없음 최신 태그: 시각 편집: 전환됨
- 03:452025년 3월 31일 (월) 03:45 차이 역사 +493 새글 KV Cache 새 문서: 분류: Transformer model == 개요 == Autoregression모델에서, KV Cache는 전에 계산한 K값과 V값들을 캐싱하여, 현재 토큰을 계산하는데 필요한 중복되는 연산을 줄여서 생성 속도의 향상을 꾀하는 Caching모델이다. KV Cache는 대표적인 Computing & Memory trade-off를 이용한 방법이다. == 필요성 == 파일:KV_Cache.gif|프레임없음|600픽셀|가운데|https://medium.com/@joaolages/kv-caching-explained-2765... 태그: 시각 편집: 전환됨
- 03:412025년 3월 31일 (월) 03:41 차이 역사 +63 새글 파일:KV Cache.gif 편집 요약 없음 최신
2025년 3월 29일 (토)
- 08:472025년 3월 29일 (토) 08:47 차이 역사 −32 Transformer 편집 요약 없음 최신
- 08:462025년 3월 29일 (토) 08:46 차이 역사 +10,670 새글 Transformer 새 문서: 분류: Transformer model == 개요 == Transformer모델은 RNN의 한계를 극복하기 위해서 Attention을 최대한 활용하여, 문장내의 각 문맥의 중요도를 최대한 언어 모델에 반영하기 위해서 개발된 모델이다. Transformer모델에서 제안한 디자인은 크게 Tokenization, Embedding, Positional Encoding, Attention layer을 여러개 쌓아 만들어진 Encoder, Decoder부분 그리고 Encoder self-attention, Masked decode...
- 06:452025년 3월 29일 (토) 06:45 차이 역사 +24 새글 분류:Transformer model 새 문서: 분류: 인공지능 최신 태그: 시각 편집: 전환됨
2025년 3월 28일 (금)
- 04:042025년 3월 28일 (금) 04:04 차이 역사 0 잔글 Attention →직관적인 Attention의 이해 최신 태그: 시각 편집
- 04:042025년 3월 28일 (금) 04:04 차이 역사 +7,501 새글 Attention 새 문서: 분류: Transformer model == 개요 == Attention은 기계학습에서 Sequence의 각각의 부분이 얼마나 중요한지를(즉, 얼만큼 관심있게 처리해야 할지를) 결정하는 매커니즘이다. Attention is all you need논문이 나오기 전에는 RNN에 의한 방법들이 많이 사용되었으나, 그후에는 Transformer모델이 주축이 되어서 Attention을 처리하고 있다. Attention매커니즘은 RNN의 단점인, Vanishing gradie...
2025년 3월 27일 (목)
- 05:472025년 3월 27일 (목) 05:47 차이 역사 +22 새글 TBT TTFT 문서로 넘겨주기 최신 태그: 새 넘겨주기
- 05:462025년 3월 27일 (목) 05:46 차이 역사 +1,383 새글 Time between token 새 문서: 분류: 인공지능 == 개요 == Time between token(TBT)는 LLM의 성능을 평가하는 지표중 하나로, 모델이 첫번째 토큰을 생성한후(TTFT)각 후속 토큰을 생성하는 데 걸리는 평균 시간을 의미한다. TBT는 다음과 같이 정의된다: TBT = <math>\frac{T_{\text{total}} - T_{\text{first}}}{N - 1}</math> 여기서, * <math>T_{\text{total}}</math> = 전체 응답 생성 시간 * <math>T_{\text{first}}</math> = 첫 번째 토... 최신
- 05:432025년 3월 27일 (목) 05:43 차이 역사 +37 새글 TTFT Time to first token 문서로 넘겨주기 최신 태그: 새 넘겨주기
- 05:422025년 3월 27일 (목) 05:42 차이 역사 +813 새글 Time to first token 새 문서: 분류: 인공지능 == 개요 == Time to first token(TTFT)는 LLM의 성능을 평가하는 지표로, 사용자가 프롬프트를 입력한 후 첫 번째 토큰이 생성될 때까지 걸리는 시간을 의미한다. LLM의 Latency를 측정하는 데 사용된다. TTFT는 LLM이 "첫 반응을 제공하는 속도"를 나타내며, 사용자 경험에 큰 영향을 미친다. <syntaxhighlight lang=python> import time import openai start_time = time.time()... 최신 태그: 시각 편집: 전환됨
2025년 3월 26일 (수)
- 07:442025년 3월 26일 (수) 07:44 차이 역사 +1 잔글 GRU 넘겨주기 대상을 Gate recurrent unit에서 Gated recurrent unit 문서로 변경했습니다 최신 태그: 넘겨주기 대상 변경 시각 편집