2025년 6월 4일 (수)
- 04:212025년 6월 4일 (수) 04:21 PageFlex: Flexible and Efficient User-space Delegation of Linux Paging Policies with eBPF (역사 | 편집) [2,812 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: USENIX ATC Anil Yelam, Kan Wu, Zhiyuan Guo, Suli Yang, Rajath Shashidhara, Wei Xu, Stanko Novakovic, Alex C.Snoeren, Kimberly Keeton USENIX ATC 2025 == 개요 == Remote memory system에서 Paging을 어떻게 하느냐에 관한 많은 논문이 있지만, 구현방식에 따라서 Linux커널에 이식하기 힘들거나, 아니면 성능이 느려지는 문제가 있었다. 이 논문은 eBPF를 활용해서 Linux paging policy를 User-level에 Delegate하...)
2025년 6월 1일 (일)
- 07:322025년 6월 1일 (일) 07:32 Network (역사 | 편집) [192 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류:컴퓨터 네트워킹 == 개요 == 컴퓨터 네트워킹은 장치들이 서로 상호작용하기 위해서 어떤 방식으로 통신해야 하는지를 다루는 학문이다.)
- 07:302025년 6월 1일 (일) 07:30 Eden: Developer-Friendly Application-Integrated Far Memory (역사 | 편집) [5,537 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: USENIX NSDI Anil Yelam, Stward Grant, Saart Deshpande, Nadav Amit, Radhika Niranjan Mysore, Amy Osterhout, Marcos K. Aguilera, Alex C. Snoeren 2025 NSDI == 개요 == Far memroy system은 Harware paging에 의존하여서 Transparent하지만 성능저하가 있는 방식과, Application을 수정하여서 Transparent하지 않지만 성능을 보장하는 방식으로 나뉠 수 있다. Eden은 최소한의 Attnotation과 Hardware의 도움을 복합적으로 사...) 태그: 시각 편집: 전환됨
2025년 5월 28일 (수)
- 01:562025년 5월 28일 (수) 01:56 AddressSanitizer (역사 | 편집) [6,910 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: 소프트웨어 기반 보안 = 개요 = '''AddressSanitizer''' ('''ASan''')는 C/C++ 프로그램에서 발생하는 메모리 오류를 탐지하기 위한 메모리 오류 검사 도구이다. AddressSanitizer는 다음과 같은 메모리 오류를 탐지할 수 있다: * Use-after-free * Heap buffer overflow * Stack buffer overflow * Global buffer overflow * Use-after-return * Use-after-scope * Initialization order bugs * Memory leaks == 작동 원리 == ===...)
2025년 5월 27일 (화)
- 11:182025년 5월 27일 (화) 11:18 RangeSanitizer: Detecting Memory Errors with Efficient Range Checks (역사 | 편집) [2,476 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: USENIX Security Floris Gorter, Cristiano Giuffrida USENIX Security 2025 == 개요 == == Motivation & Importance == == Main Idea == == Design == == Conclusion == == 같이 보기 == # Code sanitizer)
- 11:122025년 5월 27일 (화) 11:12 Intel Memory Protection Extensions (역사 | 편집) [4,320 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: 하드웨어 기반 보안 분류: 인텔 = Intel Memory Protection Extensions (MPX) = '''Intel Memory Protection Extensions''' (MPX)는 Intel이 설계한 x86 아키텍처 확장으로, 런타임 시 포인터 참조의 유효 범위를 검사하여 버퍼 오버플로우와 같은 메모리 오류를 방지하는 것을 목표로 하였다. 그러나 실효성에 대한 우려와 다수의 설계적 결함으로 인해 대부분의 운영체제 및 컴파일...)
- 10:502025년 5월 27일 (화) 10:50 Code sanitizer (역사 | 편집) [1,950 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: 소프트웨어 기반 보안 == 개요 == Code santizier은 Compiler Instrumentation을 활용하여서 Runtime에 버그를 잡는 Programming tool을 의미한다. 대표적인 예로 Shadow memory를 활용하셔어 Memory corruption을 추적하는 AddressSanitizer과 같은 툴이 있다. == 종류 == {| class="wikitable" |+ !Name !Target !Target Vulnerability !Memory overhead !Performance overhead !Scalability !Tool Chain |- |ASAN |Ap...) 태그: 시각 편집
2025년 5월 20일 (화)
- 11:452025년 5월 20일 (화) 11:45 Sticky Tags: Efficient and Deterministic Spatial Memory Error Mitigation using Persistent Memory Tags (역사 | 편집) [4,279 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: IEEE S&P Floris Gorter, Taddeus Kroes, Herbert Bos and Cristiano Giuffrida IEEE S&P 2024 == 개요 == ARM MTE는 강력한 Lock-key매커니즘을 제공하지만 Random한 검출 방식이라는 문제가 있다. StickyTag는 이 문제를 stack 그리고 heap layout을 per-size-class region으로 구성하여서, persistent memory tag를 각 region에 부여하는 방식으로 determinstic한 spatial bug검출 방식을 제시하였다.)
- 06:522025년 5월 20일 (화) 06:52 TrustVisor: Efficient TCB Reduction and Attestation (역사 | 편집) [2,421 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: IEEE S&P Jonathan M. McCune Yanlin Li Ning Qu Zongwei Zhou Anupam Datta Virgil Gligor Adrian Perrig 2010 IEEE Symposium on Security and Privacy == 개요 == TrustVisor은 특수한 목적의 Hypervisor로 Code integrity와 Data integrity그리고 Secrecy를 Application의 일부분에 제공한다. == Motivation & Importance == 버그 없는 프로그램을 만드는 것은 매우 어려운 일이다. 따라서 Security sensitive한 코드의 일부분을...)
2025년 5월 19일 (월)
- 05:192025년 5월 19일 (월) 05:19 INCOGNITOS: A Practical Unikernel Design for Full-System Obfuscation in Confidential Virtual Machines (역사 | 편집) [6,181 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: IEEE S&P Kha Dinh Duy, Jaeyoon Kim, Hajeong Lim, and Hojoon Lee IEEE S&P 2025 == 개요 == 최근 연구들은 사이드 채널 공격이 Intel SGX와 같은 신뢰 실행 환경(TEE)의 기밀성을 무력화할 수 있음을 반복적으로 입증해왔다. 한편, 클라우드 환경에서는 기밀 가상머신(CVM) 기술로의 전환이 진행 중이지만, 기존의 사이드 채널 공격 중 일부는 여전히 유효하며, CVM을 대상으로 한 새...)
- 05:072025년 5월 19일 (월) 05:07 Oblivious RAM (역사 | 편집) [1,654 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: 소프트웨어 기반 보안 == 개요 == ORAM은 알고리즘의 Input-output의 결과는 유지하면서, 메모리 접근 패턴을 숨기는 기법을 말한다. ORAM은 프로그램의 실행에서 공격자가 메모리 접근 패턴을 가지고 유의미한 공격을 할 수 있음에 착안하여, 메모리접근 위치를 모르게 하거나, 패턴을 랜덤화 시키는 등의 방법을 통해서 메모리를 보호한다. Turing machine(TM)은 In...)
2025년 5월 18일 (일)
- 09:392025년 5월 18일 (일) 09:39 XTag: Mitigating Use-After-Free Vulnerabilities via Software-Based Pointer Tagging on Intel x86-64 (역사 | 편집) [1,358 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: IEEE EuroS&P Lukas Bernhard, Michael Rodler, Thorsten Holz, and Lucas Davi 2022 IEEE 7th European Symposium on Security and Privacy (EuroS&P) == 개요 == Use after free버그를 해결하기 위해서, Software 기반의 Memory tagging기법과 이를 이용한 UAF Prevention기법을 제시하였다. == Motivation == ARM MTE와 같은 메모리 태깅 기법은 보안에 있어서 중요한 기법이다. 그러나 Intel X86과 같은 경우에는 메...)
2025년 4월 25일 (금)
- 11:232025년 4월 25일 (금) 11:23 Adaptive Huge-Page Subrelease for Non-moving Memory Allocators in Warehouse-Scale Computers (역사 | 편집) [3,517 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: ACM ISMM Martin Maas, Chris Kennelly, Khanh Nguyen, Darryl Gove, Kathryn S. McKinley, Paul Turner ACM ISMM 2021 == 개요 == == Motivation & Importance == TLB압력을 줄이기 위해서 Huge page를 써야 한다. Huge page를 사용하면 Internal fragmentation문제를 겪게 된다. 이를 해결하기 위해서, Huge page-aware memroy allocator(E.g., TCMALLOC)과 같은 경우에는 Linux THP를 사용하는 것이 아니라, Huge page를 할당하고...)
2025년 4월 22일 (화)
- 11:232025년 4월 22일 (화) 11:23 Predicting Dynamic Properties of Heap Allocations using Neural Networks Trained on Static Code (역사 | 편집) [16,720 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: ACM ISMM Christian Navasca, Martin Mass, Petros Maniatis, Hyeontake Lim, Guoqing Harry Xu ACM ISMM 2023 == 개요 == 머신러닝을 통해서 Memory allocator에 유용하게 사용되는 정보를 예츷하는 솔류션을 개발하였다. == Motivation & Importance == Memory Allocator나 Runtime system과 같은 경우에는 Predicted properties에 성능의 개선을 위해서 의존하는 경향이 있다. 이런 Predicted properties들에는 object lifetim...)
2025년 4월 11일 (금)
- 09:572025년 4월 11일 (금) 09:57 Learning-based Memory Allocation for C++ Server Workloads (역사 | 편집) [5,637 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: ACM ASPLOS Martin Mass, David G. Andersen, Michael Isard, Mohammad Mahdi Javanmard, Kathryn S. McKinley, Colin Raffel ACM ASPLOS 2025 == 개요 == Huge page에서 Fragmentation을 줄이는 것이 매우 중요하다. 본 논문은 AI기술을 사용해서 Object lifetime을 추적, Fragmentation을 줄이는 기법을 제시하였다. == Motivation & Importance == 기존 OS에서 사용하는 Huge page management는 life-time에 대한 고려가 없기...)
2025년 4월 9일 (수)
- 10:472025년 4월 9일 (수) 10:47 PolyStore: Exploiting Combined Capabilities of Heterogeneous Storage (역사 | 편집) [2,766 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: USENIX FAST Yujie Ren, David Domingo, Jian Zhang, Paul John, Rekha Pitchumani, Sanidhya Kashyap, Sudarsun Kannan USENIX Security 2025 == 개요 == Heterogeneous system이 점차 대두하는 가운데, 현재 존재하는 Caching, Tiering, Application directed방식은 한계를 보이고 있다. 이를 타계하기 위하여, 본 연구에서는 transparent하게 여러 Heterogeous 디바이스들을 사용하는 fine-grained한 레이어를 유저레벨에 구...)
2025년 4월 2일 (수)
- 07:302025년 4월 2일 (수) 07:30 Selective On-Device Execution of Data-Dependent Read I/Os (역사 | 편집) [5,182 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: USENIX FAST Chanyoung Park, Minu Chung, and Hyungon Moon 23rd USENIX Conference on File and Storage Technologies == 개요 == On-device와 In-kernel Near-storage processing의 장점을 모두 살릴 수 있는 새로운 디자인인 SODE를 제시함. SODE는 동적으로 현재 On-device core의 busniess에 따라서 Resubmission logic이 Kernel과 Storage에 적절히 Scheduling할 수 있도록 설계함. 이를 통해서 기존 SOTA였던 XRP보다 향상된...) 태그: 시각 편집
2025년 3월 31일 (월)
- 03:452025년 3월 31일 (월) 03:45 KV Cache (역사 | 편집) [3,751 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: Transformer model == 개요 == Autoregression모델에서, KV Cache는 전에 계산한 K값과 V값들을 캐싱하여, 현재 토큰을 계산하는데 필요한 중복되는 연산을 줄여서 생성 속도의 향상을 꾀하는 Caching모델이다. KV Cache는 대표적인 Computing & Memory trade-off를 이용한 방법이다. == 필요성 == 파일:KV_Cache.gif|프레임없음|600픽셀|가운데|https://medium.com/@joaolages/kv-caching-explained-2765...) 태그: 시각 편집: 전환됨
2025년 3월 29일 (토)
- 08:462025년 3월 29일 (토) 08:46 Transformer (역사 | 편집) [10,638 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: Transformer model == 개요 == Transformer모델은 RNN의 한계를 극복하기 위해서 Attention을 최대한 활용하여, 문장내의 각 문맥의 중요도를 최대한 언어 모델에 반영하기 위해서 개발된 모델이다. Transformer모델에서 제안한 디자인은 크게 Tokenization, Embedding, Positional Encoding, Attention layer을 여러개 쌓아 만들어진 Encoder, Decoder부분 그리고 Encoder self-attention, Masked decode...)
2025년 3월 28일 (금)
- 04:042025년 3월 28일 (금) 04:04 Attention (역사 | 편집) [7,501 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: Transformer model == 개요 == Attention은 기계학습에서 Sequence의 각각의 부분이 얼마나 중요한지를(즉, 얼만큼 관심있게 처리해야 할지를) 결정하는 매커니즘이다. Attention is all you need논문이 나오기 전에는 RNN에 의한 방법들이 많이 사용되었으나, 그후에는 Transformer모델이 주축이 되어서 Attention을 처리하고 있다. Attention매커니즘은 RNN의 단점인, Vanishing gradie...)
2025년 3월 27일 (목)
- 05:462025년 3월 27일 (목) 05:46 Time between token (역사 | 편집) [1,383 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: 인공지능 == 개요 == Time between token(TBT)는 LLM의 성능을 평가하는 지표중 하나로, 모델이 첫번째 토큰을 생성한후(TTFT)각 후속 토큰을 생성하는 데 걸리는 평균 시간을 의미한다. TBT는 다음과 같이 정의된다: TBT = <math>\frac{T_{\text{total}} - T_{\text{first}}}{N - 1}</math> 여기서, * <math>T_{\text{total}}</math> = 전체 응답 생성 시간 * <math>T_{\text{first}}</math> = 첫 번째 토...)
- 05:422025년 3월 27일 (목) 05:42 Time to first token (역사 | 편집) [813 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: 인공지능 == 개요 == Time to first token(TTFT)는 LLM의 성능을 평가하는 지표로, 사용자가 프롬프트를 입력한 후 첫 번째 토큰이 생성될 때까지 걸리는 시간을 의미한다. LLM의 Latency를 측정하는 데 사용된다. TTFT는 LLM이 "첫 반응을 제공하는 속도"를 나타내며, 사용자 경험에 큰 영향을 미친다. <syntaxhighlight lang=python> import time import openai start_time = time.time()...) 태그: 시각 편집: 전환됨
2025년 3월 26일 (수)
- 07:432025년 3월 26일 (수) 07:43 Gated recurrent unit (역사 | 편집) [1,219 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: 딥러닝 == 개요 == 섬네일 GRU (Gated Recurrent Unit) RNN의 한 종류로, LSTM을 개선한 모델이다. GRU는 LSTM의 복잡한 구조를 간소화하고 계산 효율성을 높이기 위해 설계되었으며, 특히 시계열 데이터나 순차적 데이터를 처리하는 데 사용된다. GRU는 LSTM과 비슷한 방식으로 동작하지만, 구조가 더 단순하고 계산 자원을 덜 소모...)
- 07:312025년 3월 26일 (수) 07:31 Long short-term memory (역사 | 편집) [2,099 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: 딥러닝 == 개요 == 섬네일 LSTM은 RNN의 일종으로 Lon-term dependency문제를 해결하기 위해 설계된 모델이다. RNN은 Gradient vanishing문제에서 자유롭지 않다. 예를 들어서, "비가 오는 날에는 공연히 집에만 있고 싶어지네요. 그날도 ( )가 왔죠."에서 ( )에는 비가 들어가 되지만, Gradient vanshing으로 인해서 ( )에 들어가는 말을 엉뚱하게 예측할 수...)
- 07:092025년 3월 26일 (수) 07:09 Recurrent neural network (역사 | 편집) [1,284 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: 딥러닝 == 개요 == Feed Forward Neural Network와는 다르게, 은닉층의 출력 값을 출력층으로 보내는 것 뿐만 아니라, 내부적으로 다시 다른 은닉층으로 보내는 신경망을 말한다. RNN은 순차적인 데이터 혹은 시간 의존성이 있는 데이터를 다룰 수 있어서, 자연어 처리, 음성 인식, 시계열 예측등에 널리 사용된다. 파일:Typical connections in a close-loop cross-coupled perceptron....)
- 06:412025년 3월 26일 (수) 06:41 MOONCAKE: Trading More Storage for Less Computation A KVCache-centric Architecture for Serving LLM Chatbot (역사 | 편집) [3,933 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: USENIX FAST Ruoyu Qin, Zheming Li, Weiran He, Jialei Cui, Feng Ren, Mingxing Zhang, Yongwei Wu, Weimin Zheng, Xinran Xu USENIX FAST 2025 == 개요 == == Motivation & Importance == == Challenge == == Background == == Main Idea == == Design == == Result == == Contribution == == Implementation ==)
2025년 3월 24일 (월)
- 06:202025년 3월 24일 (월) 06:20 Write amplification (역사 | 편집) [11,528 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: 스토리지 == 개요 == '''Write Amplification(쓰기 증폭)'''은 저장 장치에서 실제 쓰기 작업이 논리적 쓰기보다 더 많이 발생하는 현상을 의미한다. 이는 플래시 메모리 기반 SSD(Solid State Drive)에서 특히 중요한 개념으로, 성능 저하 및 수명 단축의 원인이 될 수 있다. 플래시 메모리는 다시 작성되기 전에 삭제되어야 하기 때문에 실제 작성하고자하는 Logical write ope...)
2025년 3월 17일 (월)
- 10:152025년 3월 17일 (월) 10:15 Shape (역사 | 편집) [6,561 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: Style: Lessons in Clarity and Grace == 개요 == 때때론, 긴 문장도 영어 표현에 필요한 법이다. 그렇다면, 긴 문장을 쓰지만 어떻게 Concise하고 Clarficiation하게 작성하는지 소개한다. 독자들은 다음의 포인트에서 문장의 Shape이 이상하다고 생각한다. * 문장의 시작부분에 주제가 나오지 않은 경우 * 중심 문장의 동사가 너무 늦게 나오는 경우 * 동사 뒤에 불필요한 절이...)
2025년 3월 13일 (목)
- 16:002025년 3월 13일 (목) 16:00 SwiftSweeper: Defeating Use-After-Free Bugs Using Memory Sweeper Without Stop-the-World (역사 | 편집) [6,028 바이트] Ahn9807 (토론 | 기여) (새 문서: 분류: IEEE S&P This paper is under revision process.) 처음에 "Defeating Use-After-Free Bugs Using Memory Sweeper Without Stop-the-World"라는 제목으로 만들어졌습니다
2025년 3월 10일 (월)
- 10:462025년 3월 10일 (월) 10:46 Page struct (역사 | 편집) [4,382 바이트] Ahn9807 (토론 | 기여) (새 문서: == Linux struct page 개요 == struct page는 Linux 케네어에서 물리 메모리 페이지를 관리하는 구조체이다. 각 물리 페이지마다 struct page 구조체가 존재하며, 4KB페이지마다 하나씩 존재해서, 물리 메모리에 대한 메타데이터를 저장한다. 최신 리눅스 커널에서는 Folio라는 Huge page를 위한 구조체로 한번더 감싸서, 개발자에게 Page folio에 따른 통일된 메타데이터 관리를 제공한...)