noriwiki에서 사용할 수 있는 모든 기록이 표시됩니다. 기록 종류나 사용자 이름(대소문자 구별) 또는 영향을 받는 문서(대소문자 구별)를 선택하여 범위를 좁혀서 살펴볼 수 있습니다.
- 2025년 4월 2일 (수) 07:30 Ahn9807 토론 기여님이 Selective On-Device Execution of Data-Dependent Read I/Os 문서를 만들었습니다 (새 문서: 분류: USENIX FAST Chanyoung Park, Minu Chung, and Hyungon Moon 23rd USENIX Conference on File and Storage Technologies == 개요 == On-device와 In-kernel Near-storage processing의 장점을 모두 살릴 수 있는 새로운 디자인인 SODE를 제시함. SODE는 동적으로 현재 On-device core의 busniess에 따라서 Resubmission logic이 Kernel과 Storage에 적절히 Scheduling할 수 있도록 설계함. 이를 통해서 기존 SOTA였던 XRP보다 향상된...) 태그: 시각 편집
- 2025년 4월 2일 (수) 05:46 Ahn9807 토론 기여님이 파일:FAST 2025 SODE.png 문서를 만들었습니다
- 2025년 4월 2일 (수) 05:46 Ahn9807 토론 기여님이 파일:FAST 2025 SODE.png 파일을 올렸습니다
- 2025년 3월 31일 (월) 03:45 Ahn9807 토론 기여님이 KV Cache 문서를 만들었습니다 (새 문서: 분류: Transformer model == 개요 == Autoregression모델에서, KV Cache는 전에 계산한 K값과 V값들을 캐싱하여, 현재 토큰을 계산하는데 필요한 중복되는 연산을 줄여서 생성 속도의 향상을 꾀하는 Caching모델이다. KV Cache는 대표적인 Computing & Memory trade-off를 이용한 방법이다. == 필요성 == 파일:KV_Cache.gif|프레임없음|600픽셀|가운데|https://medium.com/@joaolages/kv-caching-explained-2765...) 태그: 시각 편집: 전환됨
- 2025년 3월 31일 (월) 03:41 Ahn9807 토론 기여님이 파일:KV Cache.gif 문서를 만들었습니다
- 2025년 3월 31일 (월) 03:41 Ahn9807 토론 기여님이 파일:KV Cache.gif 파일을 올렸습니다
- 2025년 3월 29일 (토) 08:46 Ahn9807 토론 기여님이 Transformer 문서를 만들었습니다 (새 문서: 분류: Transformer model == 개요 == Transformer모델은 RNN의 한계를 극복하기 위해서 Attention을 최대한 활용하여, 문장내의 각 문맥의 중요도를 최대한 언어 모델에 반영하기 위해서 개발된 모델이다. Transformer모델에서 제안한 디자인은 크게 Tokenization, Embedding, Positional Encoding, Attention layer을 여러개 쌓아 만들어진 Encoder, Decoder부분 그리고 Encoder self-attention, Masked decode...)
- 2025년 3월 29일 (토) 06:45 Ahn9807 토론 기여님이 분류:Transformer model 문서를 만들었습니다 (새 문서: 분류: 인공지능) 태그: 시각 편집: 전환됨
- 2025년 3월 28일 (금) 04:04 Ahn9807 토론 기여님이 Attention 문서를 만들었습니다 (새 문서: 분류: Transformer model == 개요 == Attention은 기계학습에서 Sequence의 각각의 부분이 얼마나 중요한지를(즉, 얼만큼 관심있게 처리해야 할지를) 결정하는 매커니즘이다. Attention is all you need논문이 나오기 전에는 RNN에 의한 방법들이 많이 사용되었으나, 그후에는 Transformer모델이 주축이 되어서 Attention을 처리하고 있다. Attention매커니즘은 RNN의 단점인, Vanishing gradie...)
- 2025년 3월 27일 (목) 05:47 Ahn9807 토론 기여님이 TBT 문서를 만들었습니다 (TTFT 문서로 넘겨주기) 태그: 새 넘겨주기
- 2025년 3월 27일 (목) 05:46 Ahn9807 토론 기여님이 Time between token 문서를 만들었습니다 (새 문서: 분류: 인공지능 == 개요 == Time between token(TBT)는 LLM의 성능을 평가하는 지표중 하나로, 모델이 첫번째 토큰을 생성한후(TTFT)각 후속 토큰을 생성하는 데 걸리는 평균 시간을 의미한다. TBT는 다음과 같이 정의된다: TBT = <math>\frac{T_{\text{total}} - T_{\text{first}}}{N - 1}</math> 여기서, * <math>T_{\text{total}}</math> = 전체 응답 생성 시간 * <math>T_{\text{first}}</math> = 첫 번째 토...)
- 2025년 3월 27일 (목) 05:43 Ahn9807 토론 기여님이 TTFT 문서를 만들었습니다 (Time to first token 문서로 넘겨주기) 태그: 새 넘겨주기
- 2025년 3월 27일 (목) 05:42 Ahn9807 토론 기여님이 Time to first token 문서를 만들었습니다 (새 문서: 분류: 인공지능 == 개요 == Time to first token(TTFT)는 LLM의 성능을 평가하는 지표로, 사용자가 프롬프트를 입력한 후 첫 번째 토큰이 생성될 때까지 걸리는 시간을 의미한다. LLM의 Latency를 측정하는 데 사용된다. TTFT는 LLM이 "첫 반응을 제공하는 속도"를 나타내며, 사용자 경험에 큰 영향을 미친다. <syntaxhighlight lang=python> import time import openai start_time = time.time()...) 태그: 시각 편집: 전환됨
- 2025년 3월 26일 (수) 07:43 Ahn9807 토론 기여님이 GRU 문서를 만들었습니다 (Gate recurrent unit 문서로 넘겨주기) 태그: 새 넘겨주기
- 2025년 3월 26일 (수) 07:43 Ahn9807 토론 기여님이 Gated recurrent unit 문서를 만들었습니다 (새 문서: 분류: 딥러닝 == 개요 == 섬네일 GRU (Gated Recurrent Unit) RNN의 한 종류로, LSTM을 개선한 모델이다. GRU는 LSTM의 복잡한 구조를 간소화하고 계산 효율성을 높이기 위해 설계되었으며, 특히 시계열 데이터나 순차적 데이터를 처리하는 데 사용된다. GRU는 LSTM과 비슷한 방식으로 동작하지만, 구조가 더 단순하고 계산 자원을 덜 소모...)
- 2025년 3월 26일 (수) 07:32 Ahn9807 토론 기여님이 LSTM 문서를 만들었습니다 (Long short-term memory 문서로 넘겨주기) 태그: 새 넘겨주기
- 2025년 3월 26일 (수) 07:31 Ahn9807 토론 기여님이 Long short-term memory 문서를 만들었습니다 (새 문서: 분류: 딥러닝 == 개요 == 섬네일 LSTM은 RNN의 일종으로 Lon-term dependency문제를 해결하기 위해 설계된 모델이다. RNN은 Gradient vanishing문제에서 자유롭지 않다. 예를 들어서, "비가 오는 날에는 공연히 집에만 있고 싶어지네요. 그날도 ( )가 왔죠."에서 ( )에는 비가 들어가 되지만, Gradient vanshing으로 인해서 ( )에 들어가는 말을 엉뚱하게 예측할 수...)
- 2025년 3월 26일 (수) 07:09 Ahn9807 토론 기여님이 RNN 문서를 만들었습니다 (Recurrent neural network 문서로 넘겨주기) 태그: 새 넘겨주기
- 2025년 3월 26일 (수) 07:09 Ahn9807 토론 기여님이 Recurrent neural network 문서를 만들었습니다 (새 문서: 분류: 딥러닝 == 개요 == Feed Forward Neural Network와는 다르게, 은닉층의 출력 값을 출력층으로 보내는 것 뿐만 아니라, 내부적으로 다시 다른 은닉층으로 보내는 신경망을 말한다. RNN은 순차적인 데이터 혹은 시간 의존성이 있는 데이터를 다룰 수 있어서, 자연어 처리, 음성 인식, 시계열 예측등에 널리 사용된다. 파일:Typical connections in a close-loop cross-coupled perceptron....)
- 2025년 3월 26일 (수) 06:41 Ahn9807 토론 기여님이 MOONCAKE: Trading More Storage for Less Computation A KVCache-centric Architecture for Serving LLM Chatbot 문서를 만들었습니다 (새 문서: 분류: USENIX FAST Ruoyu Qin, Zheming Li, Weiran He, Jialei Cui, Feng Ren, Mingxing Zhang, Yongwei Wu, Weimin Zheng, Xinran Xu USENIX FAST 2025 == 개요 == == Motivation & Importance == == Challenge == == Background == == Main Idea == == Design == == Result == == Contribution == == Implementation ==)
- 2025년 3월 24일 (월) 06:20 Ahn9807 토론 기여님이 Write amplification 문서를 만들었습니다 (새 문서: 분류: 스토리지 == 개요 == '''Write Amplification(쓰기 증폭)'''은 저장 장치에서 실제 쓰기 작업이 논리적 쓰기보다 더 많이 발생하는 현상을 의미한다. 이는 플래시 메모리 기반 SSD(Solid State Drive)에서 특히 중요한 개념으로, 성능 저하 및 수명 단축의 원인이 될 수 있다. 플래시 메모리는 다시 작성되기 전에 삭제되어야 하기 때문에 실제 작성하고자하는 Logical write ope...)
- 2025년 3월 17일 (월) 10:15 Ahn9807 토론 기여님이 Shape 문서를 만들었습니다 (새 문서: 분류: Style: Lessons in Clarity and Grace == 개요 == 때때론, 긴 문장도 영어 표현에 필요한 법이다. 그렇다면, 긴 문장을 쓰지만 어떻게 Concise하고 Clarficiation하게 작성하는지 소개한다. 독자들은 다음의 포인트에서 문장의 Shape이 이상하다고 생각한다. * 문장의 시작부분에 주제가 나오지 않은 경우 * 중심 문장의 동사가 너무 늦게 나오는 경우 * 동사 뒤에 불필요한 절이...)
- 2025년 3월 13일 (목) 16:00 Ahn9807 토론 기여님이 Defeating Use-After-Free Bugs Using Memory Sweeper Without Stop-the-World 문서를 만들었습니다 (새 문서: 분류: IEEE S&P This paper is under revision process.)
- 2025년 3월 11일 (화) 10:37 183.101.165.230 토론님이 CommentStreams:Afb143de48f0e97e28d29862af7d9c64 댓글을 만들었습니다
- 2025년 3월 11일 (화) 10:37 183.101.165.230 토론님이 CommentStreams:Afb143de48f0e97e28d29862af7d9c64 문서를 만들었습니다
- 2025년 3월 10일 (월) 10:46 Ahn9807 토론 기여님이 Page struct 문서를 만들었습니다 (새 문서: == Linux struct page 개요 == struct page는 Linux 케네어에서 물리 메모리 페이지를 관리하는 구조체이다. 각 물리 페이지마다 struct page 구조체가 존재하며, 4KB페이지마다 하나씩 존재해서, 물리 메모리에 대한 메타데이터를 저장한다. 최신 리눅스 커널에서는 Folio라는 Huge page를 위한 구조체로 한번더 감싸서, 개발자에게 Page folio에 따른 통일된 메타데이터 관리를 제공한...)
- 2025년 2월 12일 (수) 13:19 Ahn9807 토론 기여님이 파우스트 문서를 만들었습니다 (새 문서: {{Book|image=파우스트.jpg|title=파우스트|author=요한 볼프강 폰 괴테|date=1808년|publisher=민음사|pages=272}} == 파우스트 1부== 파우스트는 철학자로서 석사와 박사 과정을 거치며 평생 동안 세상의 진리를 찾기 위해 노력했다. 그는 학문만으로는 답을 구할 수 없다는 한계를 느끼고, 마법적인 힘까지 빌려 진리를 탐구하지만, 결국 인간이 알 수 있는 것은 아무것도 없다는 사...) 태그: 시각 편집: 전환됨
- 2025년 2월 12일 (수) 13:04 Ahn9807 토론 기여님이 파일:파우스트.jpg 문서를 만들었습니다
- 2025년 2월 12일 (수) 13:04 Ahn9807 토론 기여님이 파일:파우스트.jpg 파일을 올렸습니다
- 2025년 2월 6일 (목) 04:13 Ahn9807 토론 기여님이 캐논 FTb 문서를 만들었습니다 (새 문서: 분류: 필름 카메라 {{camera | name = Canon FTb | image = Canon_FTb.jpg | manufacturer = Canon | released = 1971 | lens_mount = Canon FD mount | sensor = N/A (Film Camera) | film_format = 35mm | shutter = Focal-plane shutter, mechanical | metering = TTL CdS light meter | focus = Manual focus | exposure = Manual exposure | viewfinder = Optical, pentaprism | battery = 1x PX625 (for light meter) | dimensions = 144 × 93 × 43 mm | weight = 750g (body only) | gallery = Can...)
- 2025년 2월 6일 (목) 04:12 Ahn9807 토론 기여님이 파일:캐논 FTb 사진 2.jpg 문서를 만들었습니다
- 2025년 2월 6일 (목) 04:12 Ahn9807 토론 기여님이 파일:캐논 FTb 사진 2.jpg 파일을 올렸습니다
- 2025년 2월 6일 (목) 04:11 Ahn9807 토론 기여님이 파일:캐논 FTb 사진 1.jpg 문서를 만들었습니다
- 2025년 2월 6일 (목) 04:11 Ahn9807 토론 기여님이 파일:캐논 FTb 사진 1.jpg 파일을 올렸습니다
- 2025년 2월 4일 (화) 05:45 Ahn9807 토론 기여님이 파일:사진 2023-1-3.jpg.jpg 문서를 넘겨주기를 만들지 않고 파일:사진 2023-1-3.jpg 문서로 이동했습니다
- 2025년 2월 4일 (화) 05:44 Ahn9807 토론 기여님이 야시카 FX-3 문서를 만들었습니다 (새 문서: 분류: 필름 카메라 {{camera | name = Yashica FX-3 | image = Yashica_FX-3.jpg | manufacturer = Yashica | released = 1979 | lens_mount = Contax/Yashica (C/Y) mount | sensor = N/A (Film Camera) | film_format = 35mm | shutter = Focal-plane shutter, mechanical | metering = None (external meter recommended) | focus = Manual focus | exposure = Manual exposure | viewfinder = Optical, pentaprism | battery = 2x LR44 or SR44 (for light meter) | dimensions = 135 × 85 × 50 mm |...) 태그: 시각 편집: 전환됨
- 2025년 2월 4일 (화) 05:41 Ahn9807 토론 기여님이 파일:사진 2023-1-3.jpg.jpg 문서를 만들었습니다
- 2025년 2월 4일 (화) 05:41 Ahn9807 토론 기여님이 파일:사진 2023-1-3.jpg.jpg 파일을 올렸습니다
- 2025년 2월 4일 (화) 05:41 Ahn9807 토론 기여님이 파일:사진 2023-1-2.jpg 문서를 만들었습니다
- 2025년 2월 4일 (화) 05:41 Ahn9807 토론 기여님이 파일:사진 2023-1-2.jpg 파일을 올렸습니다
- 2025년 2월 4일 (화) 05:40 Ahn9807 토론 기여님이 파일:사진 2023-1-1.jpg 문서를 만들었습니다
- 2025년 2월 4일 (화) 05:40 Ahn9807 토론 기여님이 파일:사진 2023-1-1.jpg 파일을 올렸습니다
- 2025년 2월 4일 (화) 05:18 Ahn9807 토론 기여님이 틀:Camera 문서를 만들었습니다 (새 문서: <includeonly><!-- Template --><table class="tg-infobox floatright"><!-- -->{{Infobox image row |image = {{{image|}}} |caption = {{{caption|}}} |imageWidth = {{{imageWidth|}}} |imageHeight = {{{imageHeight|}}} }}<!-- -->{{Infobox row |colspan = 2 |header = {{{name|{{#explode:{{PAGENAME}}| (|0}}}}} |headerClass = tg-infobox-title }}<!-- -->{{Infobox row |colspan = 2 |condition = {{{manufacturer|}}}{{{released|}}}{{{lens_mount|}}}{{{sensor|}}}{{{film_format|}}}{{{shu...)
- 2025년 2월 3일 (월) 03:21 Ahn9807 토론 기여님이 분류:사진 촬영 문서를 만들었습니다 (새 문서: 분류: 취미)
- 2025년 2월 3일 (월) 03:21 Ahn9807 토론 기여님이 분류:필름 카메라 문서를 만들었습니다 (새 문서: 분류: 사진 촬영)
- 2025년 2월 3일 (월) 03:20 Ahn9807 토론 기여님이 현상 문서를 만들었습니다 (새 문서: == D-76을 이용한 흑백 필름 현상 방법 == === 1. 필름 탱크에 넣기 (로딩) === * 암실 또는 암백에서 필름을 리스폴(스풀)에 감아 현상 탱크에 넣는다. * 탱크를 완전히 밀폐한 후, 불을 킨다. === 2. 현상액(D-76) 준비 === * D-76을 제조한 후, 사용 온도를 '''20°C'''로 맞춘다. * 원액(Stock) 그대로 사용하거나 1:1로 희석 가능 (희석 시 현상 시간 증가). === 3. 필름 현상 (Development)...)
- 2025년 1월 20일 (월) 17:01 Ahn9807 토론 기여님이 초한지 문서를 만들었습니다 (새 문서: 분류: 소설 {{Book|image=SSID-12328299 楚漢春秋 10.pdf|title=초한지(楚漢志)|author=견위외, 이문열 엮음}} == 어록 == 2권 p23. 하지만 한낱 정장으로 마흔 고개를 넘기면서 어지간한 유계에게도 다시 회의와 열패감이 고개를 들기 시작했다. 마흔이 넘어도 그 이름이 들리지 않는다면 그는 그리 두려워할 게 없는 사람이라고(四十而不聞 不可畏) 하지 않던가. <유계 개백수...) 태그: 시각 편집: 전환됨
- 2025년 1월 20일 (월) 06:10 Ahn9807 토론 기여님이 DiLOS: Do Not Trade Compatibility for Performance in Memory Disaggregation 문서를 만들었습니다 (새 문서: 분류: ACM EuroSys Wonsup Yoon, Jisu Ok, Jinyoung Oh, Sue Moon, Youngjin Kwon EuroSys ’23, May 9–12, 2023, Rome, Italy == 개요 == DILOS는 Unikernel을 사용해서 paging-based memory migration의 성능 한계를 극복한 논문이다. == Motivation == Memory migration에서 자주사용되는 방식인 Kernel-based는 kernel이 computing node와 memory node의 Migration을 담당하도록 하는 방식이다. 그러나 Kernel-user switching이 자주 일...)
- 2025년 1월 17일 (금) 11:52 Ahn9807 토론 기여님이 HeMem: Scalable Tiered Memory Management for Big Data Applications and Real NVM 문서를 만들었습니다 (새 문서: 분류: ACM SOSP Amanda Raybuck, Tim Stamler, Wei Zhang, Mattan Erez, Simon Peter; The University of Texas at Austin SOSP ’21, October 26–29, 2021, Virtual Event, Germany == 개요 == HeMem은 Tiered memory system에서 Asynchronously, batching을 이용하여서 Memory access tracking, Migration, 그리고 TLB동기화의 오버헤드를 줄였다. 또한 Sampling방식을 통해서 Memory event를 수집하여 Scalability를 올렸으며, Per-application memory...)
- 2025년 1월 16일 (목) 11:45 Ahn9807 토론 기여님이 Thwarting Memory Disclosure with Efficient Hypervisor-enforced Intra-domain Isolation 문서를 만들었습니다 (새 문서: 분류: ACM CCS == 개요 == == Motivation == Application이 탈취되거나, OS가 해킹당하면 Application의 중요한 Credential정보가 탈취된다. 기존에는 Hypervisor방식, 혹은 Application의 일부분을 분리하는 방식은 제각기 단점이 있다. == Main Idea == Static analysis를 이용해서 Application을 분석하여 Secret을 포함하는 부분과 아닌 부분으로 쪼갠다. 추가로 Static analysis는 In-complete함으로, Dynamic r...)