Toggle menu
Toggle preferences menu
Toggle personal menu
Not logged in
Your IP address will be publicly visible if you make any edits.

New pages

More actions
New pages
Hide registered users | Hide bots | Show redirects

9 June 2025

4 June 2025

1 June 2025

28 May 2025

  • 01:5601:56, 28 May 2025 AddressSanitizer (hist | edit) [6,910 bytes] Ahn9807 (talk | contribs) (새 문서: 분류: 소프트웨어 기반 보안 = 개요 = '''AddressSanitizer''' ('''ASan''')는 C/C++ 프로그램에서 발생하는 메모리 오류를 탐지하기 위한 메모리 오류 검사 도구이다. AddressSanitizer는 다음과 같은 메모리 오류를 탐지할 수 있다: * Use-after-free * Heap buffer overflow * Stack buffer overflow * Global buffer overflow * Use-after-return * Use-after-scope * Initialization order bugs * Memory leaks == 작동 원리 == ===...)

27 May 2025

20 May 2025

19 May 2025

18 May 2025

25 April 2025

22 April 2025

11 April 2025

9 April 2025

2 April 2025

31 March 2025

  • 03:4503:45, 31 March 2025 KV Cache (hist | edit) [3,751 bytes] Ahn9807 (talk | contribs) (새 문서: 분류: Transformer model == 개요 == Autoregression모델에서, KV Cache는 전에 계산한 K값과 V값들을 캐싱하여, 현재 토큰을 계산하는데 필요한 중복되는 연산을 줄여서 생성 속도의 향상을 꾀하는 Caching모델이다. KV Cache는 대표적인 Computing & Memory trade-off를 이용한 방법이다. == 필요성 == 파일:KV_Cache.gif|프레임없음|600픽셀|가운데|https://medium.com/@joaolages/kv-caching-explained-2765...) Tag: Visual edit: Switched

29 March 2025

  • 08:4608:46, 29 March 2025 Transformer (hist | edit) [10,638 bytes] Ahn9807 (talk | contribs) (새 문서: 분류: Transformer model == 개요 == Transformer모델은 RNN의 한계를 극복하기 위해서 Attention을 최대한 활용하여, 문장내의 각 문맥의 중요도를 최대한 언어 모델에 반영하기 위해서 개발된 모델이다. Transformer모델에서 제안한 디자인은 크게 Tokenization, Embedding, Positional Encoding, Attention layer을 여러개 쌓아 만들어진 Encoder, Decoder부분 그리고 Encoder self-attention, Masked decode...)

28 March 2025

  • 04:0404:04, 28 March 2025 Attention (hist | edit) [7,501 bytes] Ahn9807 (talk | contribs) (새 문서: 분류: Transformer model == 개요 == Attention은 기계학습에서 Sequence의 각각의 부분이 얼마나 중요한지를(즉, 얼만큼 관심있게 처리해야 할지를) 결정하는 매커니즘이다. Attention is all you need논문이 나오기 전에는 RNN에 의한 방법들이 많이 사용되었으나, 그후에는 Transformer모델이 주축이 되어서 Attention을 처리하고 있다. Attention매커니즘은 RNN의 단점인, Vanishing gradie...)

27 March 2025

  • 05:4605:46, 27 March 2025 Time between token (hist | edit) [1,383 bytes] Ahn9807 (talk | contribs) (새 문서: 분류: 인공지능 == 개요 == Time between token(TBT)는 LLM의 성능을 평가하는 지표중 하나로, 모델이 첫번째 토큰을 생성한후(TTFT)각 후속 토큰을 생성하는 데 걸리는 평균 시간을 의미한다. TBT는 다음과 같이 정의된다: TBT = <math>\frac{T_{\text{total}} - T_{\text{first}}}{N - 1}</math> 여기서, * <math>T_{\text{total}}</math> = 전체 응답 생성 시간 * <math>T_{\text{first}}</math> = 첫 번째 토...)
  • 05:4205:42, 27 March 2025 Time to first token (hist | edit) [813 bytes] Ahn9807 (talk | contribs) (새 문서: 분류: 인공지능 == 개요 == Time to first token(TTFT)는 LLM의 성능을 평가하는 지표로, 사용자가 프롬프트를 입력한 후 첫 번째 토큰이 생성될 때까지 걸리는 시간을 의미한다. LLM의 Latency를 측정하는 데 사용된다. TTFT는 LLM이 "첫 반응을 제공하는 속도"를 나타내며, 사용자 경험에 큰 영향을 미친다. <syntaxhighlight lang=python> import time import openai start_time = time.time()...) Tag: Visual edit: Switched

26 March 2025

24 March 2025

  • 06:2006:20, 24 March 2025 Write amplification (hist | edit) [11,528 bytes] Ahn9807 (talk | contribs) (새 문서: 분류: 스토리지 == 개요 == '''Write Amplification(쓰기 증폭)'''은 저장 장치에서 실제 쓰기 작업이 논리적 쓰기보다 더 많이 발생하는 현상을 의미한다. 이는 플래시 메모리 기반 SSD(Solid State Drive)에서 특히 중요한 개념으로, 성능 저하 및 수명 단축의 원인이 될 수 있다. 플래시 메모리는 다시 작성되기 전에 삭제되어야 하기 때문에 실제 작성하고자하는 Logical write ope...)

17 March 2025

  • 10:1510:15, 17 March 2025 Shape (hist | edit) [6,561 bytes] Ahn9807 (talk | contribs) (새 문서: 분류: Style: Lessons in Clarity and Grace == 개요 == 때때론, 긴 문장도 영어 표현에 필요한 법이다. 그렇다면, 긴 문장을 쓰지만 어떻게 Concise하고 Clarficiation하게 작성하는지 소개한다. 독자들은 다음의 포인트에서 문장의 Shape이 이상하다고 생각한다. * 문장의 시작부분에 주제가 나오지 않은 경우 * 중심 문장의 동사가 너무 늦게 나오는 경우 * 동사 뒤에 불필요한 절이...)

13 March 2025

10 March 2025

  • 10:4610:46, 10 March 2025 Page struct (hist | edit) [4,382 bytes] Ahn9807 (talk | contribs) (새 문서: == Linux struct page 개요 == struct page는 Linux 케네어에서 물리 메모리 페이지를 관리하는 구조체이다. 각 물리 페이지마다 struct page 구조체가 존재하며, 4KB페이지마다 하나씩 존재해서, 물리 메모리에 대한 메타데이터를 저장한다. 최신 리눅스 커널에서는 Folio라는 Huge page를 위한 구조체로 한번더 감싸서, 개발자에게 Page folio에 따른 통일된 메타데이터 관리를 제공한...)