AI.zip
  • AI 모델
  • 방법론
  • AI 서비스
  • 가격 비교
  • 블로그

AI.zip

AI 모델, 서비스, 방법론을 큐레이션하는 에디토리얼 플랫폼

탐색

  • AI 모델
  • AI 서비스
  • 방법론
  • 블로그

커뮤니티

  • 소개
  • 디스코드 참여
  • 문의

법적고지

  • 이용약관
  • 개인정보처리방침

© 2026 ai.zip. All rights reserved.

Discord 커뮤니티
방법론Context Window ManagementRoPE (Rotary Position Embedding)

RoPE (Rotary Position Embedding)

Context Window Management

쉽게 이해하기

RoPE는 AI가 문장에서 단어의 위치를 파악하는 방법입니다. 단어가 문장 앞에 있는지 뒤에 있는지, 두 단어가 얼마나 떨어져 있는지를 회전 각도로 표현합니다. GPT-4, LLaMA, Gemini 등 현재 주요 LLM 대부분이 채택하고 있으며, 긴 문서 처리 능력의 핵심 기술입니다.

기술 심층 분석

  • 핵심 원리: 위치 정보를 쿼리/키 벡터에 회전 행렬로 인코딩합니다. qm⋅kn=(Rmq)T(Rnk)=qTRn−mk\mathbf{q}_m \cdot \mathbf{k}_n = (\mathbf{R}_m \mathbf{q})^T (\mathbf{R}_n \mathbf{k}) = \mathbf{q}^T \mathbf{R}_{n-m} \mathbf{k}qm​⋅kn​=(Rm​q)T(Rn​k)=qTRn−m​k 내적 결과가 절대 위치 m,nm, nm,n이 아닌 **상대 거리 n−mn-mn−m**만 의존 → 상대 위치 자동 인코딩

  • 2D 회전 공식 (차원 쌍 ddd번째): [q2dq2d+1]m=[cos⁡(mθd)−sin⁡(mθd)sin⁡(mθd)cos⁡(mθd)][q2dq2d+1]\begin{bmatrix} q_{2d} \\ q_{2d+1} \end{bmatrix}_m = \begin{bmatrix} \cos(m\theta_d) & -\sin(m\theta_d) \\ \sin(m\theta_d) & \cos(m\theta_d) \end{bmatrix} \begin{bmatrix} q_{2d} \\ q_{2d+1} \end{bmatrix}[q2d​q2d+1​​]m​=[cos(mθd​)sin(mθd​)​−sin(mθd​)cos(mθd​)​][q2d​q2d+1​​] θd=10000−2d/D\theta_d = 10000^{-2d/D}θd​=10000−2d/D — 차원마다 다른 주파수로 다양한 거리 해상도 표현

  • 장문 외삽(Context Extension):

    • YaRN: 주파수별 스케일링 팩터 차등 적용
    • LongRoPE: 훈련 없이 컨텍스트 2M 토큰까지 확장
    • RoPE Scaling: θd′=θd⋅s\theta_d' = \theta_d \cdot sθd′​=θd​⋅s로 단순 스케일링
  • ALiBi와 비교: RoPE는 학습된 위치 표현, ALiBi는 어텐션 편향 직접 조작

Footnotes

이전글

RLHF (Reinforcement Learning from Human Feedback)

다음글

Self-Improvement

댓글

0개

댓글을 작성하려면

로그인

해주세요

방법론 정보

상위 카테고리

Context Window Management

관련 게시글

0개

사용 서비스

0개

관련 방법론

ALiBi (Attention with Linear Biases)

Sliding Window Attention