AI.zip
  • AI 모델
  • 방법론
  • AI 서비스
  • 가격 비교
  • 블로그

AI.zip

AI 모델, 서비스, 방법론을 큐레이션하는 에디토리얼 플랫폼

탐색

  • AI 모델
  • AI 서비스
  • 방법론
  • 블로그

커뮤니티

  • 소개
  • 디스코드 참여
  • 문의

법적고지

  • 이용약관
  • 개인정보처리방침

© 2026 ai.zip. All rights reserved.

Discord 커뮤니티
방법론Transfer LearningFine-tuningLoRA

LoRA

Fine-tuning

쉽게 이해하기

LoRA는 AI 전체를 수정하지 않고, 아주 작은 부분만 추가로 붙여서 학습시키는 기술입니다. "AI 본체는 건드리지 말고, 옆에 작은 메모지를 붙이자"라는 발상에서 출발합니다.

안경에 비유하면 이해하기 쉽습니다. 눈이 나빠졌을 때 눈 자체를 수술하는 대신, 안경을 쓰면 되잖아요? LoRA도 마찬가지로 AI 본체를 바꾸는 대신, 작은 보조 장치를 끼워 넣어서 원하는 능력을 추가합니다.

Stable Diffusion이라는 그림 그리는 AI에서 LoRA가 크게 유행했습니다. 사용자들이 LoRA로 특정 화풍이나 캐릭터 스타일을 학습시켜 공유하는 문화가 만들어졌습니다. 기업들도 LoRA를 활용해 고객 상담용 AI를 자기 회사 말투와 지식에 맞게 조정합니다. 마이크로소프트 연구팀이 2021년에 발표한 이 기술은 지금 가장 널리 쓰이는 효율적 학습 방법입니다.

LoRA의 또 다른 장점은, 목적에 따라 여러 개를 만들어 바꿔 끼울 수 있다는 것입니다. 하나의 AI에 법률용, 의료용, 마케팅용 LoRA를 각각 만들어 필요할 때 갈아 끼우면 됩니다.

기술 심층 분석

📚 선수학습: Fine-tuning 개념을 먼저 숙지하세요.

핵심 수학적 구조

사전학습 가중치 W0∈Rd×kW_0 \in \mathbb{R}^{d \times k}W0​∈Rd×k에 대해 업데이트를 저랭크 행렬의 곱으로 표현한다:

W=W0+ΔW=W0+BAW = W_0 + \Delta W = W_0 + BAW=W0​+ΔW=W0​+BA

여기서 B∈Rd×rB \in \mathbb{R}^{d \times r}B∈Rd×r, A∈Rr×kA \in \mathbb{R}^{r \times k}A∈Rr×k이고, 랭크 r≪min⁡(d,k)r \ll \min(d, k)r≪min(d,k)이다. d=k=4096d = k = 4096d=k=4096, r=16r = 16r=16이면 원래 16.8M16.8M16.8M 파라미터 대신 131K131K131K만 학습 — 약 128배 감소.

초기화와 스케일링AAA는

가우시안 랜덤 초기화, BBB는 영행렬로 초기화하여 ΔW=0\Delta W = 0ΔW=0에서 시작한다. 스케일링 팩터 α/r\alpha/rα/r을 적용:

h=W0x+αrBAxh = W_0 x + \frac{\alpha}{r} BAxh=W0​x+rα​BAx

일반적으로 α=2r\alpha = 2rα=2r. 랭크 rrr 선택: 단순 태스크 r=4∼8r = 4 \sim 8r=4∼8, 복잡한 태스크 r=64∼256r = 64 \sim 256r=64∼256.

추론 시 병합Wmerged=W0+BAW_\text{merged} = W_0 + BAWmerged​=W0​+BA

병합 후 원본 모델과 동일한 추론 속도를 유지한다. 여러 태스크별 LoRA를 교체하며 멀티태스크 서빙 가능. QLoRA는 여기에 4비트 양자화를 결합하여 메모리를 더욱 줄인다.

변형

DoRA는 가중치를 크기/방향으로 분해, AdaLoRA는 레이어별 랭크 자동 할당, **LoRA+**는 AAA와 BBB에 서로 다른 학습률 적용.

Footnotes

이전글

Hypothetical Document Embeddings (HyDE)

다음글

Masked Language Modeling (MLM)

댓글

0개

댓글을 작성하려면

로그인

해주세요

방법론 정보

상위 카테고리

Transfer LearningFine-tuning

관련 게시글

7개

사용 서비스

1개

관련 게시글

온프레미스 AI 구축 가이드: GPU 서버부터 프라이빗 LLM까지

GUIDE

Fine-tuning vs RAG: 어떤 방법을 선택해야 하나?

COMPARISON

Hugging Face 완전 가이드: AI 개발자의 GitHub (2025)

GUIDE

사용 서비스

Stable Diffusion

관련 방법론

Adapter Tuning

DPO (Direct Preference Optimization)

ORPO

Prefix Tuning

QLoRA

RLHF (Reinforcement Learning from Human Feedback)

Self-Improvement

SFT (Supervised Fine-Tuning)