Anthropic 모델 라인업 한눈에 보기
Anthropic은 용도와 비용에 따라 세 가지 모델 티어를 운영합니다.
| 모델 | 성능 등급 | 입력 ($/1M) | 출력 ($/1M) | 특징 |
|---|---|---|---|---|
| Claude Opus 4.5 | 최상 | $15.00 | $75.00 | ai.zip 리더보드 437점, 고복잡도 추론 |
| Claude Sonnet 4.6 | 균형 | $3.00 | $15.00 | 리더보드 310점, 프로덕션 주력 |
| Claude Haiku 4.5 | 경량 | $0.80 | $4.00 | 리더보드 405점, 빠른 응답·저비용 |
흥미로운 점: Haiku 4.5가 리더보드에서 Sonnet 4.5보다 높은 점수를 기록합니다. 이는 벤치마크 구성에 따라 경량 모델도 특정 태스크에서 뛰어날 수 있음을 보여줍니다.
Claude Haiku 4.5 — 이럴 때 쓰세요
Haiku는 "빠르고 싸게, 충분히 좋게"가 필요할 때 최적입니다.
추천 사용 사례
1. 실시간 스트리밍 응답 사용자가 타이핑하는 동안 즉각 응답해야 하는 인터페이스. Haiku는 Sonnet보다 응답 시작 지연(TTFT, Time to First Token)이 현저히 짧습니다.
2. 대량 배치 처리
- 고객 리뷰 수천 건 분류
- 문서 메타데이터 자동 추출
- 이메일 카테고리 분류
비용 계산 예시 — 리뷰 10만 건, 건당 평균 200토큰 입력 + 50토큰 출력:
Haiku: (20M × $0.80 + 5M × $4.00) / 1,000,000 = $36
Sonnet: (20M × $3.00 + 5M × $15.00) / 1,000,000 = $135
→ 동일 작업에 Haiku가 3.7배 저렴
3. 단순 구조화 태스크
- JSON 파싱 및 데이터 추출
- 단답형 질의응답
- 텍스트 형식 변환 (마크다운 → HTML 등)
- 요약 (2~3문장)
4. 프로토타이핑 및 개발 API 연동 테스트, 프롬프트 반복 개선 시 Haiku로 빠르게 이터레이션하고 검증된 후 Sonnet으로 업그레이드합니다.
Claude Sonnet 4.6 — 이럴 때 쓰세요
Sonnet은 "품질이 중요한데 Opus는 너무 비싸다"는 상황에서 프로덕션 기본값입니다.
추천 사용 사례
1. 코드 생성 및 리뷰 복잡한 알고리즘 구현, 버그 디버깅, 코드 리팩토링. Haiku는 간단한 코드는 잘 작성하지만 복잡한 비즈니스 로직에서 실수가 잦습니다.
2. 긴 문서 분석 (200K 토큰 컨텍스트) 계약서, 논문, 대용량 코드베이스 전체를 컨텍스트에 넣고 분석. Haiku도 동일한 컨텍스트 창을 지원하지만 긴 문서에서 세부사항을 놓칠 수 있습니다.
3. 다단계 추론
- 복잡한 비즈니스 분석
- 법률/계약 검토
- 기술 문서 작성
- 멀티스텝 계획 수립
4. 한국어 고품질 생성 자연스러운 한국어 글쓰기, 뉘앙스가 중요한 마케팅 카피, 이메일 작성.
Opus
4.5 — 언제 쓰나요?
솔직히 말하면, 대부분의 실무에서 Opus는 필요 없습니다. 다음 경우에만 검토하세요:
- 의료 진단 보조, 법률 판단 보조처럼 오류 비용이 극도로 높은 경우
- 최고 난이도 수학/과학 추론 (IMO 수준 문제 등)
- Sonnet으로 반복 시도해도 품질 기준을 못 맞출 때
Anthropic도 Sonnet을 "대부분의 태스크에 최적"이라고 공식 권장합니다.
실전 모델 라우팅 패턴
def select_claude_model(task_type: str, content_length: int) -> str:
# 단순 분류/추출
if task_type in ["classify", "extract", "format"]:
return "claude-haiku-4-5-20251001"
# 짧은 대화형
if task_type == "chat" and content_length < 1000:
return "claude-haiku-4-5-20251001"
# 코드, 긴 문서, 복잡한 분석
if task_type in ["code", "analysis", "long_document"]:
return "claude-sonnet-4-6"
# 기본값
return "claude-sonnet-4-6"
비용 최적화: Prompt Caching
Anthropic의 Prompt Caching 기능을 활용하면 반복되는 시스템 프롬프트 비용을 최대 90% 줄일 수 있습니다.
response = anthropic.messages.create(
model="claude-sonnet-4-6",
messages=[{
"role": "user",
"content": [
{
"type": "text",
"text": very_long_system_context, # 수천 토큰짜리 문서
"cache_control": {"type": "ephemeral"} # 캐시 활성화
},
{"type": "text", "text": user_question}
]
}]
)
동일한 긴 문서를 여러 번 참조하는 RAG 시스템에서 특히 효과적입니다.
결론: 선택 기준 요약
| 상황 | 추천 모델 |
|---|---|
| 빠른 응답, 대량 처리, 단순 태스크 | Haiku 4.5 |
| 코딩, 긴 문서, 복잡한 추론 | Sonnet 4.6 |
| 극한의 품질이 필요한 특수 케이스 | Opus 4.5 |
| 비용 절감 우선, 성능 타협 가능 | Haiku 4.5 |
| 모르겠다 | Sonnet 4.6 (공식 권장) |





