Qwen3 14B는 알리바바 클라우드 Qwen 팀의 14.8B 파라미터 밀집(dense) 모델로, 소비자 GPU에서 실행 가능한 크기로 견고한 성능을 제공합니다. 40K 토큰 컨텍스트를 지원하며, Qwen License로 상업적 사용이 가능합니다. 로컬 AI 구축을 위한 최적의 크기-성능 균형점으로 평가받고 있습니다.
Qwen3 시리즈의 핵심 혁신인 하이브리드 사고 모드(thinking/non-thinking)를 완벽히 지원합니다. 간단한 질문에는 비사고 모드로 즉시 응답하고, 수학이나 코딩 같은 복잡한 문제에는 사고 모드를 활성화하여 내부 추론 과정을 거쳐 정확도를 높입니다. 사용자가 API 파라미터로 모드를 전환할 수 있어, 속도와 정확성 사이의 트레이드오프를 작업 유형에 따라 직접 제어할 수 있습니다.
입력 0.24/1M 토큰으로 API 사용 시 극도로 저렴하여, 대량 텍스트 처리나 비용에 민감한 프로젝트에 이상적입니다. 오픈 웨이트로 공개되어 있어 GGUF 양자화 버전을 16GB VRAM GPU(RTX 4060 Ti, RTX 4080 등)에서 직접 실행할 수 있으며, 이 경우 API 비용 없이 무제한 추론이 가능합니다.
한국어, 중국어, 일본어 등 동아시아 언어에서 같은 크기의 Llama, Gemma 등 영어 중심 모델 대비 뛰어난 성능을 보여줍니다. 다국어 챗봇, 번역 시스템, 아시아 시장 대상 콘텐츠 생성, 비용 효율적인 로컬 AI 서버 구축, 또는 프라이버시가 중요한 온프레미스 배포에 적합한 선택지입니다.
컨텍스트 윈도우
41K 토큰
라이선스
Qwen License
출시일
2025년 4월 29일
학습 마감일
2025년 3월 31일
가성비 지수
6.6
API 가격 (혼합)
입력 $0.060/1M
조회수
0
API 가격 (USD 기준)
입력 (Prompt)
$0.06 / 1M 토큰
출력 (Completion)
$0.24 / 1M 토큰
태스크 관련 벤치마크 평균 점수
32.2
다양한 분야 지식 및 이해
27.9
복잡한 지시사항 이해 및 수행
18.9
수학, 과학, 논리적 추론
Qwen
꼭지점 클릭 → 벤치마크 행 이동
| 벤치마크 | 이 모델 | 단위 |
|---|---|---|
| BBH | 0.5 | % |
| GPQA | 30.3 | % |
| 모델 | LLM 점수GPQA·MMLU·MATH·IFEval·HumanEval |
|---|---|
| Qwen3 14B | 24.2 |
| o1-pro | 86.4 |
| o3 | 88.8 |
| Grok 4.1 Fast | 74.4 |
| Command A | 69.1 |
| IFEval | 27.9 | % |
| MATH Lvl 5 | 7.6 | % |
| MMLU-PRO | 32.2 | % |
| MUSR | 0.4 | % |
| Mistral Large 3 2512 | 72.8 |