QwQ 32B는 알리바바 클라우드 Qwen 시리즈의 추론(reasoning) 특화 모델입니다. 기존의 지시 따르기 모델과 달리, 답변 전에 내부적으로 깊은 사고 과정을 거쳐 복잡한 문제를 해결합니다. 131K 토큰 컨텍스트를 지원하며, MATH 90.6, HumanEval 84.4, IFEval 83.9로 추론과 코딩에서 뛰어난 성능을 기록합니다.
QwQ의 핵심 특징은 오픈소스 추론 모델이라는 점입니다. OpenAI의 o1이나 o3가 클로즈드 소스인 반면, QwQ는 Qwen License로 공개되어 로컬에서 직접 실행할 수 있습니다. MMLU-PRO 72.2점은 전문 지식 영역에서의 견고한 이해를, GPQA 65.2점은 대학원 수준 과학 질문에서의 추론 능력을 보여줍니다. Arena Elo 1315로 실사용자 평가에서도 긍정적입니다.
입력 0.58/1M 토큰으로 추론 모델 중 가장 저렴한 수준이며, 로컬 실행 시에는 비용이 전혀 들지 않습니다. 32B 크기는 소비자 GPU에서도 양자화를 통해 실행 가능하여, 프라이버시가 중요한 환경에서의 추론 모델 활용을 가능하게 합니다.
로컬에서 실행 가능한 추론 모델이 필요한 연구 프로젝트, 비용에 민감한 수학 및 코딩 자동화, 프라이버시가 요구되는 온프레미스 추론 파이프라인, 또는 오픈소스 추론 모델의 학습과 파인튜닝에 적합합니다. 더 높은 성능이 필요하다면 Qwen3 시리즈를 고려하세요.
컨텍스트 윈도우
131K 토큰
라이선스
Qwen License
출시일
2025년 3월 6일
학습 마감일
2024년 6월 30일
가성비 지수
9.4
API 가격 (혼합)
입력 $0.150/1M
조회수
0
API 가격 (USD 기준)
입력 (Prompt)
$0.15 / 1M 토큰
출력 (Completion)
$0.58 / 1M 토큰
태스크 관련 벤치마크 평균 점수
84.4
코드 생성, 버그 수정, 소프트웨어 엔지니어링
83.9
복잡한 지시사항 이해 및 수행
77.9
수학, 과학, 논리적 추론
Qwen
꼭지점 클릭 → 벤치마크 행 이동
| 벤치마크 | 이 모델 | 단위 |
|---|---|---|
| Arena Elo | 1315.0 | elo |
| BBH | 0.3 |
| 모델 | LLM 점수GPQA·MMLU·MATH·IFEval·HumanEval |
|---|---|
| QwQ 32B | 77.1 |
| o1-pro | 86.4 |
| o3 | 88.8 |
| Grok 4.1 Fast | 74.4 |
| Command A | 69.1 |
72.2
다양한 분야 지식 및 이해
| % |
| GPQA | 65.2 | % |
| HumanEval | 84.4 | % |
| IFEval | 83.9 | % |
| MATH Lvl 5 | 90.6 | % |
| MMLU-PRO | 72.2 | % |
| MUSR | 0.4 | % |
| Mistral Large 3 2512 | 72.8 |