Qwen3.5-27B는 알리바바 클라우드의 27B 파라미터 밀집(dense) 모델로, 선형 어텐션(linear attention) 메커니즘을 도입하여 빠른 응답 속도와 높은 성능을 동시에 달성합니다. 262K 토큰의 대용량 컨텍스트를 지원하며, MMLU-PRO 86.1, GPQA 85.5로 글로벌 최상위 수준의 성능을 기록합니다.
선형 어텐션의 도입은 기존 트랜스포머의 이차 복잡도(O(n^2))를 선형 복잡도(O(n))로 줄여, 긴 컨텍스트에서의 추론 속도와 메모리 효율을 크게 개선합니다. SWE-bench Verified 72.4점은 소프트웨어 엔지니어링 작업에서의 강력한 역량을, AIME 2026 90.83점은 올림피아드급 수학에서의 뛰어난 추론 능력을 각각 보여줍니다. HLE 24.3점과 TerminalBench 41.6점도 고난도 작업에서의 견고한 성능을 입증합니다.
입력 1.56/1M 토큰으로 이 성능 수준에서는 매우 경쟁력 있는 가격입니다. 네이티브 비전-언어 지원을 포함하는 통합 모델로, 별도의 VLM 없이도 이미지 입력을 처리할 수 있습니다. Qwen License로 상업적 사용이 가능합니다.
장문 문서 분석, 대규모 코드베이스 작업, 수학 및 과학 추론, 다국어 콘텐츠 생성 등 '높은 성능과 긴 컨텍스트'가 동시에 필요한 작업에 최적입니다. 선형 어텐션 덕분에 긴 입력에서도 응답 속도가 안정적으로 유지되는 것이 큰 장점입니다.
컨텍스트 윈도우
262K 토큰
라이선스
Qwen License
출시일
2026년 2월 26일
가성비 지수
4.4
API 가격 (혼합)
입력 $0.195/1M
조회수
0
API 가격 (USD 기준)
입력 (Prompt)
$0.20 / 1M 토큰
출력 (Completion)
$1.56 / 1M 토큰
태스크 관련 벤치마크 평균 점수
86.1
다양한 분야 지식 및 이해
66.9
수학, 과학, 논리적 추론
57.0
코드 생성, 버그 수정, 소프트웨어 엔지니어링
Qwen
꼭지점 클릭 → 벤치마크 행 이동
| 벤치마크 | 이 모델 | 단위 |
|---|---|---|
| AIME 2026 | 90.8 | % |
| GPQA | 85.5 | % |
| HLE |
| 모델 | LLM 점수GPQA·MMLU·MATH·IFEval·HumanEval |
|---|---|
| Qwen3.5-27B | 85.8 |
| o1-pro | 86.4 |
| o3 | 88.8 |
| Grok 4.1 Fast | 74.4 |
| Command A | 69.1 |
| 24.3 |
| % |
| HMMT 2026 | 81.1 | % |
| MMLU-PRO | 86.1 | % |
| SWE-bench Verified | 72.4 | % |
| TerminalBench | 41.6 | % |
| Mistral Large 3 2512 | 72.8 |