Mistral Small 3.1은 Mistral AI의 24B 파라미터 경량 모델로, Apache 2.0 라이선스의 완전한 오픈소스 모델입니다. 131K 토큰 컨텍스트를 지원하며, MMLU 80.6, HumanEval 88.4, MATH 69.3으로 크기 대비 뛰어난 성능을 보여줍니다. Mistral Small 3의 업그레이드 버전으로, 전체적인 성능 개선이 이루어졌습니다.
Mistral Small 3.1의 가장 큰 매력은 가격입니다. 입력 0.11/1M 토큰으로 업계에서 가장 저렴한 수준이며, GPT-4o mini보다도 5배 이상 저렴합니다. 이 가격에 MMLU 80.6, HumanEval 88.4라는 성능은 비용 효율성 면에서 탁월합니다. IFEval 82.8점으로 지시 따르기 능력도 실용적인 수준입니다.
Apache 2.0 라이선스로 어떤 상업적 용도로도 자유롭게 사용 가능하며, 24B 크기는 단일 GPU(48GB VRAM)에서 전체 정밀도 실행이 가능합니다. 양자화 시 소비자 GPU에서도 실행할 수 있어 로컬 배포에도 적합합니다. 유럽 기업인 Mistral AI의 모델이므로 EU 규제 환경에서도 유리합니다.
대량 텍스트 분류, 콘텐츠 생성, 챗봇, 코드 보조 등 비용에 민감한 대규모 프로덕션 워크플로우에 이상적입니다. 완전 오픈소스와 극도로 낮은 가격의 조합은 스타트업이나 개인 프로젝트에서도 부담 없이 고품질 AI를 도입할 수 있게 합니다.
컨텍스트 윈도우
131K 토큰
라이선스
Apache 2.0
출시일
2025년 3월 18일
학습 마감일
2023년 10월 31일
가성비 지수
62.5
API 가격 (혼합)
입력 $0.030/1M
조회수
0
API 가격 (USD 기준)
입력 (Prompt)
$0.03 / 1M 토큰
출력 (Completion)
$0.11 / 1M 토큰
태스크 관련 벤치마크 평균 점수
88.4
코드 생성, 버그 수정, 소프트웨어 엔지니어링
82.8
복잡한 지시사항 이해 및 수행
66.8
다양한 분야 지식 및 이해
Mistral AI
꼭지점 클릭 → 벤치마크 행 이동
| 벤치마크 | 이 모델 | 단위 |
|---|---|---|
| GPQA | 44.4 | % |
| HumanEval | 88.4 |
| 모델 | LLM 점수GPQA·MMLU·MATH·IFEval·HumanEval |
|---|---|
| Mistral Small 3.1 24B | 64.5 |
| o1-pro | 86.4 |
| o3 | 88.8 |
| Grok 4.1 Fast | 74.4 |
| Command A | 69.1 |
56.8
수학, 과학, 논리적 추론
| % |
| IFEval | 82.8 | % |
| MATH Lvl 5 | 69.3 | % |
| MMLU | 80.6 | % |
| MMLU-PRO | 66.8 | % |
| Mistral Large 3 2512 | 72.8 |