Mistral Large 3 2512는 Mistral AI의 가장 강력한 모델로, Sparse MoE 아키텍처를 채택한 최신 플래그십입니다. 262K 토큰 컨텍스트를 지원하며, MMLU 85.5, MATH 93.6, HumanEval 90.2, IFEval 89.4, GSM8K 92.3으로 전반적으로 높은 성능을 기록합니다. Apache 2.0 오픈소스 라이선스를 유지합니다.
Mistral Large의 독보적인 포지션은 '오픈소스 플래그십'입니다. MATH 93.6점은 수학 추론에서 프리미엄 클로즈드 모델들과 경쟁하는 수준이며, MMLU-PRO 73.1점과 GPQA 43.9점도 견고합니다. Arena Elo 1305로 실사용자 평가에서도 GPT-4 Turbo를 넘어서는 선호도를 보여줍니다. 262K 컨텍스트는 대부분의 실무 시나리오에 충분합니다.
입력 1.50/1M 토큰으로 이 성능 수준에서는 매우 경쟁력 있는 가격입니다. Apache 2.0이므로 자체 서버 호스팅이 가능하며, 유럽 기반 AI 기업으로서 EU 데이터 규제에 유리합니다.
Apache 2.0 라이선스가 필요한 상용 서비스, 자체 인프라에서의 고성능 모델 호스팅, 유럽 규제 환경에서의 AI 서비스, 수학 및 코딩 자동화, 또는 오픈소스 플래그십 모델이 필요한 엔터프라이즈 프로젝트에 최적입니다.
컨텍스트 윈도우
262K 토큰
라이선스
Apache 2.0
출시일
2025년 12월 2일
가성비 지수
5.1
API 가격 (혼합)
입력 $0.500/1M
조회수
0
API 가격 (USD 기준)
입력 (Prompt)
$0.50 / 1M 토큰
출력 (Completion)
$1.50 / 1M 토큰
태스크 관련 벤치마크 평균 점수
90.2
코드 생성, 버그 수정, 소프트웨어 엔지니어링
89.4
복잡한 지시사항 이해 및 수행
73.1
다양한 분야 지식 및 이해
Mistral AI
꼭지점 클릭 → 벤치마크 행 이동
| 벤치마크 | 이 모델 | 단위 |
|---|---|---|
| Arena Elo | 1305.0 | elo |
| GPQA |
| 모델 | LLM 점수GPQA·MMLU·MATH·IFEval·HumanEval |
|---|---|
| Mistral Large 3 2512 | 72.8 |
| o1-pro | 86.4 |
| o3 | 88.8 |
| Grok 4.1 Fast | 74.4 |
| Command A | 69.1 |
68.8
수학, 과학, 논리적 추론
| 43.9 |
| % |
| GSM8K | 92.3 | % |
| HumanEval | 90.2 | % |
| IFEval | 89.4 | % |
| MATH Lvl 5 | 93.6 | % |
| MMLU | 85.5 | % |
| MMLU-PRO | 73.1 | % |
| MiniMax M2.1 | - |