Mistral Nemo는 Mistral AI와 NVIDIA가 공동 개발한 12B 파라미터 경량 모델입니다. Apache 2.0 라이선스의 완전한 오픈소스 모델로, 128K 토큰이라는 소형 모델 치고는 파격적으로 큰 컨텍스트를 지원합니다. MMLU 68점으로 12B 크기에서 실용적인 기본 성능을 제공합니다.
Mistral Nemo의 독특한 포지션은 '12B 크기에 128K 컨텍스트'라는 조합입니다. 대부분의 12B 모델이 4K-16K 컨텍스트를 지원하는 데 반해, 128K는 장문 문서 처리에서 소형 모델의 한계를 크게 넓혀줍니다. NVIDIA와의 공동 개발로 NVIDIA GPU에서의 추론 최적화가 잘 되어 있으며, TensorRT-LLM 등 NVIDIA 추론 프레임워크와의 호환성이 뛰어납니다.
입력 0.04/1M 토큰으로 거의 무료에 가까운 가격입니다. 12B 크기는 단일 소비자 GPU(12GB VRAM)에서 양자화 없이도 실행 가능하며, 양자화 시 8GB VRAM에서도 구동됩니다. Apache 2.0 라이선스로 어떤 상업적 용도로도 자유롭게 사용 가능합니다.
긴 문서를 처리해야 하지만 대형 모델을 실행할 인프라가 없는 환경, 비용에 극도로 민감한 대량 텍스트 처리, NVIDIA GPU 최적화가 필요한 프로덕션 배포, 또는 경량 오픈소스 모델 기반의 파인튜닝에 적합합니다.
컨텍스트 윈도우
131K 토큰
라이선스
Apache 2.0
출시일
2024년 7월 19일
학습 마감일
2024년 4월 30일
가성비 지수
66.8
API 가격 (혼합)
입력 $0.020/1M
조회수
0
API 가격 (USD 기준)
입력 (Prompt)
$0.02 / 1M 토큰
출력 (Completion)
$0.04 / 1M 토큰
태스크 관련 벤치마크 평균 점수
63.8
복잡한 지시사항 이해 및 수행
35.2
다양한 분야 지식 및 이해
20.9
수학, 과학, 논리적 추론
Mistral AI
꼭지점 클릭 → 벤치마크 행 이동
| 벤치마크 | 이 모델 | 단위 |
|---|---|---|
| BBH | 0.5 | % |
| GPQA | 29.0 |
| 모델 | LLM 점수GPQA·MMLU·MATH·IFEval·HumanEval |
|---|---|
| Mistral Nemo | 30.1 |
| o1-pro | 86.4 |
| o3 | 88.8 |
| Grok 4.1 Fast | 74.4 |
| Command A | 69.1 |
| % |
| IFEval | 63.8 | % |
| MATH Lvl 5 | 12.7 | % |
| MMLU | 68.0 | % |
| MMLU-PRO | 35.2 | % |
| MUSR | 0.4 | % |
| Mistral Large 3 2512 | 72.8 |