AI.zip
  • AI 모델
  • 방법론
  • AI 서비스
  • 가격 비교
  • 블로그

AI.zip

AI 모델, 서비스, 방법론을 큐레이션하는 에디토리얼 플랫폼

탐색

  • AI 모델
  • AI 서비스
  • 방법론
  • 블로그

커뮤니티

  • 소개
  • 디스코드 참여
  • 문의

법적고지

  • 이용약관
  • 개인정보처리방침

© 2026 ai.zip. All rights reserved.

Discord 커뮤니티
모델Mistral: Mixtral 8x22B Instruct

Mixtral 8x22B Instruct

Mistral AILLM자연어 처리컴퓨터 비전오디오 처리66K 토큰
2024년 4월 17일Apache 2.0

Mixtral 8x22B Instruct는 Mistral AI의 대형 MoE(Mixture of Experts) 모델로, 8x7B의 후속 모델입니다. 8개의 22B 전문가 모듈 중 입력마다 상위 2개를 활성화하는 구조로, 총 141B 파라미터이지만 추론 시 약 39B만 사용합니다. 65K 토큰 컨텍스트를 지원하며, MMLU 77.3, GSM8K 90.8으로 수학 능력이 크게 향상되었습니다.

8x7B 대비 모든 벤치마크에서 큰 폭의 성능 향상을 보여줍니다. MATH 44.6점은 8x7B의 28.4점 대비 57% 개선이며, GSM8K 90.8점은 74.4점에서 크게 도약했습니다. Arena Elo 1229로 실사용자 평가에서도 상위 수준이며, 출시 당시 오픈소스 모델 중 최고 성능으로 주목받았습니다. BBH, MUSR 등 복합 추론 벤치마크에서도 견고한 성능을 보여줍니다.

Apache 2.0 라이선스로 완전 오픈소스이며, 입력 2.00/1M토큰,출력2.00/1M 토큰, 출력 2.00/1M토큰,출력6.00/1M 토큰으로 이용 가능합니다. 자체 서버 호스팅 시에는 2개 이상의 GPU가 필요하지만 API 비용을 절감할 수 있습니다. 8x7B에서 업그레이드를 고려하는 사용자에게 자연스러운 다음 단계입니다.

오픈소스 대형 MoE 모델이 필요한 연구, 8x7B 대비 성능 향상이 필요한 프로덕션 환경, 또는 Apache 2.0의 자유로운 라이선스가 필수인 상용 서비스에 적합합니다. 더 높은 성능이 필요하다면 Mistral Large로의 업그레이드를 권장합니다.

스펙

컨텍스트 윈도우

66K 토큰

라이선스

Apache 2.0

출시일

2024년 4월 17일

학습 마감일

2024년 1월 31일

가성비 지수

0.7

API 가격 (혼합)

입력 $2.00/1M

조회수

0

API 가격 (USD 기준)

입력 (Prompt)

$2.00 / 1M 토큰

출력 (Completion)

$6.00 / 1M 토큰

용도별 성능

태스크 관련 벤치마크 평균 점수

지시따르기최강

71.8

복잡한 지시사항 이해 및 수행

일반지식

44.8

다양한 분야 지식 및 이해

수학/추론

41.0

수학, 과학, 논리적 추론

Provider

Mistral AI

Mistral AI의 다른 모델

Mistral: Mixtral 8x7B InstructMistral: Mistral Small 3.1 24BMistral: Mistral NemoMistral: Mistral Medium 3.1Mistral: Mistral 7B Instruct v0.1

분류

자연어 처리컴퓨터 비전오디오 처리TransformerLLM

성능 평가

LLM 종합 45.3

꼭지점 클릭 → 벤치마크 행 이동

벤치마크카테고리이 모델전체 평균전체 최고단위
Arena Elo1229.01369.21493.0elo
BBH0.621.6

유사 모델 비교

모델ProviderLLM 점수GPQA·MMLU·MATH·IFEval·HumanEvalAgentic 점수SWE·τ-bench·OSWorld·GAIA
Mixtral 8x22B InstructMistral AI45.3-
o1-proOpenAI86.4-
o3OpenAI88.847.7
Grok 4.1 FastxAI74.4-
Command ACohere69.1

이전글

Mistral: Mistral Small 3.1 24B

다음글

Mistral: Mixtral 8x7B Instruct

댓글

0개

댓글을 작성하려면

로그인

해주세요

유사 모델

OpenAI: o1-pro

OpenAI

OpenAI: o3

OpenAI

xAI: Grok 4.1 Fast

xAI

Cohere: Command A

Cohere

Mistral: Mistral Large 3 2512

Mistral AI

93.1
%
GPQALLM37.364.094.3%
GSM8K90.889.799.0%
IFEvalLLM71.885.395.9%
MATH Lvl 5LLM44.675.599.2%
MMLU77.384.298.0%
MMLU-PROLLM44.873.890.5%
MUSR0.40.40.5%
-
Mistral Large 3 2512Mistral AI72.8-