Новинка🚀 MoE-модель на 230 млрд с контекстом 204 тыс. — открытый исходный код!

MiniMax-M2: Продвинутый ИИ для кодирования и агентских рабочих процессов

MiniMax-M2 — это мощная ИИ-модель с 230 млрд параметров и архитектурой MoE (Mixture of Experts), специально разработанная для кодирования и интеллектуальных агентских рабочих процессов. С массивным контекстным окном в 204 тыс. токенов и исключительными возможностями программирования она обеспечивает производительность корпоративного уровня при сохранении экономической эффективности. Выпущенная под лицензией Apache 2.0, она полностью открыта и готова к коммерческому использованию.

Обзоры

Что говорят о MiniMax-M2

Узнайте, что разработчики и эксперты по ИИ говорят о MiniMax-M2 в своих видео на YouTube и технических обзорах

Minimax M2 (полное тестирование): Я перехожу на это. Лучше, чем Claude и GLM-4.6 на длительных задачах

Minimax M2 (полное тестирование): Я перехожу на это. Лучше, чем Claude и GLM-4.6 на длительных задачах

С 230B параметрами и 10B активными, я думаю, это хорошо для локального бизнеса. M2 vs Qwen 3 235b, M2 побеждает.

¡Nuevo MiniMax M2! Agente IA GRATIS e ILIMITADO 🚀 Trabaja SOLO por TI (¡Pruébalo ya!)

¡Nuevo MiniMax M2! Agente IA GRATIS e ILIMITADO 🚀 Trabaja SOLO por TI (¡Pruébalo ya!)

Помог мне с базой данных, с которой я застрял на несколько дней, и решил это за 5 минут. Спасибо.

RIP Deepseek. У нас новая ИИ-модель с открытым исходным кодом #1

RIP Deepseek. У нас новая ИИ-модель с открытым исходным кодом #1

Мне нужно спать, уже 3 утра... но затем я вспоминаю, что ИИ никогда не спит.

Сравнение производительности с ведущими ИИ-моделями

Посмотрите, как MiniMax-M2 конкурирует с самыми передовыми ИИ-моделями мира по ключевым возможностям и метрикам производительности.

BenchmarksMiniMax-M2Claude Sonnet 4Claude Sonnet 4.5Gemini 2.5 ProGPT-5 (thinking)GLM-4.6Kimi K2 0905DeepSeek-V3.2
SWE-bench Verified69.472.7 *77.2 *63.8 *74.9 *68 *69.2 *67.8 *
Multi-SWE-Bench36.235.7 *44.3//3033.530.6
SWE-bench Multilingual56.556.9 *68//53.855.9 *57.9 *
Terminal-Bench46.336.4 *50 *25.3 *43.8 *40.5 *44.5 *37.7 *
ArtifactsBench66.857.3*61.557.7*73*59.854.255.8
BrowseComp4412.219.69.954.9*45.1*14.140.1*
BrowseComp-zh48.529.140.832.26549.528.847.9*
GAIA (text only)75.768.371.260.276.471.960.263.5
xbench-DeepSearch7264.6665677.8706171
HLE (w/ tools)31.820.324.528.4 *35.2 *30.4 *26.9 *27.2 *
τ²-Bench77.265.5*84.7*59.280.1*75.9*70.366.7
FinSearchComp-global65.54260.842.6*63.9*29.229.5*26.2
AgentCompany36374139.3*/353034

Performance benchmarks across different AI agent evaluation metrics

* indicates values directly from official technical reports/blogs | / indicates no data provided

Руководство по быстрому старту

Разверните MiniMax-M2 за 5 минут с помощью SGLang - самый быстрый способ начать

1

Hardware Requirements

Minimum setup for deploying MiniMax-M2:

  • Recommended: 8x NVIDIA A100 80GB
  • Alternative: 8x RTX 4090 24GB
2

Prepare Environment

Install Docker and NVIDIA Container Toolkit for GPU support

bash
# Install Docker
curl -fsSL https://get.docker.com | sh

# Install NVIDIA Container Toolkit
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list

sudo apt-get update && sudo apt-get install -y nvidia-container-toolkit
sudo systemctl restart docker
3

Pull Model

SGLang automatically downloads the model from Hugging Face - no manual git clone needed

💡 The model will be automatically downloaded when you start the server in the next step. First run may take 2-5 minutes depending on your network speed.

4

Start Server

Launch SGLang server with one Docker command

bash
docker run --gpus all \
  -p 30000:30000 \
  -v ~/.cache/huggingface:/root/.cache/huggingface \
  --env "HF_TOKEN=<secret>" \
  lmsysorg/sglang:latest \
  python3 -m sglang.launch_server \
  --model-path MiniMaxAI/MiniMax-M2 \
  --host 0.0.0.0 \
  --port 30000
5

Verify Deployment

Test the API with a simple curl command

bash
curl http://localhost:30000/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "MiniMaxAI/MiniMax-M2",
    "messages": [
      {"role": "user", "content": "Write a quick sort function in Python"}
    ]
  }'
6

Start Using

Use the OpenAI-compatible API with your favorite tools

python
from openai import OpenAI

client = OpenAI(
    base_url="http://localhost:30000/v1",
    api_key="EMPTY"
)

response = client.chat.completions.create(
    model="MiniMaxAI/MiniMax-M2",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

For complete deployment guide including SGLang and KTransformers:

View Full Deployment Documentation

Попробуйте живое демо MiniMax-M2

Испытайте мощные возможности генерации кода MiniMax-M2 в режиме реального времени. Пишите промпты и наблюдайте, как ИИ мгновенно генерирует высококачественный код с интеллектуальным пониманием и контекстной осведомленностью.

Loading MiniMax-M1...

Ключевые возможности MiniMax-M2

Откройте для себя мощные возможности, которые делают MiniMax-M2 идеальным выбором для современных рабочих процессов разработки.

Архитектура Mixture of Experts

Продвинутый дизайн MoE с 230 млрд общих параметров и 10 млрд активных параметров, обеспечивающий максимальную производительность с минимальными вычислительными затратами для экономически эффективных ИИ-решений.

Сверхбольшое контекстное окно

Ведущее в отрасли контекстное окно на 204 тыс. токенов позволяет обрабатывать целые кодовые базы, сложную документацию и многофайловые проекты без потери важного контекста.

Превосходные возможности кодирования

Оптимизирована для задач программирования, включая генерацию кода, редактирование нескольких файлов, циклы компиляции-запуска-исправления, отладку и проверку тестов с исключительной точностью.

Интеллектуальные агентские рабочие процессы

Разработана для сложных агентских задач с интеграцией инструментов, бесшовной автоматизацией рабочих процессов и способностью обрабатывать многоэтапные процессы решения проблем.

Свобода открытого исходного кода

Выпущена под лицензией Apache 2.0, предоставляя полную свободу для коммерческого использования, модификации и распространения без лицензионных ограничений или сборов.

Исключительная эффективность производительности

Занимает 1-е место среди глобальных моделей с открытым исходным кодом, используя только 8% вычислительных затрат по сравнению с традиционными моделями аналогичного размера.

Часто задаваемые вопросы