新品🚀 230B MoE 模型,204K 上下文 - 开源发布!

MiniMax-M2:编程与智能代理工作流的先进AI

MiniMax-M2 是一个强大的 2300 亿参数 MoE(专家混合)AI 模型,专为编程和智能代理工作流而设计。凭借其巨大的 204K 上下文窗口和卓越的编程能力,它在提供企业级性能的同时保持成本效益。采用 Apache 2.0 许可证发布,完全开源并可用于商业用途。

评测

人们对 MiniMax-M2 的评价

听听开发者和 AI 专家在 YouTube 视频和技术评测中如何评价 MiniMax-M2

Minimax M2(完整测试):我要换用这个模型,长任务表现优于 Claude & GLM-4.6

Minimax M2(完整测试):我要换用这个模型,长任务表现优于 Claude & GLM-4.6

230B 参数 激活10B,我认为对本地商业应用非常合适。M2 vs Qwen 3 235b,M2 获胜。

¡Nuevo MiniMax M2! Agente IA GRATIS e ILIMITADO 🚀 Trabaja SOLO por TI (¡Pruébalo ya!)

¡Nuevo MiniMax M2! Agente IA GRATIS e ILIMITADO 🚀 Trabaja SOLO por TI (¡Pruébalo ya!)

它帮我解决了困扰我好几天的数据库问题,5分钟就搞定了。谢谢。

RIP Deepseek. 我们有了新的 #1 开源 AI 模型

RIP Deepseek. 我们有了新的 #1 开源 AI 模型

我需要睡觉,已经是凌晨3点了...但我想起 AI 永不睡眠。

与主流AI模型性能对比

了解 MiniMax-M2 在各项关键能力和性能指标上与全球最先进 AI 模型的对比表现。

BenchmarksMiniMax-M2Claude Sonnet 4Claude Sonnet 4.5Gemini 2.5 ProGPT-5 (thinking)GLM-4.6Kimi K2 0905DeepSeek-V3.2
SWE-bench Verified69.472.7 *77.2 *63.8 *74.9 *68 *69.2 *67.8 *
Multi-SWE-Bench36.235.7 *44.3//3033.530.6
SWE-bench Multilingual56.556.9 *68//53.855.9 *57.9 *
Terminal-Bench46.336.4 *50 *25.3 *43.8 *40.5 *44.5 *37.7 *
ArtifactsBench66.857.3*61.557.7*73*59.854.255.8
BrowseComp4412.219.69.954.9*45.1*14.140.1*
BrowseComp-zh48.529.140.832.26549.528.847.9*
GAIA (text only)75.768.371.260.276.471.960.263.5
xbench-DeepSearch7264.6665677.8706171
HLE (w/ tools)31.820.324.528.4 *35.2 *30.4 *26.9 *27.2 *
τ²-Bench77.265.5*84.7*59.280.1*75.9*70.366.7
FinSearchComp-global65.54260.842.6*63.9*29.229.5*26.2
AgentCompany36374139.3*/353034

Performance benchmarks across different AI agent evaluation metrics

* indicates values directly from official technical reports/blogs | / indicates no data provided

快速开始指南

使用 SGLang 在您的基础设施上部署 MiniMax-M2。简单的 6 步配置即可实现生产级推理。

1

硬件要求

Minimum setup for deploying MiniMax-M2:

  • 推荐配置: 8x NVIDIA A100 80GB
  • 备选配置: 8x RTX 4090 24GB
2

准备环境

安装 Docker 和 NVIDIA Container Toolkit 以支持 GPU

bash
# Install Docker
curl -fsSL https://get.docker.com | sh

# Install NVIDIA Container Toolkit
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list

sudo apt-get update && sudo apt-get install -y nvidia-container-toolkit
sudo systemctl restart docker
3

拉取模型

SGLang 会自动从 Hugging Face 下载模型 - 无需手动 git clone

💡 模型将在下一步启动服务器时自动下载。首次运行可能需要 2-5 分钟,具体取决于网络速度。

4

启动服务

使用一行 Docker 命令启动 SGLang 服务器

bash
docker run --gpus all \
  -p 30000:30000 \
  -v ~/.cache/huggingface:/root/.cache/huggingface \
  --env "HF_TOKEN=<secret>" \
  lmsysorg/sglang:latest \
  python3 -m sglang.launch_server \
  --model-path MiniMaxAI/MiniMax-M2 \
  --host 0.0.0.0 \
  --port 30000
5

验证部署

使用简单的 curl 命令测试 API

bash
curl http://localhost:30000/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "MiniMaxAI/MiniMax-M2",
    "messages": [
      {"role": "user", "content": "Write a quick sort function in Python"}
    ]
  }'
6

开始使用

使用兼容 OpenAI 的 API 与您喜欢的工具

python
from openai import OpenAI

client = OpenAI(
    base_url="http://localhost:30000/v1",
    api_key="EMPTY"
)

response = client.chat.completions.create(
    model="MiniMaxAI/MiniMax-M2",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

For complete deployment guide including SGLang and KTransformers:

查看完整部署文档

体验 MiniMax-M2 实时演示

实时体验 MiniMax-M2 强大的代码生成能力。编写提示,观看 AI 即时生成高质量代码,具备智能理解和上下文感知能力。

Loading MiniMax-M1...

MiniMax-M2 核心特性

探索使 MiniMax-M2 成为现代开发工作流理想选择的强大能力。

专家混合架构

先进的 MoE 设计,拥有 2300 亿总参数和 100 亿激活参数,以最小的计算开销提供最大性能,实现高性价比的 AI 解决方案。

超大上下文窗口

行业领先的 204K token 上下文窗口允许处理整个代码库、复杂文档和多文件项目,而不会丢失重要上下文。

卓越编程能力

专为编程任务优化,包括代码生成、多文件编辑、编译-运行-修复循环、调试和测试验证,具有非凡的准确性。

智能代理工作流

专为复杂的代理任务设计,具有工具集成、无缝工作流自动化以及处理多步骤问题解决过程的能力。

开源自由

采用 Apache 2.0 许可证发布,为商业使用、修改和分发提供完全自由,无许可限制或费用。

卓越性能效率

在全球开源模型中排名第一,同时使用的计算成本仅相当于类似规模传统模型的 8%。

常见问题