人们对 MiniMax-M2 的评价
听听开发者和 AI 专家在 YouTube 视频和技术评测中如何评价 MiniMax-M2

Minimax M2(完整测试):我要换用这个模型,长任务表现优于 Claude & GLM-4.6
230B 参数 激活10B,我认为对本地商业应用非常合适。M2 vs Qwen 3 235b,M2 获胜。

¡Nuevo MiniMax M2! Agente IA GRATIS e ILIMITADO 🚀 Trabaja SOLO por TI (¡Pruébalo ya!)
它帮我解决了困扰我好几天的数据库问题,5分钟就搞定了。谢谢。

RIP Deepseek. 我们有了新的 #1 开源 AI 模型
我需要睡觉,已经是凌晨3点了...但我想起 AI 永不睡眠。
与主流AI模型性能对比
了解 MiniMax-M2 在各项关键能力和性能指标上与全球最先进 AI 模型的对比表现。
| Benchmarks | MiniMax-M2 | Claude Sonnet 4 | Claude Sonnet 4.5 | Gemini 2.5 Pro | GPT-5 (thinking) | GLM-4.6 | Kimi K2 0905 | DeepSeek-V3.2 |
|---|---|---|---|---|---|---|---|---|
| SWE-bench Verified | 69.4 | 72.7 * | 77.2 * | 63.8 * | 74.9 * | 68 * | 69.2 * | 67.8 * |
| Multi-SWE-Bench | 36.2 | 35.7 * | 44.3 | / | / | 30 | 33.5 | 30.6 |
| SWE-bench Multilingual | 56.5 | 56.9 * | 68 | / | / | 53.8 | 55.9 * | 57.9 * |
| Terminal-Bench | 46.3 | 36.4 * | 50 * | 25.3 * | 43.8 * | 40.5 * | 44.5 * | 37.7 * |
| ArtifactsBench | 66.8 | 57.3* | 61.5 | 57.7* | 73* | 59.8 | 54.2 | 55.8 |
| BrowseComp | 44 | 12.2 | 19.6 | 9.9 | 54.9* | 45.1* | 14.1 | 40.1* |
| BrowseComp-zh | 48.5 | 29.1 | 40.8 | 32.2 | 65 | 49.5 | 28.8 | 47.9* |
| GAIA (text only) | 75.7 | 68.3 | 71.2 | 60.2 | 76.4 | 71.9 | 60.2 | 63.5 |
| xbench-DeepSearch | 72 | 64.6 | 66 | 56 | 77.8 | 70 | 61 | 71 |
| HLE (w/ tools) | 31.8 | 20.3 | 24.5 | 28.4 * | 35.2 * | 30.4 * | 26.9 * | 27.2 * |
| τ²-Bench | 77.2 | 65.5* | 84.7* | 59.2 | 80.1* | 75.9* | 70.3 | 66.7 |
| FinSearchComp-global | 65.5 | 42 | 60.8 | 42.6* | 63.9* | 29.2 | 29.5* | 26.2 |
| AgentCompany | 36 | 37 | 41 | 39.3* | / | 35 | 30 | 34 |
Performance benchmarks across different AI agent evaluation metrics
* indicates values directly from official technical reports/blogs | / indicates no data provided
快速开始指南
使用 SGLang 在您的基础设施上部署 MiniMax-M2。简单的 6 步配置即可实现生产级推理。
硬件要求
Minimum setup for deploying MiniMax-M2:
- •推荐配置: 8x NVIDIA A100 80GB
- •备选配置: 8x RTX 4090 24GB
准备环境
安装 Docker 和 NVIDIA Container Toolkit 以支持 GPU
# Install Docker curl -fsSL https://get.docker.com | sh # Install NVIDIA Container Toolkit distribution=$(. /etc/os-release;echo $ID$VERSION_ID) curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add - curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list sudo apt-get update && sudo apt-get install -y nvidia-container-toolkit sudo systemctl restart docker
拉取模型
SGLang 会自动从 Hugging Face 下载模型 - 无需手动 git clone
💡 模型将在下一步启动服务器时自动下载。首次运行可能需要 2-5 分钟,具体取决于网络速度。
启动服务
使用一行 Docker 命令启动 SGLang 服务器
docker run --gpus all \ -p 30000:30000 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_TOKEN=<secret>" \ lmsysorg/sglang:latest \ python3 -m sglang.launch_server \ --model-path MiniMaxAI/MiniMax-M2 \ --host 0.0.0.0 \ --port 30000
验证部署
使用简单的 curl 命令测试 API
curl http://localhost:30000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "MiniMaxAI/MiniMax-M2",
"messages": [
{"role": "user", "content": "Write a quick sort function in Python"}
]
}'开始使用
使用兼容 OpenAI 的 API 与您喜欢的工具
from openai import OpenAI
client = OpenAI(
base_url="http://localhost:30000/v1",
api_key="EMPTY"
)
response = client.chat.completions.create(
model="MiniMaxAI/MiniMax-M2",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)For complete deployment guide including SGLang and KTransformers:
查看完整部署文档体验 MiniMax-M2 实时演示
实时体验 MiniMax-M2 强大的代码生成能力。编写提示,观看 AI 即时生成高质量代码,具备智能理解和上下文感知能力。
Loading MiniMax-M1...
MiniMax-M2 核心特性
探索使 MiniMax-M2 成为现代开发工作流理想选择的强大能力。
专家混合架构
先进的 MoE 设计,拥有 2300 亿总参数和 100 亿激活参数,以最小的计算开销提供最大性能,实现高性价比的 AI 解决方案。
超大上下文窗口
行业领先的 204K token 上下文窗口允许处理整个代码库、复杂文档和多文件项目,而不会丢失重要上下文。
卓越编程能力
专为编程任务优化,包括代码生成、多文件编辑、编译-运行-修复循环、调试和测试验证,具有非凡的准确性。
智能代理工作流
专为复杂的代理任务设计,具有工具集成、无缝工作流自动化以及处理多步骤问题解决过程的能力。
开源自由
采用 Apache 2.0 许可证发布,为商业使用、修改和分发提供完全自由,无许可限制或费用。
卓越性能效率
在全球开源模型中排名第一,同时使用的计算成本仅相当于类似规模传统模型的 8%。
