Mới🚀 Mô Hình MoE 230B với Ngữ Cảnh 204K - Mã Nguồn Mở!

MiniMax-M2: AI Tiên Tiến cho Lập Trình và Quy Trình Tác Vụ Tự Động

MiniMax-M2 là mô hình AI mạnh mẽ với 230 tỷ tham số sử dụng kiến trúc MoE (Mixture of Experts), được thiết kế đặc biệt cho lập trình và quy trình tác vụ tự động thông minh. Với cửa sổ ngữ cảnh khổng lồ 204K và khả năng lập trình xuất sắc, nó mang lại hiệu suất cấp doanh nghiệp trong khi vẫn duy trì hiệu quả chi phí. Được phát hành dưới giấy phép Apache 2.0, hoàn toàn mã nguồn mở và sẵn sàng cho sử dụng thương mại.

Đánh Giá

Mọi Người Nói Gì Về MiniMax-M2

Nghe những gì các nhà phát triển và chuyên gia AI nói về MiniMax-M2 từ video YouTube và đánh giá kỹ thuật của họ

Minimax M2 (Đã Thử Nghiệm Đầy Đủ): Tôi đang chuyển sang cái này. Tốt hơn Claude & GLM-4.6 trong Tác Vụ Dài

Minimax M2 (Đã Thử Nghiệm Đầy Đủ): Tôi đang chuyển sang cái này. Tốt hơn Claude & GLM-4.6 trong Tác Vụ Dài

Với 230B tham số và 10B hoạt động, tôi nghĩ nó tốt cho doanh nghiệp địa phương. M2 vs Qwen 3 235b, M2 thắng.

¡Nuevo MiniMax M2! Agente IA GRATIS e ILIMITADO 🚀 Trabaja SOLO por TI (¡Pruébalo ya!)

¡Nuevo MiniMax M2! Agente IA GRATIS e ILIMITADO 🚀 Trabaja SOLO por TI (¡Pruébalo ya!)

Nó đã giúp tôi với cơ sở dữ liệu mà tôi đã gặp khó khăn trong vài ngày, và giải quyết trong 5 phút. Cảm ơn.

RIP Deepseek. Chúng ta có mô hình AI mã nguồn mở #1 mới

RIP Deepseek. Chúng ta có mô hình AI mã nguồn mở #1 mới

Tôi cần phải ngủ, bây giờ là 3 giờ sáng... nhưng sau đó tôi nhớ rằng AI không bao giờ ngủ.

So Sánh Hiệu Suất với Các Mô Hình AI Hàng Đầu

Xem MiniMax-M2 đứng như thế nào so với các mô hình AI tiên tiến nhất thế giới về khả năng chính và chỉ số hiệu suất.

BenchmarksMiniMax-M2Claude Sonnet 4Claude Sonnet 4.5Gemini 2.5 ProGPT-5 (thinking)GLM-4.6Kimi K2 0905DeepSeek-V3.2
SWE-bench Verified69.472.7 *77.2 *63.8 *74.9 *68 *69.2 *67.8 *
Multi-SWE-Bench36.235.7 *44.3//3033.530.6
SWE-bench Multilingual56.556.9 *68//53.855.9 *57.9 *
Terminal-Bench46.336.4 *50 *25.3 *43.8 *40.5 *44.5 *37.7 *
ArtifactsBench66.857.3*61.557.7*73*59.854.255.8
BrowseComp4412.219.69.954.9*45.1*14.140.1*
BrowseComp-zh48.529.140.832.26549.528.847.9*
GAIA (text only)75.768.371.260.276.471.960.263.5
xbench-DeepSearch7264.6665677.8706171
HLE (w/ tools)31.820.324.528.4 *35.2 *30.4 *26.9 *27.2 *
τ²-Bench77.265.5*84.7*59.280.1*75.9*70.366.7
FinSearchComp-global65.54260.842.6*63.9*29.229.5*26.2
AgentCompany36374139.3*/353034

Performance benchmarks across different AI agent evaluation metrics

* indicates values directly from official technical reports/blogs | / indicates no data provided

Hướng Dẫn Bắt Đầu Nhanh

Triển khai MiniMax-M2 trong 5 phút với SGLang - cách nhanh nhất để bắt đầu

1

Hardware Requirements

Minimum setup for deploying MiniMax-M2:

  • Recommended: 8x NVIDIA A100 80GB
  • Alternative: 8x RTX 4090 24GB
2

Prepare Environment

Install Docker and NVIDIA Container Toolkit for GPU support

bash
# Install Docker
curl -fsSL https://get.docker.com | sh

# Install NVIDIA Container Toolkit
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list

sudo apt-get update && sudo apt-get install -y nvidia-container-toolkit
sudo systemctl restart docker
3

Pull Model

SGLang automatically downloads the model from Hugging Face - no manual git clone needed

💡 The model will be automatically downloaded when you start the server in the next step. First run may take 2-5 minutes depending on your network speed.

4

Start Server

Launch SGLang server with one Docker command

bash
docker run --gpus all \
  -p 30000:30000 \
  -v ~/.cache/huggingface:/root/.cache/huggingface \
  --env "HF_TOKEN=<secret>" \
  lmsysorg/sglang:latest \
  python3 -m sglang.launch_server \
  --model-path MiniMaxAI/MiniMax-M2 \
  --host 0.0.0.0 \
  --port 30000
5

Verify Deployment

Test the API with a simple curl command

bash
curl http://localhost:30000/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "MiniMaxAI/MiniMax-M2",
    "messages": [
      {"role": "user", "content": "Write a quick sort function in Python"}
    ]
  }'
6

Start Using

Use the OpenAI-compatible API with your favorite tools

python
from openai import OpenAI

client = OpenAI(
    base_url="http://localhost:30000/v1",
    api_key="EMPTY"
)

response = client.chat.completions.create(
    model="MiniMaxAI/MiniMax-M2",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

For complete deployment guide including SGLang and KTransformers:

View Full Deployment Documentation

Trải Nghiệm Demo Trực Tiếp MiniMax-M2

Trải nghiệm khả năng tạo mã mạnh mẽ của MiniMax-M2 trong thời gian thực. Viết lời nhắc và xem AI tạo mã chất lượng cao ngay lập tức với khả năng hiểu biết thông minh và nhận thức ngữ cảnh.

Loading MiniMax-M1...

Tính Năng Chính của MiniMax-M2

Khám phá các khả năng mạnh mẽ làm cho MiniMax-M2 trở thành lựa chọn lý tưởng cho quy trình phát triển hiện đại.

Kiến Trúc Mixture of Experts

Thiết kế MoE tiên tiến với 230 tỷ tham số tổng cộng và 10 tỷ tham số hoạt động, mang lại hiệu suất tối đa với chi phí tính toán tối thiểu cho các giải pháp AI tiết kiệm chi phí.

Cửa Sổ Ngữ Cảnh Cực Lớn

Cửa sổ ngữ cảnh 204K token dẫn đầu ngành cho phép xử lý toàn bộ codebase, tài liệu phức tạp và dự án đa tệp mà không mất ngữ cảnh quan trọng.

Khả Năng Lập Trình Vượt Trội

Được tối ưu hóa cho các tác vụ lập trình bao gồm tạo mã, chỉnh sửa đa tệp, vòng lặp biên dịch-chạy-sửa, gỡ lỗi và xác thực kiểm thử với độ chính xác xuất sắc.

Quy Trình Tác Vụ Tự Động Thông Minh

Được thiết kế cho các tác vụ tự động phức tạp với tích hợp công cụ, tự động hóa quy trình liền mạch và khả năng xử lý các quy trình giải quyết vấn đề nhiều bước.

Tự Do Mã Nguồn Mở

Được phát hành dưới giấy phép Apache 2.0, cung cấp sự tự do hoàn toàn cho sử dụng thương mại, sửa đổi và phân phối mà không có hạn chế hoặc phí cấp phép.

Hiệu Quả Hiệu Suất Đặc Biệt

Xếp hạng #1 trong số các mô hình mã nguồn mở toàn cầu trong khi chỉ sử dụng 8% chi phí tính toán so với các mô hình truyền thống có kích thước tương tự.

Câu Hỏi Thường Gặp