نیا🚀 204K سیاق و سباق کے ساتھ 230B MoE ماڈل - اوپن سورس!

MiniMax-M2: کوڈنگ اور ایجنٹ ورک فلو کے لیے جدید مصنوعی ذہانت

MiniMax-M2 ایک طاقتور 230B پیرامیٹر MoE (مکسچر آف ایکسپرٹس) AI ماڈل ہے جو خاص طور پر کوڈنگ اور ذہین ایجنٹ ورک فلو کے لیے ڈیزائن کیا گیا ہے۔ اپنی وسیع 204K سیاق و سباق کی ونڈو اور غیر معمولی پروگرامنگ صلاحیتوں کے ساتھ، یہ لاگت کی کارکردگی کو برقرار رکھتے ہوئے انٹرپرائز درجے کی کارکردگی فراہم کرتا ہے۔ Apache 2.0 لائسنس کے تحت جاری کیا گیا، یہ مکمل طور پر اوپن سورس اور تجارتی استعمال کے لیے تیار ہے۔

جائزے

لوگ MiniMax-M2 کے بارے میں کیا کہہ رہے ہیں

سننے کریں کہ ڈویلپرز اور AI ماہرین اپنے YouTube ویڈیوز اور تکنیکی جائزوں میں MiniMax-M2 کے بارے میں کیا کہہ رہے ہیں

Minimax M2 (Fully Tested): I am switching to this. Better than Claude & GLM-4.6 on Long Running Task

Minimax M2 (Fully Tested): I am switching to this. Better than Claude & GLM-4.6 on Long Running Task

230B پیرامیٹرز اور 10B فعال کے ساتھ، میرے خیال میں یہ مقامی کاروبار کے لیے اچھا ہے۔ M2 vs Qwen 3 235b، M2 جیتتا ہے۔

¡Nuevo MiniMax M2! Agente IA GRATIS e ILIMITADO 🚀 Trabaja SOLO por TI (¡Pruébalo ya!)

¡Nuevo MiniMax M2! Agente IA GRATIS e ILIMITADO 🚀 Trabaja SOLO por TI (¡Pruébalo ya!)

اس نے ایک ڈیٹا بیس کے ساتھ میری مدد کی جس میں میں کئی دنوں سے پھنسا ہوا تھا، اور اسے 5 منٹ میں حل کر دیا۔ شکریہ۔

RIP Deepseek. ہمارے پاس ایک نیا #1 اوپن سورس AI ماڈل ہے

RIP Deepseek. ہمارے پاس ایک نیا #1 اوپن سورس AI ماڈل ہے

مجھے سونے کی ضرورت ہے، رات کے 3 بج رہے ہیں... لیکن پھر مجھے یاد آتا ہے کہ AI کبھی نہیں سوتا۔

معروف AI ماڈلز کے ساتھ کارکردگی کا موازنہ

دیکھیں کہ MiniMax-M2 دنیا کے سب سے جدید AI ماڈلز کے مقابلے میں اہم صلاحیتوں اور کارکردگی کے پیمانوں میں کیسے کھڑا ہے۔

BenchmarksMiniMax-M2Claude Sonnet 4Claude Sonnet 4.5Gemini 2.5 ProGPT-5 (thinking)GLM-4.6Kimi K2 0905DeepSeek-V3.2
SWE-bench Verified69.472.7 *77.2 *63.8 *74.9 *68 *69.2 *67.8 *
Multi-SWE-Bench36.235.7 *44.3//3033.530.6
SWE-bench Multilingual56.556.9 *68//53.855.9 *57.9 *
Terminal-Bench46.336.4 *50 *25.3 *43.8 *40.5 *44.5 *37.7 *
ArtifactsBench66.857.3*61.557.7*73*59.854.255.8
BrowseComp4412.219.69.954.9*45.1*14.140.1*
BrowseComp-zh48.529.140.832.26549.528.847.9*
GAIA (text only)75.768.371.260.276.471.960.263.5
xbench-DeepSearch7264.6665677.8706171
HLE (w/ tools)31.820.324.528.4 *35.2 *30.4 *26.9 *27.2 *
τ²-Bench77.265.5*84.7*59.280.1*75.9*70.366.7
FinSearchComp-global65.54260.842.6*63.9*29.229.5*26.2
AgentCompany36374139.3*/353034

Performance benchmarks across different AI agent evaluation metrics

* indicates values directly from official technical reports/blogs | / indicates no data provided

فوری شروعات کی رہنمائی

SGLang کے ساتھ 5 منٹ میں MiniMax-M2 تعینات کریں - شروع کرنے کا سب سے تیز طریقہ

1

Hardware Requirements

Minimum setup for deploying MiniMax-M2:

  • Recommended: 8x NVIDIA A100 80GB
  • Alternative: 8x RTX 4090 24GB
2

Prepare Environment

Install Docker and NVIDIA Container Toolkit for GPU support

bash
# Install Docker
curl -fsSL https://get.docker.com | sh

# Install NVIDIA Container Toolkit
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list

sudo apt-get update && sudo apt-get install -y nvidia-container-toolkit
sudo systemctl restart docker
3

Pull Model

SGLang automatically downloads the model from Hugging Face - no manual git clone needed

💡 The model will be automatically downloaded when you start the server in the next step. First run may take 2-5 minutes depending on your network speed.

4

Start Server

Launch SGLang server with one Docker command

bash
docker run --gpus all \
  -p 30000:30000 \
  -v ~/.cache/huggingface:/root/.cache/huggingface \
  --env "HF_TOKEN=<secret>" \
  lmsysorg/sglang:latest \
  python3 -m sglang.launch_server \
  --model-path MiniMaxAI/MiniMax-M2 \
  --host 0.0.0.0 \
  --port 30000
5

Verify Deployment

Test the API with a simple curl command

bash
curl http://localhost:30000/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "MiniMaxAI/MiniMax-M2",
    "messages": [
      {"role": "user", "content": "Write a quick sort function in Python"}
    ]
  }'
6

Start Using

Use the OpenAI-compatible API with your favorite tools

python
from openai import OpenAI

client = OpenAI(
    base_url="http://localhost:30000/v1",
    api_key="EMPTY"
)

response = client.chat.completions.create(
    model="MiniMaxAI/MiniMax-M2",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

For complete deployment guide including SGLang and KTransformers:

View Full Deployment Documentation

MiniMax-M2 لائیو ڈیمو آزمائیں

MiniMax-M2 کی طاقتور کوڈ جنریشن صلاحیتوں کو حقیقی وقت میں تجربہ کریں۔ پرامپٹس لکھیں اور AI کو ذہین سمجھ اور سیاق و سباق کی آگاہی کے ساتھ فوری طور پر اعلیٰ معیار کا کوڈ تیار کرتے دیکھیں۔

Loading MiniMax-M1...

MiniMax-M2 کی کلیدی خصوصیات

طاقتور صلاحیتوں کو دریافت کریں جو MiniMax-M2 کو جدید ترقیاتی ورک فلو کے لیے مثالی انتخاب بناتی ہیں۔

مکسچر آف ایکسپرٹس آرکیٹیکچر

230B کل پیرامیٹرز اور 10B فعال پیرامیٹرز کے ساتھ جدید MoE ڈیزائن، لاگت مؤثر AI حل کے لیے کم سے کم کمپیوٹیشنل اوور ہیڈ کے ساتھ زیادہ سے زیادہ کارکردگی فراہم کرتا ہے۔

انتہائی بڑی سیاق و سباق کی ونڈو

صنعتی معیار کی 204K ٹوکن سیاق و سباق کی ونڈو مکمل کوڈ بیسز، پیچیدہ دستاویزات، اور ملٹی فائل پروجیکٹس کی پروسیسنگ کی اجازت دیتی ہے بغیر اہم سیاق و سباق کھوئے۔

بہترین کوڈنگ صلاحیتیں

پروگرامنگ کاموں کے لیے بہتر بنایا گیا بشمول کوڈ جنریشن، ملٹی فائل ایڈیٹنگ، کمپائل-رن-فکس لوپس، ڈیبگنگ، اور غیر معمولی درستگی کے ساتھ ٹیسٹ توثیق۔

ذہین ایجنٹ ورک فلو

ٹول انٹیگریشن کے ساتھ پیچیدہ ایجنٹک کاموں کے لیے ڈیزائن کیا گیا، بغیر رکاوٹ ورک فلو آٹومیشن، اور کثیر مرحلہ مسئلہ حل کرنے کے عمل کو سنبھالنے کی صلاحیت۔

اوپن سورس آزادی

Apache 2.0 لائسنس کے تحت جاری کیا گیا، تجارتی استعمال، ترمیم، اور تقسیم کے لیے مکمل آزادی فراہم کرتا ہے بغیر لائسنسنگ پابندیوں یا فیسوں کے۔

غیر معمولی کارکردگی کی کارکردگی

عالمی اوپن سورس ماڈلز میں #1 درجہ رکھتا ہے جبکہ اسی سائز کے روایتی ماڈلز کے مقابلے میں صرف 8% کمپیوٹیشنل لاگت استعمال کرتا ہے۔

عمومی سوالات