新機能🚀 204Kコンテキスト搭載230B MoEモデル - オープンソース!

MiniMax-M2:コーディングとエージェントワークフローのための高度なAI

MiniMax-M2は、コーディングとインテリジェントエージェントワークフロー専用に設計された強力な230BパラメータMoE(専門家の混合)AIモデルです。204Kの超大型コンテキストウィンドウと卓越したプログラミング能力により、エンタープライズグレードのパフォーマンスを提供しながらコスト効率を維持します。Apache 2.0ライセンスでリリースされ、完全にオープンソースで商用利用可能です。

レビュー

MiniMax-M2について人々が語っていること

開発者やAI専門家がYouTube動画と技術レビューでMiniMax-M2について語っていることを聞いてください

Minimax M2(完全テスト):これに切り替えます。長時間実行タスクでClaudeとGLM-4.6より優れています

Minimax M2(完全テスト):これに切り替えます。長時間実行タスクでClaudeとGLM-4.6より優れています

230Bパラメータで10Bアクティブ、ローカルビジネスに最適だと思います。M2 vs Qwen 3 235b、M2の勝利です。

¡Nuevo MiniMax M2! Agente IA GRATIS e ILIMITADO 🚀 Trabaja SOLO por TI (¡Pruébalo ya!)

¡Nuevo MiniMax M2! Agente IA GRATIS e ILIMITADO 🚀 Trabaja SOLO por TI (¡Pruébalo ya!)

数日間困っていたデータベースの問題を5分で解決してくれました。ありがとうございます。

RIP Deepseek. 新しい#1オープンソースAIモデルが登場

RIP Deepseek. 新しい#1オープンソースAIモデルが登場

寝る必要がありますが、午前3時です...でもAIは眠らないことを思い出します。

主要AIモデルとのパフォーマンス比較

MiniMax-M2が主要な機能とパフォーマンス指標において世界で最も進んだAIモデルと比較してどのように立ち位置しているかを見てください。

BenchmarksMiniMax-M2Claude Sonnet 4Claude Sonnet 4.5Gemini 2.5 ProGPT-5 (thinking)GLM-4.6Kimi K2 0905DeepSeek-V3.2
SWE-bench Verified69.472.7 *77.2 *63.8 *74.9 *68 *69.2 *67.8 *
Multi-SWE-Bench36.235.7 *44.3//3033.530.6
SWE-bench Multilingual56.556.9 *68//53.855.9 *57.9 *
Terminal-Bench46.336.4 *50 *25.3 *43.8 *40.5 *44.5 *37.7 *
ArtifactsBench66.857.3*61.557.7*73*59.854.255.8
BrowseComp4412.219.69.954.9*45.1*14.140.1*
BrowseComp-zh48.529.140.832.26549.528.847.9*
GAIA (text only)75.768.371.260.276.471.960.263.5
xbench-DeepSearch7264.6665677.8706171
HLE (w/ tools)31.820.324.528.4 *35.2 *30.4 *26.9 *27.2 *
τ²-Bench77.265.5*84.7*59.280.1*75.9*70.366.7
FinSearchComp-global65.54260.842.6*63.9*29.229.5*26.2
AgentCompany36374139.3*/353034

Performance benchmarks across different AI agent evaluation metrics

* indicates values directly from official technical reports/blogs | / indicates no data provided

クイックスタートガイド

SGLangで5分でMiniMax-M2をデプロイ - 最速の開始方法

1

ハードウェア要件

Minimum setup for deploying MiniMax-M2:

  • 推奨: 8x NVIDIA A100 80GB
  • 代替: 8x RTX 4090 24GB
2

環境の準備

GPU対応のためDockerとNVIDIA Container Toolkitをインストール

bash
# Install Docker
curl -fsSL https://get.docker.com | sh

# Install NVIDIA Container Toolkit
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list

sudo apt-get update && sudo apt-get install -y nvidia-container-toolkit
sudo systemctl restart docker
3

モデルの取得

SGLangがHugging Faceからモデルを自動的にダウンロードします - 手動でgit cloneする必要はありません

💡 次のステップでサーバーを起動すると、モデルが自動的にダウンロードされます。初回実行時はネットワーク速度によって2〜5分かかる場合があります。

4

サーバーの起動

1つのDockerコマンドでSGLangサーバーを起動

bash
docker run --gpus all \
  -p 30000:30000 \
  -v ~/.cache/huggingface:/root/.cache/huggingface \
  --env "HF_TOKEN=<secret>" \
  lmsysorg/sglang:latest \
  python3 -m sglang.launch_server \
  --model-path MiniMaxAI/MiniMax-M2 \
  --host 0.0.0.0 \
  --port 30000
5

デプロイメントの検証

シンプルなcurlコマンドでAPIをテスト

bash
curl http://localhost:30000/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "MiniMaxAI/MiniMax-M2",
    "messages": [
      {"role": "user", "content": "Write a quick sort function in Python"}
    ]
  }'
6

使用開始

お気に入りのツールでOpenAI互換APIを使用

python
from openai import OpenAI

client = OpenAI(
    base_url="http://localhost:30000/v1",
    api_key="EMPTY"
)

response = client.chat.completions.create(
    model="MiniMaxAI/MiniMax-M2",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

For complete deployment guide including SGLang and KTransformers:

完全なデプロイメントドキュメントを表示

MiniMax-M2ライブデモを試す

MiniMax-M2の強力なコード生成機能をリアルタイムで体験してください。プロンプトを書き、AIがインテリジェントな理解とコンテキスト認識で高品質なコードを即座に生成するのを見てください。

Loading MiniMax-M1...

MiniMax-M2の主要機能

MiniMax-M2を現代の開発ワークフローの理想的な選択にする強力な機能を発見してください。

専門家の混合アーキテクチャ

230B総パラメータと10Bアクティブパラメータを持つ高度なMoE設計で、コスト効率の高いAIソリューションのために最小の計算オーバーヘッドで最大のパフォーマンスを提供します。

超大型コンテキストウィンドウ

業界をリードする204Kトークンコンテキストウィンドウにより、重要なコンテキストを失うことなく、全体のコードベース、複雑なドキュメント、複数ファイルプロジェクトを処理できます。

優れたコーディング能力

コード生成、複数ファイル編集、コンパイル実行修正ループ、デバッグ、テスト検証などのプログラミングタスク向けに最適化され、例外的な精度を提供します。

インテリジェントエージェントワークフロー

ツール統合、シームレスなワークフロー自動化、複数ステップの問題解決プロセスを処理する能力を備えた、複雑なエージェントタスク向けに設計されています。

オープンソースの自由

Apache 2.0ライセンスでリリースされ、ライセンス制限や料金なしで商用利用、修正、配布のための完全な自由を提供します。

卓越したパフォーマンス効率

類似サイズの従来のモデルと比較して計算コストのわずか8%を使用しながら、グローバルオープンソースモデルで第1位にランク付けされます。

よくある質問