Mensaje de Gate News, 27 de abril — El equipo MiMo de Xiaomi ha publicado como código abierto la serie de modelos de lenguaje de gran tamaño MiMo-V2.5 bajo licencia MIT, respaldando el despliegue comercial, el entrenamiento continuo y el ajuste fino. Ambos modelos cuentan con una ventana de contexto de 1 millón de tokens. MiMo-V2.5-Pro es una mezcla de expertos de solo texto (MoE) con 1,02 billones de parámetros totales y 42 mil millones de parámetros activos, mientras que MiMo-V2.5 es un modelo multimodal nativo con 310 mil millones de parámetros totales y 15 mil millones de parámetros activos, respaldando la comprensión de texto, imagen, video y audio.
MiMo-V2.5-Pro se enfoca en tareas complejas de agentes y programación. En los benchmarks ClawEval, logró un 64% Pass@3 consumiendo aproximadamente 70.000 tokens por trayectoria de tarea—40% a 60% menos tokens que Claude Opus, Gemini 3.1 Pro y GPT-5.4. El modelo obtuvo 78,9 en SWE-bench Verified. En una demostración, V2.5-Pro implementó de forma independiente un compilador completo de SysY a RISC-V para un proyecto de curso de compiladores de la Universidad de Pekín en 4,3 horas con 672 llamadas a herramientas, logrando una puntuación perfecta de 233/233 en conjuntos de pruebas ocultos.
MiMo-V2.5 está diseñado para escenarios de agentes multimodales, equipado con un codificador de visión dedicado (729 millones de parámetros) y un codificador de audio (261 millones de parámetros), con una puntuación de 62,3 en el subconjunto general Claw-Eval. Ambos modelos emplean una arquitectura híbrida que combina atención con ventana deslizante (SWA) y atención global (GA), junto con un módulo de predicción multi-token de 3 capas (MTP) para una inferencia acelerada. Los pesos del modelo están disponibles en Hugging Face.
Junto con el lanzamiento de código abierto, el equipo MiMo lanzó el “Programa de Incentivos para el Creador de Cuatrillón de Órbitas de Tokens,” ofreciendo 100 cuatrillones de tokens gratis durante 30 días para usuarios globales. Los desarrolladores individuales, equipos y empresas pueden postularse a través de la página del programa con un ciclo de evaluación de aproximadamente 3 días hábiles; las ventajas aprobadas se distribuyen como Token Plans o créditos directos, compatibles con herramientas como Claude Code y Cursor.
Artículos relacionados
xAI lanza la API de Grok 4.3 con una ventana de contexto de 1M tokens y a 1,25 dólares por cada millón de tokens de entrada
Los grandes gigantes tecnológicos de EE. UU. están a punto de gastar $700B en infraestructura de IA en 2026, superando ampliamente los 105.000 millones de dólares de China
Huawei espera que los ingresos de chips de IA para 2026 alcancen 12 mil millones de dólares, un 60% más que en 2025
NVIDIA invierte en la startup sueca de legaltech de IA Legora; Jude Law es el embajador global de la marca
Anthropic abre la beta de seguridad de Claude para usuarios empresariales el 1 de mayo