La serie MiMo-V2.5 de Xiaomi se hace de código abierto: 1T de parámetros con una eficiencia de tokens superior frente a GPT-5.4

Mensaje de Gate News, 27 de abril — El equipo MiMo de Xiaomi ha publicado como código abierto la serie de modelos de lenguaje de gran tamaño MiMo-V2.5 bajo licencia MIT, respaldando el despliegue comercial, el entrenamiento continuo y el ajuste fino. Ambos modelos cuentan con una ventana de contexto de 1 millón de tokens. MiMo-V2.5-Pro es una mezcla de expertos de solo texto (MoE) con 1,02 billones de parámetros totales y 42 mil millones de parámetros activos, mientras que MiMo-V2.5 es un modelo multimodal nativo con 310 mil millones de parámetros totales y 15 mil millones de parámetros activos, respaldando la comprensión de texto, imagen, video y audio.

MiMo-V2.5-Pro se enfoca en tareas complejas de agentes y programación. En los benchmarks ClawEval, logró un 64% Pass@3 consumiendo aproximadamente 70.000 tokens por trayectoria de tarea—40% a 60% menos tokens que Claude Opus, Gemini 3.1 Pro y GPT-5.4. El modelo obtuvo 78,9 en SWE-bench Verified. En una demostración, V2.5-Pro implementó de forma independiente un compilador completo de SysY a RISC-V para un proyecto de curso de compiladores de la Universidad de Pekín en 4,3 horas con 672 llamadas a herramientas, logrando una puntuación perfecta de 233/233 en conjuntos de pruebas ocultos.

MiMo-V2.5 está diseñado para escenarios de agentes multimodales, equipado con un codificador de visión dedicado (729 millones de parámetros) y un codificador de audio (261 millones de parámetros), con una puntuación de 62,3 en el subconjunto general Claw-Eval. Ambos modelos emplean una arquitectura híbrida que combina atención con ventana deslizante (SWA) y atención global (GA), junto con un módulo de predicción multi-token de 3 capas (MTP) para una inferencia acelerada. Los pesos del modelo están disponibles en Hugging Face.

Junto con el lanzamiento de código abierto, el equipo MiMo lanzó el “Programa de Incentivos para el Creador de Cuatrillón de Órbitas de Tokens,” ofreciendo 100 cuatrillones de tokens gratis durante 30 días para usuarios globales. Los desarrolladores individuales, equipos y empresas pueden postularse a través de la página del programa con un ciclo de evaluación de aproximadamente 3 días hábiles; las ventajas aprobadas se distribuyen como Token Plans o créditos directos, compatibles con herramientas como Claude Code y Cursor.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

xAI lanza la API de Grok 4.3 con una ventana de contexto de 1M tokens y a 1,25 dólares por cada millón de tokens de entrada

Según BlockBeats, xAI lanzó la API de Grok 4.3 el 1 de mayo. El nuevo modelo admite una ventana de contexto de 1 millón de tokens y ofrece funciones de entrada/salida de texto, capacidades multimodales y llamadas a herramientas. La API de Grok 4.3 tiene un precio de $1,25 por 1 millón de entradas

GateNewsHace12m

Los grandes gigantes tecnológicos de EE. UU. están a punto de gastar $700B en infraestructura de IA en 2026, superando ampliamente los 105.000 millones de dólares de China

Según South China Morning Post, gigantes tecnológicos de EE. UU. están a punto de gastar más de 700 mil millones de dólares en infraestructura de IA este año, superando con creces a sus pares chinos. Google, Microsoft, Meta y Amazon representan la mayor parte de ese total, mientras que Morgan Stanley estimó que los proveedores de nube chinos gastarían alrededor de 105 bill

GateNewsHace18m

Huawei espera que los ingresos de chips de IA para 2026 alcancen 12 mil millones de dólares, un 60% más que en 2025

Según Reuters, Huawei espera que sus ingresos por chips de IA para 2026 alcancen aproximadamente 12 mil millones de dólares, lo que representaría al menos un aumento del 60% frente a los 7,5 mil millones de dólares en 2025. La mayor parte de los pedidos de este año corresponden al procesador Ascend 950PR, que entró en producción en masa en marzo. La empresa planea lanzar un

GateNewsHace48m

NVIDIA invierte en la startup sueca de legaltech de IA Legora; Jude Law es el embajador global de la marca

Nvidia realiza una ampliación de inversión en la Serie D en Legora por 50 millones de dólares, con lo que la financiación total de Legora alcanza los 600 millones de dólares y una valoración de 5.600 millones de dólares; participan Atlassian, Adams Street Partners e Insight Partners. Legora se centra en tecnología legal para IA y ofrece herramientas como revisión automatizada, análisis de contratos e investigación jurídica. El ARR supera los 100 millones de dólares y el número de empleados crece de 40 a 400. Jude Law se convierte en embajador global de la marca, y el lema publicitario es Law just got more attractive.

ChainNewsAbmediahace1h

Anthropic abre la beta de seguridad de Claude para usuarios empresariales el 1 de mayo

Según BlockBeats, el 1 de mayo, Anthropic anunció que Claude Security, una herramienta de seguridad de código, ha abierto pruebas beta públicas para usuarios de Claude Enterprise. La herramienta analiza repositorios de código en busca de vulnerabilidades de seguridad, realiza una verificación secundaria para reducir los falsos positivos y automáticamente g

GateNewshace1h
Comentar
0/400
Sin comentarios