En 2025, la IA parecía haber topado con un muro de progreso. Un muro evaporado en febrero de 2026 – Desde dentro
Recuerdo con cariño la época en la que Intel y AMD luchaban por crear la primera CPU que pudiera


Recuerdo con cariño la época en la que Intel y AMD luchaban por crear la primera CPU que pudiera alcanzar una velocidad de reloj de 1GHz. esta carrera AMD ganó (¡sorpresa!)pero hasta que se alcanzó ese hito, el ritmo fue vertiginoso. Al menos eso nos pareció a nosotros, porque con la IA El ritmo de lanzamientos es absolutamente loco..
Vaya semanas que llevamos, queridos lectores. Vamos a ver:
- 27 de enero: Kimi.ai lanza Kimi J2.5
- 5 de febrero: Antropoceno lanza Claude Opus 4.6
- 5 de febrero: OpenAI el mismo día lanza Códice GPT 5.3
- 5 de febrero: Kuaishou lanza Sonido 3.0
- 12 de febrero: Z.ai lanza GLM-5
- 12 de febrero: ByteDance lanza Danza de semillas 2.0
- 12 de febrero: MiniMax lanza Minimáx 2.5
- 16 de febrero: Alibaba lanza Qwen3.5-397B-A17B
- Próximamente: DeepSeek v4, ¿llama?, Gemini 3.1, …
El ritmo es absolutamente frenético y los LLM todavía son hace unos años. Meses Las semanas parecían fantásticas, ahora ya no son tantas. Las nuevas versiones de estos modelos de lenguaje están en constante evolución y las empresas de IA siguen ofreciendo nuevos desarrollos todo el tiempo. Casi vertiginoso.
Por supuesto, esto tiene sus lados buenos y malos. Terminaremos el año 2025 con cierto aburrimiento ante una IA que prometía mucho pero que al final cambió poco. No fue hasta finales de año que se produjo una revolución notable con la espectacular combinación que produjo Claude Code y Opus 4.5.
El binomio antrópico sorprendió a los desarrolladores, que parecieron ponerse de acuerdo por primera vez a la hora de explicar que con este tipo de plataformas se podía pedir a la IA que hiciera lo que quisiera y que ella te lo programaba inmediatamente y casi siempre sin problemas. Por supuesto hubo cierta exageración en este discurso, pero ciertamente la capacidad del Opus 4.5 y el grado de autonomía y versatilidad de Claude Code parecieron marcar un punto de inflexión.
Luego vino OpenClaw y eso aumentó las expectativas para los agentes de IA una vez más, pero al mismo tiempo estamos viendo una fiebre real por la introducción de nuevos modelos de IA generativa, tanto en video (Kling 3.0 y especialmente Seedance 2.0 fueron fenómenos virales por derecho propio) como en texto/código. Y con cada nuevo modelo la promesa de un rendimiento que supera el de la generación anterior. Al menos en los benchmarks, claro.
Los gráficos de barras de la imagen superior se han convertido en una constante, sobre todo cuando el modelo es lanzado por una empresa china. Si el lanzador es OpenAI, Google o Anthropic, se prefieren las tablas. Sea como fuere, el resultado siempre nos lleva a lo mismo: cada modelo es mejor que su antecesor y normalmente también que muchos de la competencia.
Fatiga por suscripción a IA
El problema es que esta carrera parece no terminar nunca, y Un modelo que hoy parece fantástico mañana ya no lo será tantosi su competidor difícilmente puede superarlo, pero también puede ser significativamente más barato – los modelos chinos suelen serlo – u ofrecer otras ventajas como ventanas de contexto más grandes para que podamos introducir textos cada vez más largos – por ejemplo grandes repositorios de código – como parte del símbolo del sistema.
Y por supuesto esto representa un problema para los usuarios. Si Opus 4.5 fuera tan bueno, podrías contratar el plan Pro o Max y pagar un año por adelantado, pero eso es a priori arriesgado, porque aunque tienes acceso a nuevos modelos en el momento del lanzamiento, has dedicado tu inversión en suscripciones de IA al modelo Anthropic, sin tener tanto margen para probar los de la competencia.
Aquí Se requieren suscripciones cortas: Suscríbete a un modelo durante un mes para tener cierto margen de maniobra en caso de que quiera probar un modelo diferente el próximo mes (o probar dos o tres modelos en el mismo mes, lo cual también es común).
Los precios de las suscripciones a servicios de IA tampoco facilitan estas pruebas múltiples. Normalmente se pagan 20 euros por una suscripción mensual, y aunque los modelos chinos suelen ser sensiblemente más baratos, suelen ir un paso por detrás en cuanto a capacidad cuando se necesita el máximo rendimiento.
Pero aquí el problema se repite: si ahora me suscribo al códice GPT 5.3, que todo el mundo dice que es fantástico, ¿en cuánto tiempo lo pagaré, un mes? ¿O también me suscribo a GLM-5 para probarlo y probaré Opus 4.6 y MiniMax 2.5 el próximo mes?
Todas estas decisiones son difíciles porque la percepción de cada modelo depende de cada usuario. Cada uno de ellos tiene sus necesidades, su presupuesto y su propia experiencia con cada modelo. Entonces los puntos de referencia dicen una cosa: Con los modelos de IA nos pasa como llorar: Por muchas veces que nos digan que uno es mejor que el otro, nosotros los percibimos de una forma muy personal.
Y este rápido progreso también significa que se ha redescubierto la expectativa de modelos que realmente marquen la diferencia. La codificación Vibe no es perfecta, pero cada vez satisface mejor nuestras necesidades, y lo mismo ocurre con los agentes de IA como OpenClaw, que muestran con sus luces y sombras que el futuro en el que tengamos un empleado de IA que, aunque al principio pueda ser un poco torpe, trabaje las 24 horas del día ya no parece tan lejano.
Vivimos tiempos vertiginosos y fascinantes para la IA. De nuevo.
Imagen | Mohamed Rahmani
En | China llevó robots humanoides al programa de televisión más grande del país: los hicieron practicar kung fu con precisión milimétrica



