DeepSeek ha presentado su nuevo modelo razonador. Es gratis y supera a GPT-5 – Desde dentro
búsqueda profunda ha presentado DeepSeek-V3.2 y DeepSeek-V3.2-Specials. Se trata de modelos de IA que combinan el pensamiento complejo con
búsqueda profunda ha presentado DeepSeek-V3.2 y DeepSeek-V3.2-Specials. Se trata de modelos de IA que combinan el pensamiento complejo con la capacidad de utilizar herramientas de forma autónoma.
¿Por qué es importante?. La empresa de Hangzhou afirma que DeepSeek-V3.2 puede igualar el rendimiento de GPT-5 en varias pruebas de razonamiento. El modelo especial Alcanza el nivel de Gemini-3 Pro y ha ganado medallas de oro en Olimpiadas internacionales de matemáticas e informática.
El contexto. DeepSeek sorprendió al mundo en enero con un modelo revolucionario en términos de eficiencia y costo. Ahora se ha dado un paso más con los sistemas de código abierto, que abren el desafío directamente a OpenAI y Google en términos de sus capacidades de razonamiento.
Innovación técnica. DeepSeek-V3.2 integra por primera vez el «pensamiento» directamente en el uso de herramientas. Puede pensar internamente mientras realiza búsquedas en la web, usa una calculadora o escribe código.
El sistema funciona en dos modos:
- Con razonamiento visible (similar al razonamiento en ChatGPT and Co.).
- O sin justificación alguna.
La cadena de pensamiento persiste entre invocaciones de herramientas y solo se reinicia cuando el usuario envía un nuevo mensaje.
como lo hicieron. Los investigadores han desarrollado ‘Atención escasa de DeepSeek (DSA)’, una arquitectura que reduce significativamente el costo computacional del procesamiento de contextos largos.
El modelo gestiona un total de 671 mil millones de parámetros, pero sólo activa 37 mil millones por parámetro. Fichas.
En números. DSA reduce el costo de inferencia en contextos largos en aproximadamente un 50% en comparación con la arquitectura densa anterior. El sistema procesa 128.000 ventanas de contexto. Fichas en producción.
El entrenamiento de refuerzo representó más del 10% del número total de preentrenamiento. El equipo ha creado más de 1.800 entornos sintéticos y 85.000 tareas para entrenar las habilidades de los agentes.
Los resultados. Ofertas especiales de DeepSeek V3.2 ganó una medalla de oro en la Olimpiada Internacional de Matemáticas de 2025, la Olimpiada Internacional de Ciencias de la Computación de 2025, las Finales Mundiales del ICPC de 2025 y la Olimpiada de Matemáticas de China de 2025.
Ambos modelos ya están disponibles.
- V3.2 Funciona en aplicaciones, web y API.
- V3.2 Especial al menos por ahora solo vía API.
Entre líneas. DeepSeek ha publicado los pesos completos y el informe técnico del proceso de formación. Esta transparencia es contraria a lo que suelen hacer las grandes empresas tecnológicas estadounidenses. Incluso aquellos que ofrecen modelos de código abierto como Llama, con un asterisco.
La startup china quiere demostrar que los sistemas de código abierto pueden competir con los modelos propietarios más avanzados. Y todo ello reduciendo al mismo tiempo costes.
Si pero. El Estándares Los entornos públicos no siempre reflejan el desempeño en tareas del mundo real. Las comparaciones directas con GPT-5 o Gemini-3 Pro dependen de métricas específicas que pueden no capturar todas las dimensiones relevantes.
Además, la integración de herramientas en el modo Reasoner aún debe probarse en casos de uso complejos del mundo real. La reducción de costes no es tan importante si la calidad de las respuestas no puede mantener el ritmo.
En | Guía DeepSeek: 36 funciones y cosas que puedes hacer con esta IA de forma gratuita
Imagen destacada | Solen Feyissa


