El sector chino de la IA acaba de destronar a la competencia occidental con el lanzamiento de los modelos DeepSeek V3.2 y V3.2-Speciale. Estas nuevas herramientas de código abierto no solo igualan en rendimiento a sistemas insignia como GPT-5 o Gemini 3.0 Pro, sino que lo ofrecen con costes operativos drásticamente más bajos. Este es un punto de inflexión que pone fin al dominio exclusivo de los gigantes de EE. UU. y abre una era de inferencia avanzada y barata para todos.
El estreno de los nuevos modelos de DeepSeek es una señal clara de que la carrera por crear el modelo de razonamiento más avanzado no se está frenando en absoluto.
Dos nuevos modelos: versión estándar y «speciale»
DeepSeek ha introducido en el mercado dos variantes de su último logro. El modelo base, DeepSeek V3.2, ha sido diseñado como una solución de alto rendimiento que equilibra la potencia con los costes.
Por otro lado, la variante DeepSeek V3.2-Speciale es una herramienta potente ajustada para maximizar la capacidad de razonamiento, que en las pruebas iguala e incluso supera a los modelos insignia de Google y OpenAI.
Rendimiento a la par de GPT-5 y Gemini 3.0 Pro
Según el informe técnico, el DeepSeek V3.2 estándar logra resultados comparables al modelo GPT-5-High en tareas que requieren un razonamiento intensivo. La variante Speciale resulta aún más impresionante. Gracias a protocolos avanzados de aprendizaje por refuerzo (RL) y un presupuesto computacional aumentado en la fase de post-entrenamiento, este modelo alcanza un nivel cercano a Gemini-3.0-Pro.
Cabe destacar que la versión Speciale ganó «medallas de oro» en concursos tan prestigiosos como la Olimpiada Internacional de Matemáticas (IMO) 2025 y la Olimpiada Internacional de Informática (IOI).
Innovaciones tecnológicas «bajo el capó»
DeepSeek no se ha limitado únicamente a aumentar la potencia de cálculo. Se han introducido cambios significativos en la arquitectura para resolver problemas clave de los grandes modelos de lenguaje (LLM) actuales.
DeepSeek Sparse Attention (DSA) Uno de los principales avances es la introducción del mecanismo DeepSeek Sparse Attention (DSA). Los mecanismos de atención tradicionales se vuelven ineficientes con contextos muy largos. DSA reduce drásticamente la complejidad computacional, permitiendo al modelo procesar secuencias largas de manera eficiente sin perder rendimiento. Este es un cambio clave para aplicaciones empresariales y analíticas, donde la «ventana de contexto» es a menudo un cuello de botella.
Pensamiento durante el uso de herramientas (Thinking in Tool-Use) La novedad más interesante desde la perspectiva de la construcción de agentes de IA autónomos es el concepto de «Thinking in Tool-Use». Los modelos anteriores a menudo perdían su hilo de razonamiento al invocar una herramienta externa (por ejemplo, un intérprete de código o un buscador), lo que les obligaba a reprocesar todo el problema.
DeepSeek V3.2 introduce un sistema de gestión de contexto que:
- Conserva el historial de razonamiento incluso después de invocar una herramienta.
- Elimina los rastros de pensamiento solo después de que el usuario introduce un nuevo mensaje, manteniendo, sin embargo, el historial de resultados de las herramientas.
- Se basa en un enorme conjunto de datos de entrenamiento sintéticos, que abarca más de 1800 entornos y 85.000 instrucciones complejas.
Impacto en el mercado y disponibilidad de código abierto
La estrategia de DeepSeek de compartir los modelos como código abierto (bajo licencia MIT) constituye un desafío directo a los ecosistemas cerrados de OpenAI o Anthropic. La compañía ha puesto a disposición los pesos del modelo en la plataforma Hugging Face, permitiendo a los programadores implementarlos libremente.
Los nuevos modelos no solo son eficientes, sino también más baratos de explotar: la API de la versión Speciale tiene un precio muy por debajo de las tarifas de la competencia, y el V3.2 estándar pretende ser una «herramienta de trabajo diaria» para los usuarios. Esto también demuestra que, a pesar de las sanciones sobre los circuitos integrados avanzados (GPU), el sector chino de la IA encuentra formas de optimizar la arquitectura y escalar la potencia de cálculo. Sin embargo, hay que tener en cuenta las cuestiones regulatorias: en el pasado, los modelos de DeepSeek encontraron barreras en Europa relacionadas con la protección de datos.
Resumen
El estreno de DeepSeek V3.2 es la prueba de que la brecha entre los modelos de código abierto y los sistemas cerrados de tipo «frontier» no solo no aumenta, sino que en algunas áreas comienza a desaparecer. Para el sector SEO y de marketing, esto significa un acceso más barato a herramientas que generan contenido y código al más alto nivel mundial.
¿Quieres saber qué pasará después? ¡Mantente al día con las novedades del mundo de la IA y suscríbete a la newsletter de Delante!
Fuente de información sobre DeepSeek V3.2: https://api-docs.deepseek.com/news/news251201