Ultimas Noticias

DeepSeek ha lanzado su nuevo modelo razonador. Es gratis y supera a GPT-5

DeepSeek ha presentado DeepSeek-V3.2 y DeepSeek-V3.2-Speciale. Son modelos de IA que combinan razonamiento complejo con capacidad para usar herramientas de forma autónoma.

Por qué es importante. La empresa de Hangzhou afirma que DeepSeek-V3.2 iguala el rendimiento de GPT-5 en múltiples pruebas de razonamiento. El modelo Speciale alcanza el nivel de Gemini-3 Pro y ha logrado medallas de oro en olimpiadas internacionales de matemáticas e informática.

El contexto. DeepSeek sorprendió al mundo en enero con un modelo revolucionario por eficiencia y coste. Ahora sube la apuesta con sistemas de código abierto que lanzan el guante directamente a OpenAI y Google en capacidades de razonamiento.

La innovación técnica. DeepSeek-V3.2 integra por primera vez el «pensamiento» directamente en el uso de herramientas. Puede razonar internamente mientras ejecuta búsquedas web, maneja una calculadora o escribe código.

El sistema funciona en dos modos:

  1. Con razonamiento visible (similar al razonamiento visto en ChatGPT y compañía).
  2. O sin razonamiento alguno.

La cadena de pensamiento persiste entre llamadas a herramientas y se reinicia solo cuando el usuario envía un nuevo mensaje.

Cómo lo han logrado. Los investigadores han desarrollado ‘DeepSeek Sparse Attention (DSA)’, una arquitectura que reduce mucho el coste computacional de procesar contextos largos.

El modelo mantiene 671.000 millones de parámetros totales pero activa solo 37.000 millones por token.

En cifras. DSA recorta el coste de inferencia en contextos largos aproximadamente un 50% comparado con la arquitectura densa anterior. El sistema procesa ventanas de contexto de 128.000 tokens en producción.

El entrenamiento por refuerzo ha consumido más del 10% del cómputo total de preentrenamiento. El equipo ha generado más de 1.800 entornos sintéticos y 85.000 tareas para entrenar capacidades de agente.

Los resultados. DeepSeek-V3.2-Speciale ha conseguido medalla de oro en la Olimpiada Matemática Internacional 2025, la Olimpiada Internacional de Informática 2025, las finales mundiales del ICPC 2025 y la Olimpiada Matemática China 2025.

Ambos modelos están disponibles ya.

  • V3.2 funciona en aplicación, web y API.
  • V3.2-Speciale solo por API, al menos por ahora.

Entre líneas. DeepSeek ha publicado los pesos completos y el informe técnico del proceso de entrenamiento. Esta transparencia contrasta con lo que suelen hacer las grandes tecnológicas americanas. Incluso las que ofrecen modelos de código abierto como Llama, con un asterisco.

La startup china quiere demostrar que los sistemas de código abierto pueden competir con los modelos propietarios más avanzados. Y lo hace mientras sigue reduciendo costes.

Sí, pero. Los benchmarks públicos no siempre reflejan el rendimiento en tareas del mundo rea. Las comparaciones directas con GPT-5 o Gemini-3 Pro dependen de métricas específicas que pueden no capturar todas las dimensiones relevantes.

Además, la integración de herramientas en modo razonador aún debe probarse en casos de uso complejos del mundo real. El coste reducido no es tan importante si la calidad de las respuestas no se sostiene.

En Xataka | Guía DeepSeek: 36 funciones y cosas que puedes hacer gratis con esta IA

Imagen destacada | Solen Feyissa

source

Mostrar más
Botón volver arriba