El startup chino DeepSeek actualizó su modelo de razonamiento R1-0528, redujo alucinaciones 50%, se acerca al rendimiento de o3 y mantiene licencia MIT abierta.
DeepSeek, el nuevo jugador de IA que hizo temblar al sector con su modelo R1 en enero, lanzó sorpresivamente la versión R1-0528 de su modelo de IA. La actualización se describió como una “actualización menor”, pero su impacto es todo menos menor, ya que mejora el razonamiento complejo, recorta las alucinaciones entre un 45 y 50 % y amplía la capacidad creativa para escribir ensayos, novelas y hasta código front-end.
La compañía lo publicó sin fanfarria en Hugging Face bajo licencia MIT, manteniendo su filosofía de pesos abiertos. Con eso redobló la presión sobre los titanes estadounidenses que dominan los modelos de pago y anunció que los usuarios de su API no tendrán que pagar más para usar la nueva versión.
Rendimiento casi a la par de OpenAI y Google
Los números que acompañan a R1-0528 explican el revuelo. En el examen de matemática AIME 2025 pasó de 70 % a 87,5 % de aciertos gracias a procesos de razonamiento más profundos y a que el modelo eleva el límite de tokens de 12.000 a 23.000 por consulta.
En LiveCodeBench —la prueba universitaria diseñada por Berkeley, MIT y Cornell— el modelo se ubicó apenas por detrás de o4 mini y o3 de OpenAI, pero por delante de Grok 3 mini de xAI y de Qwen 3 de Alibaba.
Según las evaluaciones internas, su precisión en código subió del 63,5 % al 73,3 % y en el exigente Humanity’s Last Exam duplicó resultados (de 8,5 % a 17,7 %).
No menos importante, DeepSeek destiló la cadena de razonamiento de R1-0528 dentro de una variante de solo 8 mil millones de parámetros —R1-0528-Qwen3-8B— que supera al Qwen 3 original en más de 10 % y puede correrse en una sola GPU de 16 GB. Esto amplía el público potencial: desde laboratorios universitarios hasta startups con hardware limitado.
Licencia MIT, apertura y ¿censura?
Al igual que su predecesor, R1-0528 es gratuito y editable, lo que seduce a empresas que quieren controlar sus datos en servidores propios. AWS y Azure ya ofrecen el modelo desprovisto de conexiones a servidores chinos.
Sin embargo, las pruebas independientes detectan un costado más restrictivo. Un análisis de SpeechMap asegura que es “el modelo DeepSeek más censurado hasta la fecha” en temas sensibles para Pekín, como Xinjiang. TechCrunch constató respuestas más evasivas al nombrar al líder chino Xi Jinping o la masacre de Tiananmen. La paradoja es clara: mientras se abre al mundo en código, cierra la puerta al debate político.
Lo que viene: la esperada era del R2
Detrás del rugido de R1-0528 se vislumbra el próximo capítulo. Fuentes internas apuntaban a un lanzamiento de R2 en mayo; aunque retrasado, el salto mayor sigue en el radar. Entre tanto, los rivales reaccionan: Google rebajó precios de Gemini; OpenAI sacó su o3 Mini más ligero y recortó tarifas.
A la presión comercial se suma la geopolítica. Al demostrar que no hace falta acceso ilimitado a GPUs de exportación norteamericana para alcanzar niveles “casi GPT-4”, DeepSeek refuta la premisa de que el control de hardware basta para frenar la innovación china. Que el fundador Liang Wenfeng se codee con Jack Ma y sea agasajado por Xi Jinping subraya que el proyecto tiene respaldo político de alto nivel.
Con R1-0528, DeepSeek consolida una estrategia de “ballena libre”: entregar un modelo competitivo, de uso abierto y barato, mientras avanza hacia versiones aún más ambiciosas.
El movimiento sacude la línea de flotación de los gigantes occidentales y confirma que la carrera de la IA ya no es cuestión exclusiva de Silicon Valley. Para desarrolladores y empresas la pregunta deja de ser “¿podemos pagarlo?” para convertirse en “¿nos atrevemos a no probarlo?”.