DeepSeek acaba de lanzar algo que va a amargar el día a NVIDIA y a las empresas de chips de EEUU: se llama DeepSeek-V3.1

DeepSeek acaba de lanzar algo que va a amargar el día a NVIDIA y a las empresas de chips de EEUU: se llama DeepSeek-V3.1

Hubo un día en que DeepSeek sorprendió a medio mundo al demostrar que se podía llegar lejos con menos. Hoy regresa con V3.1 y un mensaje que no pasa desapercibido: el modelo se ha preparado para la próxima hornada de chips chinos. No hablamos de un vuelco automático del mercado, pero sí de una apuesta concreta que apunta en una dirección incómoda para NVIDIA y compañía. Si esa sintonía técnica con el hardware chino se traduce en rendimiento, la conversación sobre quién alimenta la IA en China va a sonar muy distinta.

De acuerdo con la nota de la propia compañía, V3.1 inaugura una inferencia híbrida al más puro estilo GPT-5: un mismo sistema con dos rutas, Think (razonamiento profundo) y Non-Think (respuesta rápida), conmutables desde su web y app. La formulación es clara: “Hybrid inference: Think & Non-Think, un modelo, dos modelos”. La empresa subraya además que la versión Think “alcanza respuestas en menos tiempo” que su predecesor. Es decir, no sólo cambian pesos, también cambian los modos de inferencia que ya están en servicio.

La frase que lo enmarca todo: un FP8 “pensado para los chips nacionales”

En un comentario fijado en su última publicación en WeChat, DeepSeek escribe: “UE8M0 FP8 es para la próxima generación de chips nacionales”. Ese es el punto que tensa la cuerda: sugiere que la compañía ha ajustado el formato de datos, aparentemente un FP8 que etiqueta como UE8M0, a la siguiente oleada de procesadores chinos. Bloomberg yReuters recogen ese mensaje y lo sintetizan: V3.1 está “personalizado para funcionar con chips de IA de próxima generación chinos”. Dicho de otro modo, optimización orientada al ecosistema local.

El comentario original en chino (izquierda) y su traducción al español con Google Translate (derecha)

FP8 es un formato de 8 bits que pesa la mitad que FP16/BF16. Con soporte nativo, permite más rendimiento por ciclo y menos memoria, siempre que el escalado esté bien calibrado. En la model card oficial de Hugging Face se lee que DeepSeek-V3.1 “se ha entrenado usando el formato de escala UE8M0 FP8”, lo que indica que no es solo un empaquetado de pesos, sino que el entrenamiento y la ejecución se han adaptado expresamente a esa precisión. La parte delicada, y conviene ser prudentes, es que todo apunta a una remesa de chips que se desplegará en el futuro, y a que puedan sacar provecho a este esquema de forma nativa.

Entonces, ¿esto es una mala noticia para NVIDIA? Los datos del ejercicio fiscal que expiró el pasado 26 de enero señalan que China representó aproximadamente el 13% de los ingresos de la compañía liderada por Jensen Huang. Si parte del cómputo de IA en China muta del dúo clásico GPU NVIDIA + ecosistema CUDA a soluciones domésticas que funcionan con el formato UE8M0 FP8 y dan buenos resultados (presumiblemente chips Ascend de Huawei), la demanda de soluciones occidentales podría erosionarse con el paso del tiempo.

China supuso alrededor del 13% de los ingresos de Nvidia en el último ejercicio fiscal

Todo esto sucede sobre el tablero de los controles de exportación de EEUU: restricciones que pretendían frenar el acceso de China a chips punteros y que también han acelerado su apuesta por autosuficiencia. Este año la administración Trump rehabilitó con condiciones la exportación del H20, un chip recortado para China. Desde entonces, el estado del H20 ha sido oscilante: entre permisos, presiones regulatorias chinas y planes de NVIDIA para presentar alternativas basadas en Blackwell. El mensaje de fondo es que el marco es político y cambiante, y cualquier vía que permita a China depender menos de estas ventanas cobra valor estratégico.

Hay que recordar otro dato que ayuda a calibrar expectativas. Según Financial Times, DeepSeek intentó entrenar su futuro modelo R2 con chips Huawei Ascend a instancias oficiales y se encontró con problemas técnicos persistentes. Terminó volviendo a NVIDIA para el entrenamiento, mientras seguía trabajando en la compatibilidad para inferencia. Ese episodio no invalida la estrategia actual, pero pone el listón: migrar totalmente sus procesos no es sencillo, requiere, entre otras cosas, meses de ingeniería. V3.1, por tanto, debe leerse como iteración. Ahora la compañía afirma que sí ha preparado su modelo para los próximos chips chinos.

Puntuaciones de modelos en MathArena

Y aquí tenemos otro dato interesante. MathArena, una plataforma vinculada la Escuela Politécnica Federal de Zúrich que evalúa modelos en competiciones matemáticas reales y recientes, sitúa a GPT-5 como líder, con un 90% en pruebas de respuesta final, y a DeepSeek-v3.1 (Think) algo por detrás aunque entre los mejores modelos del momento. Esto ayuda a ubicar el contexto: V3.1 compite arriba.

Imágenes | Xataka con Gemini 2.5 | Capturas de pantalla MathArena y DeepSeek

En Xataka | TikTok les robó las búsquedas, DeepSeek les ganó en IA: Baidu descubre que ser «la Google china» ya no basta


La noticia

DeepSeek acaba de lanzar algo que va a amargar el día a NVIDIA y a las empresas de chips de EEUU: se llama DeepSeek-V3.1

fue publicada originalmente en

Xataka

por
Javier Marquez

.