DeepSeek V4: 1 billón de parámetros sin Nvidia

Hardware 8 abr 2026

Construido 100% sobre chips Huawei Ascend 950PR. Busca eliminar dependencia del hardware occidental.

DeepSeek confirmó que DeepSeek V4, su próxima generación de modelo con arquitectura MoE de 1 billón de parámetros, está siendo entrenado íntegramente sobre chips Huawei Ascend 950PR. El movimiento representa el primer modelo frontera completamente libre de hardware Nvidia y marca un antes y después en la geopolítica de la IA.

El chip: Huawei Ascend 950PR

El 950PR, lanzado a fines de 2025, alcanza ~900 TFLOPS en precisión FP16 y soporta clusters de hasta 1024 chips con interconnect propietario. La eficiencia energética es ~30% inferior a un H200 equivalente, pero la disponibilidad sin restricciones de exportación lo hace estratégicamente superior en el contexto regulatorio actual.

Por qué es relevante

  • Autosuficiencia tecnológica china: las sanciones de Estados Unidos aceleraron en lugar de frenar el ecosistema alternativo.
  • Software stack: MindSpore (equivalente a PyTorch) maduró rápido; la migración ya no es el bloqueo.
  • Costo: entrenar V4 en Huawei se estima 25-40% más barato que en Nvidia, lo que permite iteraciones más rápidas.

Impacto en el stack open source

DeepSeek ya ofrece V3.2 como modelo open source competitivo. Con V4 esperamos licencia permisiva y pesos liberados, reforzando la presión sobre Anthropic, OpenAI y Google.

Lo que esto significa para tu proyecto

Si autoalojas IA por razones de compliance o costo, el ecosistema DeepSeek + Huawei amplía dramáticamente las opciones. Pero: cuidado con restricciones legales según jurisdicción (EE.UU., UE) que podrían prohibir el uso de chips Huawei en determinadas cargas.

Siguiente hito

El lanzamiento público de DeepSeek V4 está previsto para Q2-Q3 2026. Sigue nuestra guía IA 2026 y el ranking actualizado para el momento exacto.

Fuentes: DeepSeek official blog, Huawei Developer Conference 2026, análisis SemiAnalysis.