Open source vs closed source en modelos IA 2026

La brecha entre modelos open source y closed source se cerró dramáticamente en 2026. Hoy DeepSeek V3.2, GLM-5 y Gemma 4 compiten en métricas reales con Claude, GPT y Gemini. Análisis por dimensión.

1. Performance

  • DeepSeek V3.2 — 89.3% AIME, 1460 Elo. Competitivo con modelos closed de hace 6 meses.
  • GLM-5 (Zhipu AI) — 745B params MoE, licencia MIT. El mayor modelo open con licencia permisiva.
  • Gemma 4 (Google) — 4 modelos desde 2B hasta 31B. El 31B compite con GPT-4 de 2024.

2. Costo total

Esta es la ventaja principal. Autoalojando DeepSeek V3.2 en 8×H200 el costo por millón de tokens baja de $15 (Claude API) a $0.40. Para cargas de alto volumen es 30-40x más barato.

3. Privacidad y soberanía

En sectores regulados (salud, banca, defensa) el autoalojamiento no es opcional. NIS2 y DORA presionan por soberanía de datos. Open source es requisito de compliance más que elección técnica.

4. Geopolítica

DeepSeek V4 se construye sobre chips Huawei Ascend 950PR, eliminando dependencia de Nvidia. China demuestra que puede entrenar modelos frontera sin hardware occidental — un punto de inflexión estratégico.

5. Cuándo elegir cada uno

  • Closed (Claude/GPT/Gemini): cuando priorizas calidad top y velocidad de iteración. Pagas premium por soporte y mejoras continuas.
  • Open (DeepSeek/GLM/Gemma): cuando el volumen justifica autohospedaje, o privacidad/regulación lo exige.

Consulta el ranking de modelos para la comparativa detallada y la guía pilar de IA 2026 para contexto estratégico.