DeepSeek lanzó su nueva familia de modelos de inteligencia artificial, DeepSeek-V4, integrada por dos versiones que prometen mayor eficiencia en contextos largos y menor consumo computacional frente a sus competidores. La presentación, documentada en Hugging Face, coloca a la empresa china en disputa directa con OpenAI, Anthropic y Google, además de enfrentar a modelos recientes como Kimi K 2.6.
La versión Pro alcanza 1,6 billones de parámetros totales, pero activa solo 49 mil millones durante cada inferencia, mientras que la variante Flash trabaja con 284 mil millones y activa 13 mil millones por consulta. Ambas usan arquitectura Mixture-of-Experts, un diseño que reduce el costo operativo al seleccionar solo los componentes necesarios para cada tarea.
En evaluaciones internas, DeepSeek-V4-Pro ocupó el lugar 23 entre humanos en la plataforma Codeforces, convirtiéndose en el primer modelo abierto que iguala a GPT-5.4 en programación competitiva. También superó a sus predecesores en SimpleQA-Verified, una prueba de conocimiento general verificable.
A pesar de estos avances, el modelo no lidera en todas las mediciones. En razonamiento y conocimiento general sigue por debajo de Gemini-3.1-Pro y GPT-5.4, aunque supera al primero en recuperación de información con contextos extensos. En tareas de agente, se mantiene al nivel de otros sistemas abiertos, sin alcanzar el rendimiento de los modelos cerrados de Google, OpenAI y Anthropic.

La diferencia clave está en la eficiencia energética. DeepSeek-V4-Pro requiere solo el 27% de las operaciones que usaba la versión 3.2 y reduce el uso de caché KV al 10%. Esto se logra mediante un esquema híbrido que combina atención dispersa comprimida y atención altamente comprimida, seleccionando solo la información relevante en textos largos.
La compañía mantiene el enfoque de código abierto, permitiendo la descarga de pesos desde Hugging Face. Esta decisión contrasta con el cierre de modelos predominante en la industria, y podría acelerar la adopción en universidades, startups y gobiernos con presupuestos limitados.
El interés por modelos más eficientes ya impacta al mercado de hardware. Dickie Wong, director de investigación en Usmart Securities, señaló que la demanda de inferencia está creciendo, lo que impulsa la inversión en GPUs y chips Ascend de Huawei para sostener despliegues a gran escala.
Para usuarios y desarrolladores en México, la disponibilidad de un modelo avanzado sin costos de licencia podría democratizar el acceso a herramientas de IA de alto nivel. Sin embargo, persisten dudas sobre la transparencia
Etiquetas: DeepSeek, OpenAI, ChatGPT, Anthropic, IA, código abierto, Hugging Face, Gemini
