
Un documento técnico difundido por DeepSeek describe un nuevo enfoque para el entrenamiento de sistemas de inteligencia artificial en un contexto de restricciones para acceder a hardware avanzado. La propuesta se presenta mientras empresas tecnológicas chinas enfrentan límites para utilizar chips de alto rendimiento fabricados por compañías internacionales como Nvidia.
El material expone una alternativa de diseño orientada a reducir la dependencia de infraestructura compleja durante el desarrollo de modelos de IA.
El esquema planteado se apoya en una arquitectura con interconexiones más acotadas entre componentes, lo que permite disminuir las exigencias computacionales durante el proceso de entrenamiento.
De acuerdo con el documento, este método apunta a escalar sistemas avanzados de inteligencia artificial con menores requerimientos de potencia de cálculo y consumo energético.
Las compañías tecnológicas con base en China continúan operando bajo restricciones que limitan el acceso a los semiconductores más sofisticados utilizados en el desarrollo de inteligencia artificial.
Estas condiciones han impulsado la exploración de alternativas en arquitectura y entrenamiento, con el objetivo de sostener el avance de nuevos modelos pese a los límites existentes.

En desarrollos previos, DeepSeek presentó modelos de razonamiento identificados como R1, elaborados con una estructura de costos diferente a la de competidores internacionales.
Actualmente, la empresa trabaja en un nuevo sistema de mayor escala, conocido como R2, cuya presentación está prevista para las próximas semanas, según el cronograma señalado en el documento.
El camino elegido por DeepSeek se inscribe en una tendencia más amplia dentro del ecosistema de inteligencia artificial en China, donde las restricciones externas han llevado a probar métodos y arquitecturas no convencionales.