DEEPSEEK R1

Nvidia se rinde ante la IA china y dice que es "un excelente avance en inteligencia artificial"

Nvidia busca posicionarse como una aliada tecnológica del avance chino. Un portavoz destacó que el nuevo modelo sigue dependiendo de la infraestructura proporcionada por la compañía estadounidense

BAE Negocios

Nvidia sorprendió al aplaudir públicamente al modelo R1 de la startup china DeepSeek. El modelo, presentado recientemente, no solo demostró superar en rendimiento a los desarrollos de gigantes estadounidenses como OpenAI, sino que lo hizo con un costo de entrenamiento estimado en apenas 6 millones de dólares, una cifra ínfima frente a los miles de millones invertidos por Silicon Valley; lo que provocó un derrumbe de las acciones tecnológicas.

"DeepSeek es un excelente avance en inteligencia artificial y un ejemplo perfecto de Test Time Scaling", señaló un portavoz de Nvidia, líder indiscutido en el desarrollo de procesadores gráficos y motores para inteligencia artificial. Este concepto, que ganó protagonismo en los últimos meses, se basa en optimizar el razonamiento de los modelos durante las inferencias, y utiliza un poder computacional adicional en tiempo real para ofrecer mejores resultados.

La declaración no es casual. La aparición del modelo R1 causó una caída del 17 % en las acciones de Nvidia la semana pasada, dejando en evidencia el impacto de esta nueva competencia. Sin embargo, lejos de tomar una postura defensiva, la empresa busca posicionarse como una aliada tecnológica del avance chino, destacando que los GPUs utilizados por DeepSeek son plenamente compatibles con las regulaciones de exportación.

“Las inferencias del modelo R1 requieren un número significativo de GPUs Nvidia y redes de alto rendimiento”, agregó el portavoz, subrayando que este nuevo modelo sigue dependiendo de la infraestructura proporcionada por la compañía estadounidense. Nvidia, así, logra colocar el foco en su papel imprescindible en esta revolución, aun cuando los costos de desarrollo comienzan a caer a niveles inesperados.

El trasfondo de este cambio reside en la evolución de las leyes de escalado, popularizadas en 2020 por OpenAI. Hasta hace poco, se asumía que mejores sistemas de inteligencia artificial podían lograrse solo mediante inversiones masivas en poder computacional y datos. Ahora, sin embargo, conceptos como el Test Time Scaling están reescribiendo las reglas.

El caso de DeepSeek y su modelo R1 abrió el debate sobre si las multimillonarias inversiones de empresas como Microsoft, Google y Meta en infraestructuras de IA seguirán siendo necesarias. Mientras Microsoft anunció que gastará 80 mil millones de dólares en 2025 para potenciar su estrategia de inteligencia artificial, y Meta planea destinar entre 60 y 65 mil millones para el mismo propósito, el modelo chino demuestra que podrían obtenerse resultados de calidad con costos significativamente menores.

Analistas de Bank of America, como Justin Post, ya señalan que estas reducciones podrían generar beneficios a corto plazo para empresas que utilizan servicios de IA en la nube, como las de publicidad o aplicaciones de consumo. Sin embargo, también advierten que los ingresos a largo plazo para los gigantes tecnológicos podrían verse afectados, poniendo en jaque la sostenibilidad de sus estrategias basadas en inversiones colosales.

Nvidia, por su parte, parece decidida a destacar el lado positivo de estos cambios. Con su elogio al modelo R1, la empresa refuerza la idea de que las tecnologías innovadoras, como las desarrolladas por DeepSeek, no solo representan competencia, sino también una oportunidad para que su hardware sea aún más demandado.

Esta nota habla de: