La evolución tecnológica ha encontrado un nuevo paradigma con los chips de Inteligencia Artificial (IA) desarrollados por Nvidia. Según el CEO de la compañía, Jensen Huang, estas unidades de procesamiento están superando los ritmos de mejora anticipados por la Ley de Moore, lo que promete reducir los costos operativos asociados con los modelos de IA y acelerar el desarrollo de tecnologías más accesibles y avanzadas.
¿Qué es la Ley de Moore y por qué es relevante?
Propuesta en 1965 por Gordon Moore, cofundador de Intel, la Ley de Moore predice que el número de transistores en un chip se duplica aproximadamente cada dos años, lo que incrementa el rendimiento computacional mientras reduce los costos de fabricación. Este principio ha guiado el desarrollo de la industria tecnológica durante décadas, estableciendo un estándar para la innovación en el diseño de semiconductores.
En este contexto, Nvidia asegura estar rompiendo estos límites gracias a un enfoque integral que abarca desde el diseño de arquitecturas hasta la implementación de algoritmos optimizados, lo que ha permitido a la empresa avanzar a un ritmo mucho mayor.
Chips que marcan la diferencia
Durante el CES 2025, Huang destacó el impacto de su última creación, el superchip GB200 NVL72, diseñado para centros de datos. Este procesador ofrece un rendimiento 30 veces superior en tareas de inferencia de modelos de lenguaje de gran tamaño (LLM) en comparación con el chip H100 de la generación anterior.
El avance se debe, según el CEO, a la capacidad de Nvidia para integrar múltiples componentes del desarrollo, desde la arquitectura del chip hasta la programación de algoritmos específicos. “Al innovar en todo el conjunto, podemos superar las limitaciones de la Ley de Moore”, afirmó Huang.
Nuevas métricas para la evolución de la IA
Huang sugirió la creación de un modelo específico para medir el progreso en sistemas de IA, basado en tres áreas principales: preentrenamiento, posentrenamiento y cómputo en tiempo de prueba.
- Preentrenamiento: Etapa inicial donde los modelos procesan grandes volúmenes de datos para identificar patrones.
- Posentrenamiento: Fase de refinamiento que ajusta las respuestas del modelo mediante retroalimentación humana.
- Cómputo en tiempo de prueba: Proceso de inferencia que permite al modelo analizar y responder a las preguntas de los usuarios con mayor precisión.
El último aspecto, aunque es el más costoso, es también el foco de las innovaciones de Nvidia. Según Huang, la mejora en el rendimiento de los procesadores reducirá significativamente estos costos, replicando el efecto que la Ley de Moore tuvo en la computación general.
Avances hacia una IA superinteligente
Además de mejorar el rendimiento de los chips, Huang visualiza un futuro donde los sistemas de IA superinteligente desempeñen un papel central en diversas actividades humanas, desde la escritura y el diseño de software hasta la gestión de cadenas de suministro y el diseño de hardware.
Entre las tecnologías presentadas, destaca la nueva plataforma Cosmos World Foundation, que promete revolucionar la robótica y la simulación mediante el uso de IA avanzada en entornos como Omniverse.
Perspectivas de seguridad en la IA
En respuesta a las preocupaciones sobre el impacto de la robótica inteligente, Huang subrayó que la tecnología, en sí misma, no es intrínsecamente peligrosa. “Las máquinas son máquinas”, declaró, enfatizando que su uso dependerá de las decisiones humanas.
Con este enfoque, Nvidia no solo redefine el futuro del hardware computacional, sino que también establece las bases para una revolución tecnológica impulsada por la inteligencia artificial y la supercomputación.