En división de funcionar directamente internamente del transporte, los modelos Alpamayo sirven como modelos de entrenamiento a gran escalera que los desarrolladores pueden perfeccionar e integrar en las estructuras principales de sus pilas AV completas.
Durante su presentación, Jensen recorrió las etapas de la inteligencia sintético, desde los modelos de razonamiento introducidos por OpenAI hasta modelos de código extenso como DeepSeek, que han llevado la IA al interior de las computadoras y las máquinas. Jensen volvió a explicar la finanzas de los agentes inteligentes, explicando cómo en este nuevo ecosistema el negocio está en nuestra capacidad de utilizar LLM y software y aplicaciones para crear nuevos servicios. Pero el corazón de su discurso de transigencia se centró en la IA física. El enseñanza no proviene de datos, textos, vídeos y audios, sino de entornos de simulación en tres dimensiones. “La simulación es lo que hace Nvidia”, quiso señalar para dejar aún más claro el posicionamiento.
¿Cómo nació Alpamayo?
Según Nvidia, los World Foundation Models son el subsiguiente paso de los grandes modelos de lengua. No son para entender frases, sino para entender el mundo.
La idea es simple y radical: entrenar modelos de inteligencia sintético no sólo en texto, imágenes o vídeo, sino en las leyes físicas, espaciales y causales de la existencia. Un World Foundation Model aprende cómo funciona un entorno tridimensional: la trascendencia, las colisiones, el movimiento de los objetos, la relación entre una batalla y sus consecuencias. No replica una pregunta. Predice lo que sucede si actúas.
Para Nvidia, estos modelos son la saco cognitiva de robots, coches autónomos y agentes físicos. Un autómata no puede simplemente “escudriñar” una arnés: debe asimilar que puede rodearla, moverla, chocar con ella, subirse a ella. Debe disponer de un maniquí interno del mundo, continuamente actualizado, sobre el que aparentar decisiones antaño de ejecutarlas en el mundo positivo.
