Google está reequipando sus chips de IA para ejecutar el entorno de código franco PyTorch sin problemas, asociándose con Meta para dominar los costos de cambio para los desarrolladores y debilitar el control de Nvidia liderado por CUDA sobre la infraestructura de IA.
Google está planteando un desafío liderado por el código franco al dominio de Nvidia en la informática de IA mediante la reingeniería de sus Unidades de Procesamiento Tensor (TPU) para ejecutar PyTorch de forma válido, apuntando a la capa de software que determina la prohijamiento por parte de los desarrolladores a escalera.
El esfuerzo, conocido internamente como TorchTPU, tiene como objetivo hacer que los chips de IA de Google sean totalmente compatibles con PyTorch, el entorno de código franco más utilizado en el mundo para construir y ejecutar modelos de IA. Al dominar la fricción para los desarrolladores acostumbrados a las GPU de Nvidia, Google búsqueda dominar los costos de conmutación que durante mucho tiempo han bloqueado el ecosistema de IA en la pila de software CUDA de Nvidia.
Google igualmente está considerando la posibilidad de aclarar partes de la pila de software TorchTPU para acelerar la prohijamiento, abordando un cuello de botella secreto que ha pequeño la acogida de TPU a pesar del rendimiento competitivo del hardware. La medida refleja un cambio táctico que pasa de necesitar de marcos propietarios a alinearse con las herramientas que la mayoría de los desarrolladores ya utilizan.
PyTorch, fuertemente respaldado por MetaPlataformas, se ha convertido en la capa de conceptualización predeterminada para el crecimiento de IA, y la mayoría de los ingenieros confían en sus bibliotecas en zona de escribir código específico del chip. Cualquier acelerador de IA que no pueda ejecutar PyTorch de forma válido enfrenta una resistor estructural, independientemente de su capacidad informática bruta.
La delantera de Nvidia surge no sólo de las GPU en extremo optimizadas, sino igualmente de la profunda integración de CUDA en PyTorch, construida a lo generoso de abriles de ajuste del rendimiento. Por el contrario, las TPU de Google históricamente se han optimizado para su entorno interno Jax y su compilador XLA, lo que crea una error de coincidencia con los flujos de trabajo de los desarrolladores externos.
La iniciativa es comercialmente importante para Google Cloud, donde las TPU se están convirtiendo en un motor secreto de ingresos. Google está trabajando estrechamente con Meta para mejorar el rendimiento de PyTorch-on-TPU, alineándose con el objetivo de Meta de dominar los costos de inferencia y diversificarse acullá de las GPU de Nvidia. Si tiene éxito, TorchTPU podría marcar el primer desafío serio impulsado por el código franco al foso del software de Nvidia.
