Google Cloud et NVIDIA ont annoncé un partenariat approfondi pour permettre à la communauté de l'apprentissage machine (ML) de disposer d'une technologie qui accélère ses efforts pour construire, faire évoluer et gérer facilement les applications d'IA générative. Pour continuer à apporter des avancées en matière d'IA à ses produits et à ses développeurs, Google a annoncé l'adoption de la nouvelle plate-forme informatique d'IA NVIDIA Grace Blackwell, ainsi que du service NVIDIA DGX Cloud sur Google Cloud. De plus, la plate-forme DGX Cloud équipée du NVIDIA H100 est désormais disponible sur Google Cloud.

S'appuyant sur leur récente collaboration pour optimiser la famille de modèles ouverts Gemma, Google adoptera également les microservices d'inférence NVIDIA NIM pour fournir aux développeurs une plate-forme ouverte et flexible pour former et déployer à l'aide de leurs outils et frameworks préférés. Les deux sociétés ont également annoncé la prise en charge de JAX sur les GPU NVIDIA et les instances Vertex AI optimisées par les GPU NVIDIA H100 et L4 Tensor Core. Les nouvelles intégrations entre NVIDIA et Google Cloud s'appuient sur l'engagement de longue date des deux sociétés à fournir à la communauté de l'IA des capacités de premier plan à chaque couche de la pile IA.

Les éléments clés de l'extension du partenariat sont les suivants Adoption de NVIDIA Grace Blackwell : La nouvelle plate-forme Grace Blackwell permet aux entreprises de construire et d'exécuter une inférence en temps réel sur des modèles de langage à plusieurs billions de paramètres. Google adopte la plate-forme pour divers déploiements internes et sera l'un des premiers fournisseurs de cloud à proposer des instances alimentées par Blackwell. Le DGX Cloud alimenté par Grace Blackwell arrive sur Google Cloud : Google apportera les systèmes NVIDIA GB200 NVL72, qui associent 72 GPU Blackwell et 36 CPU Grace interconnectés par NVLink de cinquième génération, à son infrastructure cloud hautement évolutive et performante.

Conçu pour une formation et une inférence énergétiquement efficaces à l'ère des LLM à mille milliards de paramètres, il sera également disponible via DGX Cloud, une plateforme d'IA offrant une expérience sans serveur aux développeurs d'entreprise qui construisent et servent des LLM. DGX Cloud est désormais disponible sur Google Cloud A3 VM instances optimisées par les GPU NVIDIA H100 Tensor Core. Prise en charge de JAX sur les GPU : Google Cloud et NVIDIA ont collaboré pour apporter les avantages de JAX aux GPU NVIDIA, élargissant ainsi l'accès à la formation LLM à grande échelle à l'ensemble de la communauté ML. JAX est un cadre pour l'apprentissage automatique à haute performance, orienté compilateur et natif de Python, un cadre facile à utiliser et performant pour l'entraînement LLM.

Les praticiens de l'IA peuvent désormais utiliser JAX avec les GPU NVIDIA H100 sur Google Cloud grâce à MaxText et Accelerated Processing Kit (XPK). NVIDIA NIM sur Google Kubernetes Engine (GKE) : les microservices d'inférence NVIDIA NIM, qui font partie de la plateforme logicielle NVIDIA AI Enterprise, seront intégrés à GKE. Basé sur des moteurs d'inférence tels que TensorRT-LLM, NIM permet d'accélérer le déploiement de l'IA générative dans les entreprises, de prendre en charge une large gamme de modèles d'IA de premier plan et d'assurer une inférence de l'IA transparente et évolutive.

Prise en charge de NVIDIA NeMo : Google Cloud a facilité le déploiement du framework NVIDIA NeMo sur sa plateforme via Google Kubernetes Engine (GKE) et Google Cloud HPC Toolkit. Cela permet aux développeurs d'automatiser et de mettre à l'échelle l'entraînement et le service de modèles d'IA génératifs, et de déployer rapidement des environnements clés en main grâce à des modèles personnalisables qui lancent le processus de développement. NVIDIA NeMo, qui fait partie de NVIDIA AI Enterprise, est également disponible sur Google Marketplace, ce qui permet aux clients d'accéder facilement à NeMo et à d'autres frameworks pour accélérer le développement de l'IA.

Vertex AI et Dataflow étendent leur support aux GPU NVIDIA : Pour faire progresser la science des données et l'analyse, Vertex AI prend désormais en charge les VM A3 de Google Cloud équipées de GPU NVIDIA H100 et les VM G2 équipées de GPU NVIDIA L4 Tensor Core. Les équipes MLOps disposent ainsi d'une infrastructure et d'outils évolutifs pour gérer et déployer en toute confiance des applications d'IA. Dataflow a également étendu la prise en charge du traitement accéléré des données sur les GPU NVIDIA.

Google Cloud propose depuis longtemps des instances VM GPU alimentées par le matériel de pointe de NVIDIA associé aux principales innovations de Google. Les GPU NVIDIA sont un composant essentiel de l'hypercalculateur Google CloudAI, une architecture de supercalculateur qui unifie le matériel optimisé pour les performances, les logiciels ouverts et les modèles de consommation flexibles. Ce partenariat holistique permet aux chercheurs, scientifiques et développeurs en IA d'entraîner, d'affiner et de servir les modèles d'IA les plus vastes et les plus sophistiqués - désormais avec encore plus de leurs outils et frameworks préférés optimisés conjointement et disponibles sur Google Cloud.