Google Cloud a dévoilé ses instances A4X Max propulsées par le système GB300 NVL72 de NVIDIA à l’échelle du rack, doté de 72 GPU Blackwell Ultra et promettant des gains de performance significatifs pour les workloads AI. La nouvelle plateforme, intégrée au service Vertex AI de Google, marque une expansion majeure du partenariat Google‑NVIDIA alors que les fournisseurs cloud se livrent bataille pour proposer une infrastructure AI de pointe.
Le nouveau système offre une performance 4x supérieure pour le training et le serving de Large Language Models par rapport aux instances A3 équipées de H100 de Google, selon le billet de blog de l’entreprise. NVIDIA revendique des gains encore plus spectaculaires pour sa plateforme GB300 NVL72 dans son ensemble, annonçant jusqu’à 50x d’amélioration des performances de production des AI factories et un boost de 30x des tâches de Generative AI comme la génération vidéo, par rapport au hardware de la génération Hopper précédente.
Chaque instance A4X Max représente un système complet à l’échelle du rack plutôt qu’une machine virtuelle traditionnelle. La plateforme refroidie par liquide combine les 72 GPU Blackwell Ultra avec 36 CPU Grace basés sur Arm, tous reliés via le fabric NVLink de cinquième génération de NVIDIA pour créer un espace mémoire unifié, tel que détaillé par Google Cloud dans son annonce. La variante Blackwell Ultra fournit 1,5x plus de puissance de calcul AI et de capacité mémoire que les GPU Blackwell standard.
Le système s’appuie sur le Jupiter network fabric de Google avec une connectivité de 800 Gb/s par GPU via des SuperNICs NVIDIA ConnectX‑8, offrant deux fois la bande passante réseau des instances A4X précédentes, selon Google Cloud. Cette architecture élimine les goulots d’étranglement traditionnels entre la mémoire CPU et GPU, permettant le training efficace de modèles multimodaux à mille milliards de paramètres.
Positionnement stratégique sur le marché
Ce lancement place Google parmi les premiers grands fournisseurs cloud à proposer à grande échelle la dernière architecture Blackwell de NVIDIA, lui offrant potentiellement un avantage sur les concurrents AWS et Microsoft Azure. Les instances sont désormais disponibles en preview, mais les clients doivent contacter des commerciaux de Google Cloud pour y accéder, ce qui indique un déploiement contrôlé ciblant des entreprises avec des workloads AI à grande échelle.
L’intégration au service Vertex AI Training de Google permet aux développeurs d’accéder au nouveau hardware via leurs workflows existants en spécifiant le type de machine « a4x-highgpu-4g », selon la documentation de Google. La plateforme prend en charge le framework NVIDIA NeMo et inclut des environnements Slurm managés pour le training à grande échelle, ainsi qu’une intégration à Kubernetes Engine via Cluster Director.
Le partenariat approfondi s’étend au‑delà du hardware pour inclure la famille de modèles Nemotron de NVIDIA dans le Model Garden de Vertex AI, créant un écosystème de développement AI complet qui va de l’infrastructure fondamentale aux modèles pré‑entraînés.



