Anthropic et Google Cloud ont annoncé un partenariat pluriannuel d’une valeur de dizaines de milliards de dollars le 23 octobre, donnant à la startup de l’IA l’accès à jusqu’à un million de TPU pour alimenter le développement de sa famille d’agents conversationnels Claude. Cet accord de calcul massif fournira plus d’un gigawatt de capacité de traitement d’ici 2026, marquant l’un des plus grands contrats de cloud public, alors que les entreprises se ruent pour s’assurer les vastes ressources nécessaires à l’entraînement de modèles d’IA avancés.
Cet accord élargi représente une victoire stratégique pour l’architecture TPU de Google dans sa compétition avec l’écosystème GPU dominant de NVIDIA, tout en garantissant à Anthropic la puissance de calcul nécessaire pour rivaliser avec OpenAI et d’autres chefs de file de l’IA, selon les déclarations des deux entreprises.
« Le choix d’Anthropic d’étendre de manière significative son utilisation des TPU reflète l’excellent rapport performances-prix et l’efficacité que ses équipes constatent avec les TPU depuis plusieurs années », a déclaré Thomas Kurian, PDG de Google Cloud, dans le communiqué. L’accord se distingue comme un engagement à long terme pour du calcul dans le cloud plutôt qu’un achat direct de matériel, offrant une flexibilité à mesure que les modèles d’IA évoluent rapidement.
Krishna Rao, directeur financier d’Anthropic, a souligné le rôle de l’accord pour faire face à l’explosion de la demande : « Cette capacité accrue nous garantit de pouvoir répondre à une demande en croissance exponentielle tout en maintenant nos modèles à la pointe du secteur », a déclaré Rao dans le communiqué de l’entreprise.
La course à l’armement de l’IA s’intensifie
Ce partenariat place Anthropic parmi un groupe d’élite d’entreprises de l’IA disposant de ressources de calcul à l’échelle du gigawatt. L’investissement de Microsoft dans OpenAI dépasse 13 milliards de dollars et prévoit un superordinateur d’IA de 100 milliards de dollars nommé « Stargate », qui nécessitera plusieurs gigawatts de puissance, tandis que Meta vise à accumuler une capacité de calcul équivalente à 600 000 GPU NVIDIA H100.
Les besoins énergétiques sont vertigineux : un gigawatt peut alimenter environ 750 000 foyers. Google s’est engagé à compenser cette consommation par des achats d’énergie 100 % renouvelable, répondant ainsi aux préoccupations croissantes concernant l’empreinte environnementale de l’IA.
Malgré l’ampleur du partenariat avec Google, Anthropic a affirmé rester « engagée envers notre partenariat avec Amazon, notre principal partenaire d’entraînement et fournisseur de cloud », selon le communiqué de l’entreprise, ce qui témoigne d’une stratégie multicloud à mesure qu’elle se développe.
Cet afflux massif de puissance de calcul permettra à Anthropic d’entraîner des modèles plus puissants, de développer les services Claude existants pour répondre à la demande et d’accélérer son calendrier de recherche. Pour Google, l’accord représente à la fois une source de revenus majeure et une validation de ses puces d’IA personnalisées, à l’heure où les entreprises recherchent de plus en plus des alternatives aux rares ressources GPU.
Les observateurs du secteur notent que cet accord marque un tournant critique où l’accès à une infrastructure à l’échelle du gigawatt devient le ticket d’entrée pour le leadership dans l’IA, redéfinissant fondamentalement le paysage concurrentiel à mesure que les laboratoires et les fournisseurs de cloud forgent des alliances stratégiques plus profondes.


