Cisco a dévoilé sa puce Silicon One P200 et son système de routage 8223 le 8 octobre, offrant un débit de 51,2 térabits par seconde pour connecter des data centers d’IA répartis sur plusieurs sites. La nouvelle plateforme du géant des réseaux, plébiscitée par Microsoft et Alibaba, vise à aider les hyperscalers cloud à surmonter les contraintes énergétiques et spatiales en reliant des clusters de calcul d’IA distribués avec une consommation d’énergie 65 % inférieure à celle des générations précédentes.
La nouvelle plateforme intègre 64 ports Ethernet 800G dans un châssis 3U compact, atteignant une densité que Cisco annonce 92 fois supérieure à celle de son châssis 8804 de la génération précédente, selon LeMagIT. Cette amélioration spectaculaire répond à un défi critique, car les organisations peinent à loger une infrastructure d’IA en pleine expansion dans l’emprise de leurs data centers existants.
Au cœur du système, la puce P200 fonctionne comme un processeur réseau programmable P4 avec d’importantes capacités de buffering, conçues spécifiquement pour les trafics en rafales typiques des charges de travail d’IA. Cette architecture permet ce que Cisco appelle un modèle « scale-across », permettant aux organisations de construire des clusters d’IA virtualisés répartis sur plusieurs sites, plutôt que de concentrer toutes les ressources au sein d’une seule installation, a précisé l’entreprise dans son communiqué.
La plateforme fonctionnera initialement sur le network operating system open source SONiC, Cisco prévoyant d’ajouter ultérieurement la prise en charge de ses plateformes propriétaires IOS XR et NX-OS, marquant une intégration plus large au sein du portefeuille de l’entreprise.
Concurrence du marché
Cisco pénètre un marché férocement concurrentiel dominé par la puce Tomahawk 5 de Broadcom et la plateforme Spectrum-X de Nvidia, proposant toutes deux une capacité similaire de 51,2 térabits. Alors que Broadcom se concentre sur un fabric haute densité pour les clusters d’IA et que Nvidia fournit une solution end-to-end optimisée pour la communication entre GPU, Cisco se différencie en mettant l’accent sur un routage haute performance entre des data centers géographiquement distribués, selon des analyses sectorielles de ServeTheHome et du Dell’Oro Group.
Le calendrier semble stratégique, car le secteur est confronté à une mutation fondamentale dans la conception de l’infrastructure d’IA. Dell’Oro Group note que le networking pourrait devenir le facteur décisif dans la course à l’IA, les data centers isolés atteignant des limites sévères en matière de puissance et de capacité de refroidissement.
Au-delà des hyperscalers cloud, la technologie pourrait séduire les entreprises et les gouvernements qui cherchent à construire des clouds d’IA souverains en connectant des data centers plus petits et distribués. Les soutiens appuyés de Microsoft Azure et Alibaba Cloud suggèrent que la plateforme a déjà trouvé un écho auprès de son marché cible, validant l’approche de Cisco face aux défis d’une infrastructure d’IA distribuée.