Qualcomm a dévoilé lundi ses premiers accélérateurs d’IA pour data centers, les AI200 et AI250, défiant directement la domination de NVIDIA sur le marché en plein essor du matériel d’intelligence artificielle. Ces puces, offrant jusqu’à 768 Go de mémoire par carte et attendues respectivement en 2026 et 2027, ont déjà conclu un accord de déploiement de 200 mégawatts avec l’entreprise saoudienne HUMAIN.
Les accélérateurs s’appuient sur des versions personnalisées pour data centers des NPU Hexagon de Qualcomm, avec des accélérateurs scalaires, vectoriels et tensoriels prenant en charge plusieurs formats de données, dont INT4, INT8, FP8 et FP16, selon Tom’s Hardware. Ces puces marquent un tournant stratégique pour Qualcomm, des processeurs mobiles vers le marché lucratif des data centers, où NVIDIA contrôle actuellement plus de 90 % des parts de marché.
L’AI200 sera proposé comme une solution à l’échelle du rack dans une configuration à refroidissement liquide avec une enveloppe de puissance de 160 kW, utilisant le PCIe pour l’extension des serveurs et l’Ethernet pour la connectivité inter-racks, a rapporté Tom’s Hardware. Le système prendra également en charge le confidential computing pour des déploiements d’entreprise sécurisés. Son successeur, l’AI250, introduira une architecture de calcul proche de la mémoire qui, selon Qualcomm, augmentera la bande passante mémoire effective de plus de 10 fois, permettant l’inférence désagrégée où les ressources de calcul et de mémoire peuvent être partagées dynamiquement entre les cartes.
Impact sur le marché et concurrence
Plutôt que de vendre des cartes individuelles, Qualcomm propose des racks entièrement intégrés et préconfigurés, destinés aux fournisseurs cloud et aux entreprises recherchant des solutions clé en main optimisées pour le coût total de possession, a rapporté ServeTheHome. L’engagement de l’entreprise technologique saoudienne HUMAIN représente un potentiel commercial de plusieurs milliards de dollars, avec les premiers systèmes dont l’installation est prévue en 2026, selon ServeTheHome.
Les analystes considèrent l’expertise de Qualcomm en matière d’efficacité énergétique, acquise dans la conception de puces mobiles, comme un atout clé. SiliconANGLE a noté que l’accent mis par l’entreprise sur la performance par watt répond à une préoccupation majeure pour les data centers, où les coûts d’exploitation dominent les budgets. The Verge a souligné que l’architecture NPU Hexagon spécialisée, conçue spécifiquement pour l’IA plutôt que pour le calcul généraliste, positionne bien ces puces pour les charges de travail d’inférence des grands modèles de langage.
Cependant, des défis significatifs subsistent. L’entreprise doit surmonter l’écosystème CUDA profondément ancré de NVIDIA, sur lequel les développeurs s’appuient depuis des années, a rapporté SiliconANGLE. En l’absence de benchmarks de performance publiés ou de métriques comparatives par rapport au matériel de NVIDIA, les affirmations de Qualcomm en matière d’efficacité restent à vérifier, a noté Tom’s Hardware.
Sur le plan logiciel, Qualcomm développe une plateforme à l’échelle des hyperscalers prenant en charge les frameworks PyTorch et ONNX, ainsi que des outils comme vLLM et LangChain, selon Tom’s Hardware. La stratégie encourage les développeurs à recibler les modèles au niveau du framework en utilisant le format ONNX, plutôt que de fournir des outils de conversion directe depuis CUDA.



