Lors du CES 2025, Nvidia a surpris l’audience en dévoilant Project DIGITS, un mini-ordinateur au format compact, mais doté d’une puissance de calcul digne des infrastructures cloud les plus performantes. Ce nouvel appareil, conçu en partenariat avec MediaTek, permet aux développeurs, chercheurs et étudiants en intelligence artificielle de créer et d’entraîner des modèles de machine learning localement, sans dépendre des services cloud.
Un superordinateur personnel
Project DIGITS, ce n’est pas seulement un ordinateur, c’est un superordinateur personnel. En intégrant une nouvelle puce développée en collaboration avec MediaTek, la GB10 Grace Blackwell, Nvidia a réussi à concentrer une puissance de 1 pétaflop en précision FP4 dans un boîtier plus petit qu’un Mac mini. Cette puce repose sur un CPU ARM 20 cœurs, épaulé par l’architecture Blackwell, spécialement optimisée pour les calculs d’intelligence artificielle.
Côté matériel, DIGITS impressionne par ses spécifications : 128 Go de mémoire LPDDR5, jusqu’à 4 To de stockage NVMe, et une connectique variée avec ports USB-C, HDMI, Ethernet et SFP28. Il peut fonctionner de manière totalement autonome grâce à son système d’exploitation dédié, DGX OS, dérivé de Linux. L’ensemble est préconfiguré avec la suite logicielle Nvidia AI, permettant une prise en main immédiate pour le prototypage, le fine-tuning et le développement d’applications edge.
Avec ce projet, Nvidia entend répondre à un besoin croissant de puissance locale. En effet, l’entraînement de modèles de machine learning sur le cloud peut rapidement devenir onéreux, alors qu’un appareil comme DIGITS permettrait d’effectuer ce travail en local, avec une meilleure maîtrise des coûts.
405 milliards de paramètres pour 3 000 dollars
Là où DIGITS se distingue encore davantage, c’est par sa capacité à entraîner des modèles de langage jusqu’à 200 milliards de paramètres, une performance comparable à celle de certaines infrastructures professionnelles. Grâce à la connectivité Nvidia ConnectX, deux unités DIGITS peuvent être reliées entre elles, permettant ainsi d’entraîner des modèles allant jusqu’à 405 milliards de paramètres. Cela ouvre des perspectives inédites pour les chercheurs et développeurs travaillant sur des modèles de grande échelle.
Le prix de 3 000 dollars, bien qu’élevé pour un ordinateur personnel classique, est particulièrement compétitif si l’on considère les alternatives actuelles. Aujourd’hui, entraîner un modèle de plusieurs centaines de milliards de paramètres sur des plateformes cloud telles que AWS ou Azure coûte des dizaines de milliers de dollars par mois. Avec DIGITS, Nvidia offre une solution locale, puissante et durable, permettant aux utilisateurs de réduire considérablement leurs dépenses liées au cloud.
Plutôt que de rivaliser directement avec les fabricants de PC ARM sous Windows, Nvidia crée sa propre niche, axée sur les stations de travail dédiées au calcul haute performance et à l’intelligence artificielle. Les premiers retours des partenaires du constructeur sont très positifs, laissant présager un potentiel succès commercial pour ce produit. Project DIGITS devrait être disponible au grand public à partir du mois de mai 2025.
Si cet article vous a plu et si vous envisagez une carrière dans la Data Science ou tout simplement une montée en compétences dans votre domaine, n’hésitez pas à découvrir nos offres de formations ou nos articles de blog sur DataScientest.