Hugging Face a lancé la version 1.0 de son logiciel huggingface_hub le 27 octobre 2025, marquant une mise à niveau majeure de l’infrastructure qui alimente plus de 200 000 repositories GitHub et gère 77 pétaoctets de données d’IA. La mise à jour apporte une architecture modernisée avec des protocoles de transfert de fichiers améliorés et une interface en ligne de commande repensée, positionnant l’entreprise pour renforcer son rôle de plateforme centrale pour le développement du machine learning open source.
La mise à niveau représente une refonte architecturale complète d’un logiciel devenu une infrastructure essentielle pour le développement de l’IA dans le monde entier. Selon Hugging Face, la plateforme héberge désormais plus de 6 millions de repositories et sert de dépendance pour 3 000 packages PyPI, rendant cette mise à jour critique pour l’ensemble de l’écosystème du machine learning.
« La version 1.0 ne consiste pas seulement à franchir une étape. Il s’agit de poser les bases pour la prochaine décennie d’open machine learning », a déclaré l’équipe Hugging Face dans son annonce. Les cinq années écoulées depuis son extraction initiale du package transformers fin 2020 ont transformé la bibliothèque d’un simple utilitaire en une infrastructure complète pour la gestion des actifs ML.
Avancées techniques
Le changement le plus important consiste à migrer de la bibliothèque requests vers httpx, offrant une prise en charge native de HTTP/2 et une meilleure thread safety pour les déploiements en entreprise. La mise à jour fait également du protocole Xet le protocole par défaut pour tous les transferts de fichiers, un gain d’efficacité majeur qui opère au niveau des chunks (64 Ko) et permet aux utilisateurs de mettre en ligne ou de télécharger uniquement les parties modifiées des fichiers plutôt que les modèles entiers.
La nouvelle interface en ligne de commande, simplement appelée « hf », remplace l’ancien huggingface-cli par une conception modernisée basée sur Typer, avec des modèles resource-action et l’autocomplétion. Plusieurs composants obsolètes ont été supprimés, notamment la classe Repository basée sur Git et le système de gestion de tokens HfFolder, ce qui rationalise l’API pour les développeurs.
Implications pour le marché
Pour les entreprises, ces améliorations offrent des performances et une fiabilité accrues pour les pipelines MLOps, tout en renforçant la position concurrentielle de Hugging Face face aux registres des fournisseurs cloud. Le protocole Xet confère un avantage technique clé par rapport au Git LFS de GitHub pour la gestion de grands modèles, tandis que l’écosystème multi-cloud de fournisseurs d’inférence de la plateforme — notamment Together AI, Replicate et Groq — offre une flexibilité supérieure à AWS SageMaker ou Google Vertex AI.
Cette version intègre également l’intégration du Model Context Protocol (MCP) via un nouveau MCPClient, positionnant la plateforme sur le domaine croissant des agents d’IA. Une CLI tiny-agents permet d’exécuter des agents directement depuis le Hub, au-delà de l’hébergement de modèles traditionnel.
La bibliothèque transformers exigera huggingface_hub v1.x pour sa prochaine version v5, selon l’entreprise, assurant une adoption rapide de la nouvelle infrastructure à l’échelle de l’écosystème.



