Confluent a dévoilé son Real-Time Context Engine le 29 octobre 2025, un service entièrement géré conçu pour alimenter des applications d’IA avec des données mises à jour à la milliseconde près provenant de flux continus. Cette offre, désormais en Early Access sur Confluent Cloud, s’attaque à ce que l’entreprise appelle le « AI context gap » — la déconnexion entre les modèles d’IA et les données métier en temps réel qui engendre des résultats obsolètes ou inexacts.
Le nouveau service s’attaque à trois défis cruciaux qui ont freiné le développement de l’IA : un contexte périmé dû à des données obsolètes, des exigences d’ingénierie complexes pour la transformation des données, et des résultats de l’IA peu fiables résultant d’une mauvaise qualité des données. En connectant directement les systèmes d’IA à des live data streams, le moteur garantit que les applications opèrent avec des informations à jour à la milliseconde près.
Techniquement, le Real-Time Context Engine s’appuie sur Apache Kafka et l’infrastructure de streaming de Confluent via un processus en quatre étapes. Les données sont ingérées depuis les sources de l’entreprise, transformées en informations structurées via ksqlDB, soumises à une gouvernance via le Schema Registry de Confluent, puis atteignent les applications d’IA via le Model Context Protocol (MCP).
Bien que Confluent mette en avant « Instant Intelligence » et des performances à faible latence, l’entreprise n’a pas communiqué de garanties quantitatives précises concernant les métriques de latence ou de débit, d’après ses annonces.
Positionnement sur le marché et concurrence
Le moment choisi paraît stratégique alors que les entreprises se précipitent pour mettre en œuvre des solutions d’IA nécessitant des données récentes et fiables. Les applications ciblées incluent la détection de fraude dans les services financiers, des systèmes de tarification dynamique dans le e-commerce, et des agents de support client en temps réel — autant de scénarios où les millisecondes comptent.
Confluent positionne ce moteur comme supérieur aux feature stores traditionnels, qui s’appuient sur des données traitées par lots, en soutenant que son modèle de calcul continu offre une latence plus faible. L’entreprise se présente comme complémentaire des vector databases plutôt que concurrente, en jouant le rôle de système d’alimentation crucial qui fournit des données contextuelles récentes pour l’embedding generation.
Face à des rivaux comme Databricks et Snowflake, Confluent affirme que sa conception native pour gérer les données en mouvement offre des avantages par rapport aux fonctionnalités de streaming ajoutées aux architectures lakehouse orientées batch, selon Diginomica.
Le service a été lancé en Early Access sur Confluent Cloud, bien que l’entreprise n’ait pas annoncé de date de General Availability, de tarification spécifique, ni les régions prises en charge. Cela positionne Confluent pour évoluer d’un fournisseur d’infrastructure vers un acteur clé au sein du stack applicatif d’IA, avec un potentiel important de captation de valeur alors que les organisations cherchent à combler l’écart entre les opérations métier en temps réel et les besoins en données de l’IA.
Des observateurs du secteur notent qu’il s’agit d’un virage stratégique majeur pour Confluent, rapprochant l’entreprise de la chaîne de valeur de l’IA à un moment où le contexte en temps réel est devenu crucial pour des applications d’IA compétitives.



