L’univers de la data science n’est pas un long fleuve tranquille. Le secteur de l’analyse des données ne cesse de voir ses horizons s’élargir tandis que, dans le même temps, des mutations à grande échelle se dessinent. Pour les professionnels du domaine mais aussi pour ceux qui envisagent de s’y immiscer, de nombreux facteurs sont à intégrer.
Quels sont les points essentiels de la mutation en cours ? Voilà une bien vaste interrogation. Par bonheur, un grand nombre de cabinets d’études se sont penchés sur un ou plusieurs aspects de la question : Gartner, Insight, ABI Research… Nous vous proposons ici une synthèse de leurs enquêtes et analyses – les références sont indiquées au bas de cet article.
Les grandes tendances de la data science
Des applications conçues pour le Cloud
S’il existe une tendance en matière de cloud, c’est celle du « cloud native« . On désigne sous ce nom des applications spécifiquement conçues pour fonctionner dans un environnement de cloud computing. Plus flexibles et là encore plus évolutives, ces solutions s’imposent au détriment de la mise en place de logiciels autonomes. Selon Gartner, dès 2024, 50 % des solutions déployées dans le cloud seront du « cloud native ».
Dans un même ordre d’idée, on note une tendance vers l’unification des architectures de données.
Une IA davantage axée sur la simulation
Jusqu’à présent, la plupart des systèmes d’IA ont été fondés sur le brassage d’immenses quantités de données réelles. Or, selon Gartner, d’ici 2024, 60% des IA seront basées sur des simulations de la réalité – on parle d’IA « synthétique » – et donc à partir de données générées par des algorithmes. La tendance est massive : en 2021, seules 1% des informations étaient synthétiques.
Le souci est que, en parallèle, Gartner prévoit aussi une situation de monopole pour les principales sociétés proposant des solutions d’IA telles que OpenAI ou Midjourney. 1% des entreprises du secteur devraient contrôler l’essentiel du marché. Il existe là un enjeu majeur à l’heure où l’on évoque toujours davantage la nécessité d’une IA « responsable ».
Il reste que la mutation des entreprises vers l’IA est acquise : 70 % des dirigeants interrogés par Gartner déclarent que leur entreprise se trouve mode « investigation et exploration » pour ce qui est de l’IA générative. Selon Insight, la problématique réside dans la recherche d’un équilibre entre automatisation et capacité humaine.
Low code
Le low code ou le no code, qui offrent la possibilité de réaliser des applications sans connaître la programmation, a le vent en poupe. 70% des solutions logicielles sont appelées à s’appuyer sur cette technologie. On note par ailleurs un engouement pour les « SuperApps » ou applications offrant plusieurs services d’usage courant.
Des solutions d’analyse légères
De plus en plus, la collecte de données devrait être opérée depuis des appareils IoT et bénéficier des algorithmes TinyML, soit des applications d’analyse de taille réduite. ABI Research estime que 2,5 milliards d’appareils seront concernés d’ici 2030.
Cybersécurité
Plus que jamais, la cybersécurité est au centre des préoccupations des entreprises et tend même à devenir le critère de choix n°1 d’une solution informatique. En parallèle, les amendes pour violation du RGPD se sont multipliées, Meta Platforms Ireland (ex-Facebook) détenant le record des pénalités pour 2022 : 405 millions d’euros.
Les conséquences pour les professionnels de la data science
Quand bien même, ces tendances s’apparentent à un grand tourbillon, pour les professionnels de la data science, l’avenir apparaît au beau fixe. Et de fait, la demande pour des data scientists, ingénieurs en machine learning et analyste de données est en forte croissance.
Plus que jamais, les professionnels en reconversion se doivent d’acquérir des capacités en programmation ou tout au moins une maîtrise des interfaces low-code, tout autant que d’affirmer leurs compétences en statistiques et en maîtrise du monde des affaires. Ils doivent par ailleurs s’accoutumer à une situation de formation continue, inévitable si l’on souhaite rester au diapason des technologies émergentes et nouvelles méthodes d’analyse des données.