Depuis le 2 février 2025, l’Union européenne met en œuvre les premières dispositions de l’IA Act, son ambitieux règlement sur l’intelligence artificielle. Cette législation vise à encadrer les risques associés à certaines technologies d’IA, en interdisant notamment les pratiques jugées contraires aux droits fondamentaux. Les entreprises opérant dans le secteur de l’IA doivent désormais s’adapter à ces nouvelles règles, sous peine de lourdes sanctions financières.
Quelles sont les mesures mises en place ?
L’IA Act repose sur une approche de gestion des risques qui catégorise les systèmes d’intelligence artificielle en quatre niveaux : minimal, limité, élevé et inacceptable. Depuis dimanche dernier, ce sont les pratiques présentant des risques jugés inacceptables qui sont interdites. Ces pratiques incluent plusieurs technologies controversées, comme :
- La reconnaissance faciale dans les espaces publics, interdite sauf exceptions strictement encadrées (prévention d’un acte terroriste, localisation de victimes ou de criminels).
- La police prédictive, qui consiste à anticiper des infractions sur la base de données comportementales.
- La catégorisation biométrique, utilisée pour déduire des informations sensibles telles que la race, les opinions politiques ou l’orientation sexuelle.
- La reconnaissance des émotions dans le cadre professionnel ou éducatif.
- Les systèmes de notation sociale, similaires à ceux en vigueur en Chine, évaluant les individus selon leur comportement.
- Les systèmes exploitant les vulnérabilités de personnes, notamment en raison de leur âge, de leur précarité ou d’un handicap.
Le non-respect de ces règles peut exposer les entreprises à des amendes allant jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial.
Exigences de transparence et mise en œuvre progressive
À partir du 1er août 2025, les modèles d’IA à usage général (tels que les systèmes de génération de contenus ou de langage) devront également respecter des exigences renforcées :
- Une évaluation des risques liée aux impacts de l’IA.
- Une meilleure transparence quant aux données utilisées par les modèles.
- Des mesures accrues de cybersécurité pour prévenir les abus et les détournements d’usage.
Toutefois, ces nouvelles obligations suscitent déjà des critiques. Plusieurs organisations de défense des droits numériques, telles qu’Amnesty International ou European Digital Rights, dénoncent l’absence de directives claires pour l’application du règlement. Elles craignent que les retards pris par la Commission européenne dans la publication des lignes directrices compromettent l’efficacité de la loi.
Si cet article vous a plu et si vous envisagez une carrière dans la Data Science ou tout simplement une montée en compétences dans votre domaine, n’hésitez pas à découvrir nos offres de formations ou nos articles de blog sur DataScientest.
Source : artificialintelligenceact.eu