Google crée la première réglementation de l’intelligence artificielle

-
2
 m de lecture
-

S’inspirant des mesures de sécurité les plus efficaces et de son expertise en IA, Google crée le système SAIF. Cette réglementation établit des lignes directrices à l’échelle industrielle pour créer et déployer des IA plus sûres.

Des IA plus sûres ?

Pour permettre la création d’intelligence artificielle de qualité et sécurisée, Google a décidé de mettre en place le règlement SAIF. Cette réglementation s’appliquera dès la conception de l’IA pour réguler son potentiel.

Pour concevoir SAIF, Google s’est inspiré des meilleurs protocoles de sécurité dans la création de logiciels. Pour assurer la protection des données d’entraînements, le SAIF comportera également des demandes d’examens et de tests sur les chaînes d’approvisionnement, semblables aux pratiques de cybersécurité.

Son objectif est de rétablir la confiance des utilisateurs envers les IA, en spécifiant qu’un modèle reconnu par le SAIF est un modèle sécurisé et fiable.

Quelles sont les réglementations de SAIF ?

SAIF repose sur 6 principes fondamentaux :

  • Créer des bases de sécurité solides à l’écosystème de l’IA : Google s’appuie sur son infrastructure sécurisée par défaut pour protéger les systèmes d’IA, les applications et les utilisateurs. 
  • Étendre la détection et la réponse aux menaces liées à l’IA : intégrer des capacités de renseignement sur les menaces dans le cadre de sécurité d’une organisation améliore la surveillance, qui permet une détection précoce des anomalies et une défense proactive contre les attaques liées à l’IA.
  • Automatiser les défenses pour contrer les menaces émergentes : les innovations en matière d’IA peuvent améliorer l’ampleur et la rapidité des réponses aux incidents de sécurité.
  • Harmoniser les contrôles pour une sécurité cohérente : la cohérence des contrôles de sécurité entre les différentes plateformes de création et les différents outils garantit une protection uniforme contre les risques liés à l’IA.
  • Adapter les contrôles pour permettre des boucles de rétroaction plus rapides : des tests et un apprentissage constant sont essentiels pour adapter les systèmes d’IA à l’évolution des menaces. Les organisations doivent intégrer des boucles de rétroaction qui permettent un perfectionnement continu, comme l’apprentissage par renforcement basé sur les incidents et les commentaires des utilisateurs.
  • Contextualiser les risques liés aux systèmes d’IA : il est essentiel de procéder à des évaluations complètes des risques en tenant compte du déploiement de l’IA. Les organisations devraient évaluer des facteurs tels que le lignage des données, les processus de validation, la surveillance du comportement opérationnel et les contrôles automatisés pour s’assurer que les performances de l’IA répondent aux normes de sécurité.

La réglementation SAIF pourrait être la résolution du problème de crise des IA, considérée comme une menace potentielle pour l’avenir de l’humanité par de nombreux scientifiques et chefs d’entreprises, dont Sam Altman, CEO d’OpenAI. Pour s’assurer que l’IA suive une conception d’assistant et non pas de remplaçant de l’humain, les équipes data doivent se former constamment aux dernières découvertes et innovations qui émergent chaque jour. C’est pourquoi si cet article vous a plu et si vous envisagez une carrière dans la Data Science, n’hésitez pas à découvrir nos articles ou nos offres de formations sur DataScientest.

Source : blog.google

Facebook
Twitter
LinkedIn

DataScientest News

Inscrivez-vous à notre Newsletter pour recevoir nos guides, tutoriels, et les dernières actualités data directement dans votre boîte mail.
Poursuivre la lecture

Vous souhaitez être alerté des nouveaux contenus en data science et intelligence artificielle ?

Laissez-nous votre e-mail, pour que nous puissions vous envoyer vos nouveaux articles au moment de leur publication !

Newsletter icone
icon newsletter

DataNews

Vous souhaitez recevoir notre
newsletter Data hebdomadaire ?