Google, Microsoft, OpenAI et Anthropic s’unissent pour une IA responsable

-
2
 m de lecture
-

Quatre des plus grandes entreprises de l’intelligence artificielle s’allient pour créer un puissant organisme industriel et assurer un développement éthique de l’IA.

Un organisme industriel ?

La création du Frontier Model Forum vise à responsabiliser les modèles d' »IA frontière », des systèmes avancés d’IA et d’apprentissage automatique considérés comme présentant des risques pour la sécurité publique. Le danger résidant dans le fait que les modèles d’IA peuvent acquérir de manière inattendue des fonctionnalités dangereuses, pouvant conduire à une mauvaise utilisation ou à des dommages involontaires. 

Le Frontier Model Forum est né de la demande croissante de surveillance réglementaire des technologies de l’IA. OpenAI, connue pour ChatGPT, s’est associée aux géants de la technologie Microsoft et Google, ainsi qu’aux esprits novateurs d’Anthropic, pour façonner le développement de l’IA. Leur objectif commun est de garantir la création responsable de modèles d' »IA d’avant-garde » capables de repousser les limites de l’innovation tout en préservant la sécurité publique.

Comment responsabiliser l’IA ?

Le Frontier Model Forum se fixe des objectifs ambitieux qui guideront sa mission de promotion d’un développement sûr et responsable de l’IA. Ces objectifs sont les suivants :

 

  • La sécurité de l’IA : Le Forum vise à stimuler les efforts de recherche qui conduiront à des évaluations normalisées des capacités et des mesures de sécurité pour les prochains modèles d’IA. Ce faisant, il cherche à minimiser les risques et à garantir le déploiement responsable des technologies d’IA avancées.
  • Un meilleur développement de l’IA : Grâce à l’expertise collective, le Forum vise à établir les meilleures pratiques pour le développement et le déploiement des modèles d’IA. Des lignes directrices claires favoriseront ainsi une innovation responsable.
  • Collaboration et partage de connexion : La collaboration est essentielle pour relever les défis posés pour une IA responsable. Le Forum réunira des décideurs politiques, des universitaires, des représentants de la société civile et des entreprises afin de partager des connaissances et des idées sur les risques de confiance et de sécurité liés aux technologies de l’IA.
  • L’IA au service de la société : si l’IA comporte des risques potentiels, elle est également très prometteuse pour résoudre des problèmes mondiaux cruciaux. Le Forum s’engage à soutenir le développement d’applications de l’IA pour relever des défis tels que le changement climatique, la détection du cancer et les menaces de cybersécurité.

Le Frontier Model Forum compte actuellement quatre membres, mais il est ouvert à l’expansion. Les organisations activement impliquées dans le développement et le déploiement de modèles d’IA d’avant-garde et faisant preuve d’un fort engagement en faveur de la sécurité sont invitées à rejoindre cette initiative transformatrice. C’est pourquoi, si cet article vous a plu et si vous envisagez une carrière dans la Data Science, n’hésitez pas à découvrir nos articles ou nos offres de formations sur DataScientest.

source : blogs.microsoft.com

Facebook
Twitter
LinkedIn

DataScientest News

Inscrivez-vous à notre Newsletter pour recevoir nos guides, tutoriels, et les dernières actualités data directement dans votre boîte mail.

Vous souhaitez être alerté des nouveaux contenus en data science et intelligence artificielle ?

Laissez-nous votre e-mail, pour que nous puissions vous envoyer vos nouveaux articles au moment de leur publication !

Newsletter icone
icon newsletter

DataNews

Vous souhaitez recevoir notre
newsletter Data hebdomadaire ?