IA de Confiance, du concept à l’action !
L’intelligence artificielle (IA) est à un moment charnière de son déploiement mais elle présente des risques de différentes natures qui sont autant de freins à son développement. La future législation européenne devra être un appui pour garantir une IA plus transparente et moins biaisée, et donc permettre sa montée en puissance.
A l’état de l’art des technologies d’IA, nous avons à coeur de développer une IA de confiance et nous sommes convaincus que l’acculturation et la formation seront des étapes nécessaires à son développement, raison pour laquelle nous avons publié un livre blanc sur ce sujet.
En janvier 2022, Quantmetry a rejoint le collectif français Confiance.ai lancé par l’Etat dans le cadre du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle », auprès d’une quarantaine de partenaires industriels et académiques, pour concevoir et industrialiser des systèmes à base d’IA de confiance. Une manière d’accélérer encore sur ce sujet, en déployant de nouvelles méthodes et des outils capables de mesurer l’incertitude liée à l’IA, de manière systématique et transparente, dans la lignée de notre librairie d’open source MAPIE.
Début 2023, Quantmetry a reçu le label « IA responsable et de confiance » par Labelia Labs (ex Substra Foundation) pour son engagement sur l’IA éthique et responsable, avec une mention « avancé » correspondant à un niveau de maturité très élevé.
La réglementation en faveur d’une IA de confiance sera le vecteur
d’une IA mieux adoptée, mieux valorisée et mieux maîtrisée
1.
Adoptée par le citoyen comme une transformation durable de notre société.
2.
Maîtrisée grâce à des exigences renforcées de robustesses et de transparence.
3.
Valorisée par un usage éclairé des algorithmes pour résoudre des enjeux opérationnels
Une IA de confiance est avant tout une IA responsable, au double sens de responsibility et accountability. Sa réalisation exigera donc, au-delà de simplement « cocher la case » dans une liste de principes à respecter, la mise en place d’un ensemble de bonnes pratiques de conception et de contrôle de l’IA (incluant les piliers que sont l’explicabilité et l’équité algorithmique, afin comme l’explique ce livre blanc « d’établir puis entretenir la confiance ») et une culture organisationnelle ayant assimilé ces sujets.
Laurent Dupont, ACPR
(Autorité de contrôle prudentiel et de résolution)
Les médias en parlent !
Pour en découvrir plus sur l’IA de confiance
ARTICLE DE BLOG
Intelligence Artificielle de confiance – Comprendre les enjeux de la prochaine décennie
Depuis 2012, le marché de l’intelligence artificielle est en croissance exponentielle, et s’accompagne chaque jour de scandales éthiques. En réponse à cette recrudescence des risques, l’Union Européenne a proposé un règlement visant à réguler les IAs au sens large.
ARTICLE DE BLOG
En intelligence artificielle, performance rime avec confiance
La performance en Intelligence artificielle n’est pas uniquement une métrique technique. Il faut également valider une performance métier, en contrôler le processus d’évaluation et également comparer les performances de l’algorithmes avec des modèles beaucoup plus simples.