Réglementation européenne IA de confiance
Depuis juin 2018, la Commission européenne a réuni un groupe d’experts AI HLEG (High-level expert group on artificial intelligence) afin de travailler sur le cadrage de l’IA de confiance et proposer des recommandations sur le futur cadre réglementaire de l’UE attendu pour 2021.
Les outils proposés par ces experts de l’IA
Avec ce groupe d’experts, la Commission Européenne a défini 7 exigences auxquelles les IA doivent répondre afin de préserver les droits fondamentaux. Le groupe d’experts a également proposé, en juin 2020, une grille d’évaluation pour une intelligence artificielle digne de confiance fondée sur ces 7 exigences clés ainsi qu’un outil d’auto-évaluation à destination des acteurs de l’IA. Cet outil d’auto-évaluation – à compléter avec l’ensemble de parties prenantes intervenant dans le développement des IA – aide à mieux comprendre les différents critères d’une IA de confiance et à prendre conscience de la diversité des risques de dérive de cette dernière.
Cette méthode permet d’obtenir un score de confiance dans les algorithmes et des recommandations afin de s’orienter dès à présent vers la mise en œuvre d’une IA de confiance. Le groupe d’experts a de plus proposé des méthodes techniques et non techniques afin de mettre en œuvre les 7 exigences.
Enfin et surtout, le 20 octobre 2020, le Parlement européen a adopté à une grande majorité un texte sur la réglementation de l’IA. Ce texte confirme que la réglementation sur l’intelligence artificielle de confiance sera fondée sur les 7 exigences clés et qu’elle s’appliquera uniquement aux IA dites « critiques ».
Légiférer pour protéger les citoyens
La volonté de soutenir les entreprises dans la mise en place de leur IA de confiance, en évitant de brider l’innovation, conduit la Commission européenne à légiférer non pas sur les technologies elles-mêmes, mais sur les domaines d’application où l’IA est critique. Pour les IA non critiques, la commission se limite à inciter à suivre ses recommandations.
Voici la liste des secteurs qualifiés à haut risque :
Emploi – Éducation – Soins de santé – Transports – Énergie – Secteur public (asile ; migration ; contrôle aux frontières ; système judiciaire et services de sécurité sociale) – Défense et sécurité – Finance, banque et assurance.
Liste des usages et finalités qualifiés à haut risque :
Recrutement – Notation et évaluation des étudiants – Affectation de fonds publics – Octroi de prêts – Commerce, courtage, fiscalité – Traitements et procédures médicaux – Processus électoraux et campagnes politiques -Conduite automatisée – Gestion de circulation – Système militaires autonomes – Production et distribution d’énergie – Gestion des déchets – Contrôle des émissions – Décisions du secteur public ayant une incidence importante et directe sur les droits et obligations des personnes physiques ou morales.
Ce travail de l’UE pour protéger ses citoyens s’inscrit dans la continuité des travaux engagés dès 2018 dans le domaine du respect de la protection des données personnelles et des droits fondamentaux des citoyens face aux défis du Big Data.
Avec la mise en place de la RGPD, un premier pas dans la direction d’une IA de confiance a été fait en déployant un premier niveau de défense pour les citoyens européens. Ce dernier doit maintenant être consolidé avec l’apparition du cadre réglementaire de l’intelligence artificielle.
Cette approche visant à développer une IA éthique, porteuse des valeurs européennes et protégeant les citoyens européens, éviterait l’apparition de réglementations nationales hétérogènes complexes à appliquer pour les acteurs économiques paneuropéens.