AI Paris 2019 - Résumé des conférences auxquelles nous avons assisté
Quantmetry était présent au salon AI Paris 2019, nous avons eu l’occasion d’assister à de nombreux talks de qualité. Retrouvez leur résumés et leurs messages clés dans cet article:
VERS UNE NOUVELLE GÉNÉRATION D’IA ? POURQUOI LA FRANCE A LE POTENTIEL DE DÉPASSER LA CHINE ET LES ÉTATS-UNIS SUR LE TERRAIN DE L’INTELLIGENCE ARTIFICIELLE par Bruno MAISONNIER
Bruno Maisonnier, fondateur d’Aldebaran Robotics et de Another Brain, a réalisé un talk ouvrant des perspectives sur a réalisé un talk sur l’avenir de l’IA et la manière dont la France pourrait se positionner comme leader de cette révolution. Après avoir rappelé que l’IA d’aujourd’hui reposait avant tout sur le triptyque Big Data, Machine Learning et Deep Learning, il a évoqué ses limites actuelles (ex: quantité de données labellisées à disposition, impossibilité d’atteindre l’IA de 3e génération selon la classification de la DARPA, etc.). Un autre constat concernait le poids énorme des GAFAs et plus généralement des pays anglophones, sans oublier la Chine, sur la recherche actuelle en IA avec une absence notoire de la France dans les classements mondiaux.
Les key take-aways de son intervention selon notre point de vue:
- Des recherches sont en cours et doivent être soutenues pour faire de l’IA autrement de manière plus efficace et responsable (prise en compte des conditions réelles avec du “Low data”, possibilité d’entraîner en local pour minimiser la dépense énergétique)
- Attention à la législation trop précoce et trop contraignante, à l’instar du discours de Jack Ma à vivatech 2019, il ne faut pas tuer dans l’oeuf des opportunités de disruption à cause d’une paranoïa technologique (illustration à travers l’anedcote du red flag act). La notion éthique doit évidemment être abordée mais ne doit pas être un frein à l’innovation car dans un contexte globalisé tout le monde n’aura pas les mêmes standards éthiques.
- La France doit chercher à se renouveler sa recherche en IA pour s’adapter au contexte international. Le paysage mondial de la recherche peut s’approximer à 20 000 personnes (qui ont publié au moins une fois dans une conférence) majoritairement concentrées au sein du secteur privé. On retrouve cependant malgré tout de pur produits de l’éducation à la française à la tête de la R&D ou de l’innovation de ces mêmes entreprises. La rétention des talents est donc un enjeu stratégique majeur.
La France était à l’origine d’une bonne partie de la dynamique de la recherche en IA mais a disparu progressivement des pays considérés commes les plus influents dans le secteur. La faute à une bataille des QI à l’échelle mondiale. Afin de retrouver une place parmis les leaders, elle doit désormais envisager dès maintenant non pas de combler son retard actuel mais d’anticiper dès à présent le développement de la prochaine génération d’IA.
MAIF : OPTIMISER LE ROUTAGE DES EMAILS À L’AIDE D’ALGORITHMES DE TRAITEMENT AUTOMATIQUE DU LANGAGE DANS UN ESPRIT OPEN SOURCE par Frédéric DE JAVEL, Christelle LUGUET et Antoine SIMOULIN
La MAIF doit faire face à un flux quotidien de 15 000 emails devant être redirigé vers les services pertinents pour pouvoir être traités. Le manque de catégorisation des mails entraîne de nombreux allers et retours en interne ralentissant le processus global. Un algorithme de routage de mails grâce au NLP a donc été développé en partenariat avec Quantmetry afin d’optimiser ce temps moyen de traitement. La MAIF a de plus décidé de publier en Open-source le package développé.
Les keys take-aways de leur intervention selon notre point de vue:
- Instaurer un binôme Data Scientist/expert métier avec un effort de vulgarisation des deux côtés pour garantir la pertinence et la performance de la solution développée
- Anticiper la phase d’industrialisation dès le cadrage pour accélérer le projet (ex: des performances matérielles différentes entre les environnements de développement sur le cloud et l’environnement de production on-premise)
- Dépasser l’étape de l’industrialisation pour aller jusqu’à la publication en Open-Source contribue fortement à la rédaction d’un code de qualité et maîtrisé de A à Z ainsi qu’à la marque employeur du groupe. Cela permet aussi de communiquer une preuve de neutralité des traitements vis-à-vis de ses clients grâce à cet effort de transparence.
Le projet a été un succès en interne avec un gain moyen de 20% sur le temps de traitement des mails par la MAIF. Des soumissions de modifications et d’amélioration ont déjà été réclamées par la communauté Open-Source sur le répertoire Git.
VEOLIA : RETOUR SUR LE DÉPLOIEMENT D’IA AT THE EDGE DANS L’INDUSTRIE 4.0 par Fabien BOUDAUD et Joël RUBINO
Veolia est responsable de l’épuration de l’eau pour le compte de collectivités locales. Le coût d’une interruption de service étant très élevé, l’entreprise a décidé de mettre en place une solution de maintenance prédictive sur ses équipements critiques à base d’IoT. Les contraintes opérationnelles étaient liées à la frugalité des données à disposition ainsi qu’à des environnements potentiellement dangereux ou difficiles d’accès pour les opérationnels.
Les keys take-aways de leur intervention selon notre point de vue:
- L’utilisation du Edge Computing à travers l’utilisation de “Bob”, un micro-contrôleur avec des composants optimisés pour l’utilisation du Deep Learning a permis un suivi en temps réel des anomalies de fonctionnement tout en garantissant la confidentialité car il ne transmet que l’analyse finale et pas les données de production.
- Une fenêtre de 7 jours consécutifs était suffisante pour l’apprentissage du bon fonctionnement d’un équipement par le micro-contrôleur pendant la construction de son modèle d’analyse vibratoire.
- La conduite du changement était un facteur clé dans la réussite du projet: “Bob” ne remplace pas le travail des opérationnels mais est au contraire un membre à part entière des équipes. Il permet de recentrer leur activité autour des tâches avec une valeur ajoutée. Des informations différentes étaient communiquées selon les profils d’utilisateurs (ex: granularité de l’information pour un expert maintenance versus un technicien).
Le projet a été un succès avec la détection de 2 anomalies de fonctionnement ce qui a permis d’assurer une continuité du service pendant une année entière.
CARBON BEE : L’AGRICULTURE DE PRÉCISION GR CE AUX CAPTEURS HYPERSPECTRAUX ET LE DEEP LEARNING… VERS UNE RÉDUCTION DES COÛTS ET DES PRATIQUES PLUS DURABLES par Anthony GELIBERT et Simon DENONNAIN
Carbon Bee propose une solution d’asservissement de la pulvérisation de désherbant grâce à une caméra embarquant un algorithme de détection en temps réel des mauvaises herbes. L’objectif étant de réduire à la fois les coûts associés au désherbage et son impact environnemental. Les intervenants nous ont livrés un retour des contraintes économiques et techniques auxquelles ils ont été confrontés.
Les keys take-aways de leur intervention selon notre point de vue:
- L’approche Edge Computing permet d’assurer une philosophie de Protection-by-design autour de la confidentialité des données ainsi que des apprentissages sur-mesure. L’apprentissage est supervisé pour des raisons d’interprétabilité.
- L’utilisation d’une solution de computer vision amène une grosse problématique autour du positionnement des caméras sur les machines agricoles. Il faut optimiser la profondeur du champ de détection en tenant compte à la fois des temps de traitements associés par l’IA (bornés par la puissance matérielle à disposition) et de la vitesse de fonctionnement prévue de la machine.
- L’augmentation des données d’image est impérative pour pouvoir prendre en compte l’hétérogénéité des situations réelles.
La contrainte socio-économique du marché de l’herbicide est très forte car le marché est très tendu et les utilisateurs ont donc peu de moyen (investissement financier/temps) à y consacrer. Il a donc fallu développer une solution performante optimisant à la fois son coût d’implémentation et sa facilité d’utilisation pour l’agriculteur.
LES BIAIS DE L’IA ET LES MOYENS POUR LES DÉTECTER ET LES COMPENSER par Melanie RAO et Rachel ORTI
L’IA est de plus en plus utilisée. Toutefois, si nous ne faisons pas attention, les IAs ont vite fait de reproduire, voire d’amplifier les biais historiques. Comment pouvons-nous savoir si une IA est biaisée ? Comment pouvons-nous aujourd’hui développer des IAs éthiques et sans biais ? L’IA est définie par 7 critères, focus sur 1: Diversité, non discrimination & équité.
Les keys take-aways de leur intervention selon notre point de vue:
- Ne pas se concentrer que sur l’approche algorithmique mais aussi chercher à éviter les biais humains en constituant des équipes variées en profil et origine.
- D’un point de vue technique le biais peut être corrigé dans toutes les phases du process (collect, processing, post processing).
- Des métriques existent pour estimer le biais. (Equal accuracy, demographic parity, equal opportunity, FP rate parity)
- Plusieurs outils ou APIs existent pour les mesurer et les corriger (AI fairness 360, What-if tool, IBM Openscale)
D’un sujet secondaire au prémisse de l’IA , on a vu l’éthique devenir l’un des axes principaux d’évolution des futures IA. Des méthodes et métriques font leur apparition pour monitorer et contrôler le biais des IA.
✍par Jehan Augustin Latour, Data Consultant et Mathieu Ringoot, Senior Data Consultant @Quantmetry