Les extraordinaires progrès de l’intelligence artificielle (IA) ouvrent de nouvelles perspectives aux industriels. Mais pour se transformer en produits et services fiables, l’IA doit relever un certain nombre de défis. Le colloque « Machine Learning, the stimulating challenges », qui s’est déroulé à Télécoms ParisTech les 17 et 18 septembre, s’y attelle.
L’intelligence artificielle (IA) doit relever des défis de taille pour être déployée par l’industrie. Le colloque « Machine Learning, the stimulating challenges » a illustré quelques-uns de ces défis, et ouvert des pistes pour faire du deep learning un véritable outil industriel.
« L’IA va permettre d’élaborer des systèmes intelligents qui apportent de la valeur. Mais cela ouvre forcément la porte à de nouveaux risques. Il y a besoin d’asseoir ces systèmes sur des théories bien établies », avance Stephan Clémençon, enseignant-chercheur au sein du département Image, Données, Signal de Télécom ParisTech.
« Facile de jouer à l’apprenti-sorcier »
Porteur de la chaire « Machine Learning for Big Data », dont Safran, PSA, Criteo BNP Paribas et Valeo sont partenaires et dont la reconduction est en cours de discussion, Stephan Clémençon met en garde les entreprises : « Avec tous les outils disponibles en open source, il est facile de jouer à l’apprenti-sorcier. »
Un premier risque concerne les données, qui permettent d’entraîner les modèles au cœur des futurs systèmes prédictifs ou décisionnels. « Les données des entreprises ne sont pas aussi simples que des images. Elles peuvent être biaisées ou censurées », précise-t-il. Ce qui se traduit, via l’apprentissage, par un modèle non robuste – inefficace dans certaines situations – ou biaisé, avec des problèmes juridiques et éthiques à la clé.
Du côté des algorithmes, aussi, une adaptation est nécessaire. Véritables boîtes noires aux millions de paramètres, les modèles de deep learning sont à la peine pour établir des relations de causalité et expliquer leurs décisions. Or « pour utiliser un système de décision, par exemple pour le diagnostic médical, il faudra pouvoir expliquer et justifier le ‘raisonnement’ suivi par le modèle », relève Stephan Clémençon.
Logiciel raciste et pandas pris pour des gibbons
Une illustration concrète des vulnérabilités du deep learning a été donnée par Olivier Teytaud lors de son intervention. Ce chercheur chez Facebook AI Research (FAIR) à Paris a cité les biais du logiciel Compass, utilisé dans des tribunaux américains pour estimer le risque de récidive de prévenus afin de moduler leur peine : la couleur de la peau est un critère important pour le logiciel, qui prédit plus de risques de récidive pour les personnes à la peau noire.
Le chercheur a aussi pointé les attaques dites « adversariales », fameuses pour faire prendre des pandas pour des gibbons aux réseaux de neurones. Quelques pixels soigneusement retouchés sur une image – une modification invisible à l’humain – suffisent à tromper le modèle. De même, des rectangles blancs judicieusement collés sur un panneau « stop » peuvent conduire un modèle de deep learning à ne voir qu’une limitation de vitesse… Autrement dit, certains des critères retenus par les modèles pour classer ce qu’ils voient sont absurdes et ouvrent la porte à des erreurs.
Mettre les relations de cause à effet au cœur de l’apprentissage
Face à ces vulnérabilités, certains proposent des approches radicalement différentes. David Lopez-Paz, chercheur de FAIR Paris, veut remettre les relations de cause à effet au cœur de l’apprentissage. Il a ainsi développé des outils de machine learning pour distinguer les relations causales de simples corrélations.
Pour être sûr de capturer l’essence d’un phénomène causal sans apprendre des corrélations fortuites, David Lopez-Paz propose aussi une méthodologie consistant à entraîner les algorithmes sur des jeux de données différents pour ne conserver que les lois capturées dans toutes les situations. Celles qui relèvent donc du phénomène à modéliser et pas de perturbation. De quoi, selon lui, éviter la vulnérabilité aux attaques adversariales.
De son côté, Patrice Simard, pionnier du deep learning et à la tête d’une équipe de recherche de Microsoft, pousse à un changement de paradigme avec une approche qu’il baptise « Machine Teaching ». « Que la machine extraie le savoir de l’humain plutôt que des données », prône-t-il.
Le Machine Teaching met l’humain aux manettes
Prenant le contre-pied du deep learning, qui va directement apprendre à partir des données brutes en construisant ses propres critères de décision, le Machine Teaching met l’humain aux manettes. C’est lui qui guide l’apprentissage, en indiquant et validant des critères à l’algorithme.
A la clé, là encore, la capture plus étroite des phénomènes étudiés et une moindre vulnérabilité aux attaques. Mais pas seulement : « comme cela a été le cas pour la programmation, il s’agit de privilégier la productivité des humains à la performance brute des algorithmes », pointe le chercheur.
Mettant la technicité des algorithmes au second plan, « le Machine Teaching va permettre aux centaines de millions d’experts métiers, médecins, ingénieurs, etc. de faire appel au machine learning, au lieu des quelques dizaines de milliers de spécialistes de la discipline », avance Patrice Simard. De quoi accélérer la révolution.
Source : usinenouvelle.com
Beaucoup de défis restent à relever si on parle de l’IA. Le ML est de plus en plus exploité. Quant au DL, c’est vrai qu’il est assez « sauvage » car il faut bien le dompter. Une seule petite erreur de son auto-apprentissage peut être fatal. L’exemple du panda et du stop illustre bien la complexité encore en cours du DL.
Bonjour,
Très bon article. Très intéressant. Certes, tout le monde ne connaît pas encore les enjeux de l’IA. Une fois, que tout le monde saura tous les avantages que peut apporté l’usage de l’intelligence artificielle, tout le monde se tournera vers cette solution très futuriste.