Il est indéniable que l’intelligence artificielle est aujourd’hui critique pour la compétitivité de l’industrie. Dans ce contexte, l’intégration et/ou l’utilisation sûre des technologies à base d’intelligence artificielle est essentielle à la fois pour soutenir l’ingénierie, la production industrielle et le développement de produits et services innovants. « L’industrialisation de l’intelligence artificielle pour les systèmes critiques » est un des objectifs majeurs du Grand Défi IA de confiance de l’état. Cet impératif d’industrialisation nécessite d’apporter un environnement en support à la conception, à la validation et au test. Il s’attachera à renforcer la confiance, l’explicabilité, voire de permettre la certification de l’intelligence artificielle. Un collectif d’industriels majeurs dans les domaines de la Défense, des Transports, et de l’Energie, s’est constitué pour accompagner la feuille de route de ce Grand Défi / confiance.ai, avec le soutien de partenaires académiques de premier plan. L’Institut de Recherche Technologique SystemX coordonne ce programme.

L’IRT SystemX est situé au cœur du campus scientifique d’excellence mondiale de Paris-Saclay, et porte les ambitions d’un centre de recherche technologique de niveau international dans le domaine de l’ingénierie numérique des systèmes. Il a pour mission de générer de nouvelles connaissances et solutions technologiques en s’appuyant sur les percées de l’ingénierie numérique et de diffuser ses compétences dans tous les secteurs économiques.

Le sujet de postdoc a été défini par le consortium réuni dans le cadre du programme confiance.ai et plus précisément dans son projet EC3x, en lien étroit avec Pierre Marquis du laboratoire CRIL (UMR CNRS 8188 / université d’Artois), situé à Lens.

Au sein de l’IRT SystemX, le postdoctorant ou la postdoctorante sera rattaché hiérarchiquement à l’équipe « Science des données, IA, Interaction » dont le responsable est Loic Cantat, et fonctionnellement aux chefs de projet Rodolphe GELIN et Philippe Dejean

Le poste est basé à Palaiseau. Le postdoctorant ou la postdoctorante pourra être amené à se déplacer au laboratoire partenaire.

La durée du contrat CDD postdoctoral est de 18 mois.

Poste

Etat de l’art

Le projet proposé, baptisé pinte (explications intelligibles), concerne le thème « caractérisation et qualification de l’IA de confiance » et plus précisément les « méthodes et la métrologie de l’explicabilité ». Il s’inscrit dans un courant de recherche pour l’IA explicable, qui se développe en France et au niveau international, et dont l’origine repose sur un double constat :

1) à tout prédicteur (en particulier, ceux de type « boîte noire » comme les réseaux de neurones ou les forêts aléatoires) on peut toujours associer un circuit (booléen ou arithmétique), une « boîte blanche » (ou « transparente »)  qui a le même comportement que le prédicteur en terme d’entrées-sorties, tout en étant intrinsèquement plus simple,

2) les tâches d’explication (possiblement contrefactuelles) des prédictions réalisées et de vérification du fonctionnement de la « boîte noire » peuvent être réalisées en s’appuyant sur la « boîte blanche » associée.

Si la traduction des prédicteurs sous forme de circuits constitue une approche pour l’explication des résultats qu’ils fournissent et leur vérification, les tâches sous-jacentes restent difficiles du point de vue de la complexité de calcul. Ainsi, les questions de calcul d’explication (abductives ou contrefactuelles) ou de vérification (proximité entre classes, identification de biais, etc.) sont toutes NP-difficiles mais nous avons montré récemment qu’elles peuvent être résolues en mettant les circuits considérés sous une forme adaptée [Audemard et al., 2020].

 

Approche méthodologique proposée

Le projet pinte sera focalisé sur la problématique du calcul d’explications intelligibles. L’intelligibilité des explications est une question complexe [Lipton, 2018] [Miller, 2019] [Srinivasan and Chander, 2020], pour plusieurs raisons (nature du lien entre données et prédictions, taille, structure, nombre d’explications possibles, dépendance à l’utilisateur, etc.). Par ailleurs, plusieurs types d’explications des prédictions réalisées peuvent être définies [Shih et al., 2018]. Ces explications peuvent être plus ou moins difficiles à identifier, calculer, énumérer. Les éléments de complexité en jeu dépendent bien entendu du prédicteur « boîte noire » de départ et de la qualité de la traduction en « boîte blanche » qui a été réalisée.

La disponibilité de connaissances du domaine (incluant l’expertise métier et les préférences utilisateur) a été peu exploitée jusqu’ici pour produire des explications de prédictions mais apparaît comme un levier intéressant pour calculer des explications pertinentes (par exemple, parce que ces connaissances se basent sur un ensemble de concepts que l’utilisateur à qui les explications sont destinées connaît) et pour simplifier ou reformuler les explications produites de façon à les rendre plus intelligibles. Comme le nombre d’explications possibles est en général de taille exponentielle dans le nombre d’attributs servant à décrire les instances à classer (même pour des modèles simples, considérés comme « interprétables », de type arbre de décision), la prise en compte de préférences utilisateur est un moyen de se focaliser sur les « meilleures explications », de réduire la taille de l’ensemble des explications à considérer et d’accroître ainsi l’intelligibilité des explications transmises à l’utilisateur.

Selon la forme qu’elles pourront revêtir (liée aux domaines d’application qui seront considérés), on pourra utiliser divers outils de raisonnement automatique (solveurs de contraintes, compteurs de modèles, etc.) pour exploiter les connaissances du domaine de façon à produire des explications intelligibles. Le CRIL possède, en effet, une expertise importante et largement reconnue sur la conception et l’utilisation de tels outils (voir http://www.cril.univ-artois.fr/software/).

Le projet pinte viendra s’adosser au projet appelé EXPEKCTATION (EXPlainable artificial intelligence: a KnowlEdge CompilaTion FoundATION). EXPEKCTATION (ANR-19-CHIA-0005-01) est un projet de type « Chaire ANR d’enseignement et de recherche en IA » dont le CRIL a été lauréat et qui a débuté en septembre dernier. EXPEKCTATION (http://www.cril.univ-artois.fr/expekctation/) concerne le développement d’approches pour un apprentissage automatique interprétable et robuste, utilisant la compilation de connaissances. Le projet pinte se focalisera sur le calcul d’explications pour divers prédicteurs.

Le projet pinte pourra aussi bénéficier des compétences des membres du réseau international de recherche en IA explicable qui se construit dans le cadre du projet H2020 TAILOR « Foundations of Trustworthy AI integrating Learning, Optimisation and Reasoning » (https://tailor-network.eu/), dont le CRIL est l’un des partenaires français.

 

Références bibliographiques

[Audemard et al., 2020] G. Audemard, F. Koriche, and P. Marquis. On tractable XAI queries based on compiled representations. In Proc. of KR’20, pages 838–849, 2020.

[Coste-Marquis and Marquis, 2020] S. Coste-Marquis and P. Marquis. From Explanations to Intelligible Explanations. In Proc. of XLoKR’20, workshop on Explainable Logic-Based Knowledge Representation, held with KR’20, 2020.

[Lipton, 2018] Z. C. Lipton. The mythos of model interpretability. Communications of the ACM, 61(10):36–43, 2018.

[Miller, 2019] T. Miller. Explanation in artificial intelligence: Insights from the social sciences. Artificial Intelligence, 267:1–38, 2019.

[Shih et al., 2018] A. Shih, A. Choi, and A. Darwiche. A symbolic approach to explaining Bayesian network classifiers. In Proc. of IJCAI’18, pages 5103–5111, 2018.

[Srinivasan and Chander, 2020] R. Srinivasan and A. Chander. Explanation perspectives from the cognitive sciences – A survey. In Proc. of IJCAI’20, pages 4812–4818, 2020.

[Xie et al., 2019] Y. Xie, Z. Xu, K. S. Meel, M. S. Kankanhalli, and H. Soh. Embedding symbolic knowledge into deep networks. In Proc. of NeurIPS’19, pages 4235–4245, 2019.

[Xu et al., 2018] J. Xu, Z. Zhang, T. Friedman, Y. Liang, and G. Van den Broeck. A semantic loss function for deep learning with symbolic knowledge. In Proc. of ICML’18, volume 80, pages 5498–5507, 2018.

Profil

Titulaire d’un doctorat avec des connaissances générales en IA et une spécialité en apprentissage automatique.

Compétences scientifiques et techniques :

  • Les bases scientifiques indispensables pour la maitrise des modèles d’apprentissage machine, de leur évaluation, de leur déploiement ;
  • Plus spécifiquement, les modèles et outils existants pour l’IA explicable (comme LIME, Anchor, SHAP) ;
  • La compréhension des problématiques fonctionnelles et des enjeux numériques des systèmes complexes et leur application sur des cas d’usage ;
  • Des connaissances technologiques nécessaires pour la conception, la définition et la mise en œuvre des outils de Machine Learning et de développement logiciel (scikitlearn, tensorflow, pytorch, python).

 

Qualités professionnelles et relationnelles :

  • Curiosité, esprit d’initiative, capacité d’analyse et rigueur
  • Adaptabilité et autonomie, aisance relationnelle
  • Capacité à travailler en mode projet: suivi et avancement des travaux,
  • Aptitude à la valorisation et la communication des résultats sous forme de publications, brevet…
  • Très bonne communication orale et écrite en français et anglais.

 

L’IRT SystemX est engagé en faveur de l’égalité des chances. A ce titre, tous nos postes sont ouverts aux candidats en situation de handicap. 

Pour ce poste basé au sein du cluster Paris-Saclay (91), des déplacements occasionnels sont à prévoir en région parisienne et auprès du laboratoire CRIL à Lens.

Référence : DOP 232
Pour postuler : candidate@confiance.ai

Informations clés

Type de contrat : CDI
Localisation du poste : Cluster Paris Saclay (91)


Postuler à cette offre d’emploi


Mots-clés :


Partager cette offre d’emploi :

Inscrivez-vous à la newsletter de l'IRT SystemX

et recevez chaque mois les dernières actualités de l'institut :