Rejoignez l’IRT SystemX afin d’imaginer et concevoir un monde numérique plus sûr, plus performant et plus durable. Aux côtés de nos partenaires industriels et académiques, nos ingénieurs-chercheurs adressent de nouveaux usages qui répondent aux grands enjeux de notre temps, sociétaux et technologiques. Ensemble, nous accélérons la transformation numérique des industries, des services et des territoires.
Vous désirez vous accomplir au sein d’une équipe jeune à l’expertise reconnue ? Avec nos 140 collaborateurs, prenez une part active au développement d’un institut de recherche technologique (IRT) de niveau international, dans le domaine de l’ingénierie numérique des systèmes. Vous découvrirez l’intérêt stimulant de nos projets collaboratifs au sein d’un campus scientifique d’excellence mondiale : le cluster Paris-Saclay.
Il est indéniable que l’intelligence artificielle est aujourd’hui critique pour la compétitivité de l’industrie. Dans ce contexte, l’intégration et/ou l’utilisation sûre des technologies à base d’intelligence artificielle est essentielle à la fois pour soutenir l’ingénierie, la production industrielle et le développement de produits et services innovants. « L’industrialisation de l’intelligence artificielle pour les systèmes critiques » est un des objectifs majeurs du Grand Défi IA de confiance de l’état. Cet impératif d’industrialisation nécessite d’apporter un environnement en support à la conception, à la validation et au test. Il s’attachera à renforcer la confiance, l’explicabilité, voire de permettre la certification de l’intelligence artificielle. Un collectif d’industriels majeurs dans les domaines de la Défense, des Transports, et de l’Energie, s’est constitué pour accompagner la feuille de route de ce Grand Défi / confiance.ai, avec le soutien de partenaires académiques de premier plan. L’Institut de Recherche Technologique SystemX coordonne ce programme.
Le sujet de postdoc a été défini par le consortium réuni dans le cadre du programme confiance.ai et plus précisément dans son projet EC2x, en lien étroit avec Christine Balagué du laboratoire LITEM (Université Paris Saclay) et Dominique Cardon, directeur du medialab, Sciences Po.
Au sein de l’IRT SystemX, le postdoctorant ou la postdoctorante sera rattaché hiérarchiquement à l’équipe « Interaction, Usage et Connaissances ».
Le poste est basé à Palaiseau. Le postdoctorant ou la postdoctorante pourra être amené à se déplacer au laboratoire partenaire.
La durée du contrat CDD postdoctoral est de 18 mois.
Poste
Etat de l’art – Plateforme d’autopsie de l’IA Face aux différents incidents techniques et sociaux posés par l’IA, ces dernières années ont connu la naissance d’un certain nombre de communautés académiques en IA pour traiter le problème de l’interprétabilité [1] (XAI) ou de l’équité [2] (FairML) des algorithmes. Cependant les méthodes issues de ces communautés rencontrent aujourd’hui des limites. Bien qu’il existe aujourd’hui des méthodes pour interpréter le Machine Learning tabulaire et catégoriel (Lime [3], Shap [4], etc), il n’existe aujourd’hui aucune méthode générique pour produire des explications stables et contextuelles du Deep learning [5]. De même, concernant l’équité et les biais des algorithmes, bien qu’il existe des métriques pour mesurer et corriger les biais du ML (disparate impact, equal opportunity), il est difficile d’appliquer ces méthodes sur du Deep learning sans variables catégorielles stables (sensitive variable). Aujourd’hui la littérature académique s’accorde à dire que la production d’explication du Machine Learning est contextuelle, c’est à dire qu’elle dépend des raisons de l’explication, de la personne destinataire de l’explication, de la situation de l’explication, du type d’incident qui rend nécessaire l’explication, etc [6]. Il est alors crucial en XAI de ne pas proposer des outils d’explications top-down indépendants du contexte mais, au contraire, des méthodes d’investigation bottom-up qui partent d’un cas contextuel en situation pour le mettre en récit. Or aujourd’hui, les incidents générés par l’IA sont largement diffusés dans la presse ou la littérature scientifique et il existe des bases de données recensant les incidents posés par l’IA [7]. Ces incidents offrent des situations idéales, non pas pour tester des méthodes d’explications préexistantes, mais pour co-construire des méthodes d’investigation contextuelle et bottom-up. Pour ce projet nous nous intéressons à des incidents précis : les incidents d’ordre éthique et social de l’IA. Beaucoup de ces incidents ont la particularité d’être générés par des IA semi-ouvertes, c’est à dire qui mobilisent en partie des bases d’apprentissages publiques, utilisent des méthodes d’apprentissage faisant objet de papier de recherche en accès libre, utilisent des réseaux pré-entrainés en accès libre, etc. Cette relative ouverture de l’IA offre la possibilité de rétro-engineering certains algorithmes afin de simuler les incidents éthiques et les mettre en récit. Il s’agit donc dans ce projet pluridisciplinaire de créer un environnement de mise en récit d’incidents éthiques liés au Deep Learning non catégoriel (image, texte) par la simulation d’incidents. Dit autrement, nous cherchons à développer les outils et méthode d’investigation pour un laboratoire public d’autopsie des algorithmes. La conception de ce laboratoire sera également un dispositif qui vise à explorer la compréhension et l’explicabilité des algorithmes par le (grand) public par la mise à disposition d’outils accessibles de diagnostic d’un incident d’IA. Pour cela, nous proposons la méthode suivante : 1. Identifier un incident de l’IA ayant fait controverse 2. Pour cet incident, identifier dans des répertoires publics (Github ou paper with code) les bases de données d’apprentissage, les réseaux pré-entraînés utilisés, etc. 3. Reproduire le classifieur de Deep Learning lié à l’incident 4. Simuler l’incident éthique 5. Développer des outils d’autopsie pour permettre l’investigation et la production d’explication. Ex : Méthode de visualisation des réseaux de neurone par simulation d’images [8], utilisation de classifieurs annexes pour simuler des transformations d’images 6. Scénariser l’investigation, proposer des mises en récit de l’incident 7. Organiser des ateliers de confrontation avec les utilisateurs 8. Répertorier l’investigation dans une plateforme d’autopsie de l’IA
Proposer des méthodes et outils de radiographie de l’IA permettra de générer une base de connaissance très utile dans les phases de tests avant la mise en production de l’IA. Les méthodes d’investigation proposés dans ce projet peuvent en effet être utilisées pour simuler des scénarios de tests avant la mise en production, diagnostiquer les incidents et générer des explications robustes pendant la phase de production. Il s’agit à la fois de proposer une méthode d’investigation mais aussi des outils accessibles pour réaliser une enquête face à un incident de l’IA. Nous pensons en effet qu’une IA de confiance suppose d’élargir le champ de l’explication des experts vers le grand public par la création d’outils de visualisation d’incidents accessibles tout en prenant en compte la complexité du problème. Un tel laboratoire d’autopsie des algorithmes est aujourd’hui un dispositif manquant dans l’écosystème IA. Pourtant, un organe de contrôle ex-post, transparent, accessible et disposant de moyens techniques précis, est fondamental pour assurer une confiance durable dans l’IA.
[1] Carvalho, Diogo V., Eduardo M. Pereira, and Jaime S. Cardoso. « Machine learning interpretability: A survey on methods and metrics. » Electronics 8.8 (2019): 832. [2] Mehrabi, Ninareh, et al. « A survey on bias and fairness in machine learning. » arXiv preprint arXiv:1908.09635 (2019). [3] Ribeiro, Marco Tulio, Sameer Singh, and Carlos Guestrin. « Model-agnostic interpretability of machine learning. » arXiv preprint arXiv:1606.05386 (2016). [4] Sundararajan, Mukund, and Amir Najmi. « The many Shapley values for model explanation. » International Conference on Machine Learning. PMLR, 2020. [5] Sundararajan, Mukund, and Amir Najmi. « The many Shapley values for model explanation. » International Conference on Machine Learning. PMLR, 2020. [6] Miller, Tim, Piers Howe, and Liz Sonenberg. « Explainable AI: Beware of inmates running the asylum or: How I learnt to stop worrying and love the social and behavioural sciences. » arXiv preprint arXiv:1712.00547 (2017). [7] https://incidentdatabase.ai/discover/index.html [8] https://distill.pub/2017/feature-visualization/
|
Profil
Titulaire d’un doctorat avec des connaissances générales en IA et une spécialité en apprentissage automatique.
Compétences scientifiques et techniques :
- Les bases scientifiques indispensables pour la maitrise des modèles d’apprentissage machine, de leur évaluation, de leur déploiement ;
- La compréhension des problématiques fonctionnelles et des enjeux numériques des systèmes complexes et leur application sur des cas d’usage ;
- Des connaissances technologiques nécessaires pour la conception, la définition et la mise en œuvre des outils de Machine Learning et de développement logiciel (scikitlearn, tensorflow, pytorch, python).
Qualités professionnelles et relationnelles :
- Curiosité, esprit d’initiative, capacité d’analyse et rigueur
- Adaptabilité et autonomie
- Capacité à travailler en mode projet: suivi et avancement des travaux, valorisation et communication des résultats
- Aisance relationnelle, capacité à travailler en équipe, très bonne communication orale et écrite (en français et anglais)
L’IRT SystemX est engagé en faveur de l’égalité des chances. A ce titre, tous nos postes sont ouverts aux candidats en situation de handicap.
Pour ce poste basé au sein du cluster Paris-Saclay (91), des déplacements occasionnels sont à prévoir en région parisienne. Vous travaillerez au sein d’une équipe jeune, sur des projets attractifs et vous bénéficierez d’avantages tels que : mutuelle intéressante, subvention de l’employeur pour la restauration, 3 semaines de congés en plus du légal, congés supplémentaires en fonction de l’ancienneté, 1% logement, comité économique et social, partenariat avec Science Accueil permettant aux collaborateurs étrangers d’obtenir notamment un accompagnement dans les démarches administratives.
Référence : DOP 250
Pour postuler : candidate@confiance.ai
Informations clés
Type de contrat : CDI
Localisation du poste : Cluster Paris Saclay (91)
Postuler à cette offre d’emploi
Mots-clés :