Défis scientifiques

Afin de structurer la feuille de route stratégique de la recherche à l’IRT SystemX, 20 défis scientifiques ont été identifiés. Ils sont le résultat d’un travail collaboratif avec le Conseil Scientifique et Technologique de l’institut et avec ses partenaires industriels et académiques.

Défis scientifiques associés à l’axe 1 – Science des données et Interaction

Les techniques d'apprentissage statistique sont à la base de solution de classification d'information, de détection ou de régression à la fois robustes, parcimonieuses et évolutives. Elles s'appliquent à une grande variété de variables (signaux, images, vidéo, texte, données relationnelles, graphes, log data, séquences, etc.). Les dernières avancées en matière de deep learning ouvrent des perspectives particulièrement attrayantes sur les grands volumes de données en tirant partie simultanément des avantages des approches supervisées et non supervisées. La préparation des dataset, le choix des algorithmes, ainsi que leurs réglages et mises en œuvre, restent un travail d'expertise sur lequel il convient de progresser.
La recherche de causalité peut être considérée comme un problème de reconnaissance des causes et de leurs effets. Ces causalités sont d'un grand intérêt industriel en particulier si l'on s'intéresse à l'enchainement descriptif/prédictif/prescriptif qui doit être parcouru pour la mise au point in fine d'outils d'aide à la décision. Une branche très active des sciences des données concerne l'inférence causale, à la fois pour l'apprentissage des structures causales sous-jacentes et pour l'inférence des prédictions. Les modèles graphiques probabilistes (réseaux bayésiens) fournissent un cadre théorique riche pour structurer les relations de dépendance entre des variables et les probabilités associées à leurs états et à leurs interactions. Ces représentations profitent simultanément de la théorie des modèles graphiques, de la théorie des probabilités et de l'apprentissage statistique.
L'apprentissage par renforcement, réalise une connexion entre la théorie du contrôle optimal et celui de l'apprentissage statistique. Il consiste à considérer un agent autonome prenant itérativement des décisions basées sur l'état courant du processus et de l'environnement considéré comme une variable stochastique partiellement observable. En retour, l'agent est récompensé, positivement ou négativement, et la somme de ses récompenses fait l'objet d'une optimisation sur un horizon temporel donné. Cette technique s'avère très efficace pour les problèmes d'aide à la décision pour les systèmes autonomes.
Les systèmes techniques intégrant des briques d'intelligence artificielle doivent faire la preuve, comme les autres, de leur performance, de leur niveau de sécurité et de leur adaptabilité pour réussir leur déploiement industriel. Les preuves de programme ne sont pas applicables aujourd'hui aux systèmes connexionnistes du fait de leur trop grande complexité. Ce champ est bien sûr à investiguer, mais en parallèle, il convient d'avancer sur la robustesse, la sensibilité des algorithmes, leurs modes d'évaluation sur des corpus hybridant données réelles et données simulées et en utilisant des approches " adverserial " pour les contraindre. Pour l'explicabilité, l'introduction d'approches sémantique et à base de connaissances dans la sphère de l'apprentissage est sans doute une piste à investiguer.
Pour comprendre les espaces dans lesquels les systèmes évoluent et les trajectoires qu'ils génèrent, la visualisation des données en grande dimension est devenue une discipline à part entière. La réduction de dimensionnalité, la navigation ergonomique dans les dataset et une meilleure intelligibilité des résultats sont les attendus principaux de ces techniques, en particulier pour les données spatio-temporelle et pour les données de type graphe. Également, les interfaces homme-machine sont aujourd'hui un champ d'investigation incontournable pour rendre les interactions humains - systèmes complexes plus fluides et plus efficaces et pour faciliter ainsi l'aide à la décision des opérateurs.

Défis scientifiques associés à l’axe 2 – Calcul scientifique et Optimisation

Afin de maitriser le cycle de conception, les modèles numériques décrivent de manière toujours plus fine la physique et la géométrie des systèmes. Ces modèles sont donc multi-physiques et multi-échelles. Des solutions HPC de co-simulation et de couplage de sous-modèles doivent être investiguées pour assurer la convergence et la qualité des simulations ; de même, pour certains problèmes complexes, la réduction de modèle est une voie indispensable pour réduire le temps de calcul.
La simulation dans le contexte de l'entreprise étendue pose beaucoup de questions lorsqu'un assembleur doit simuler son système à partir des modèles de chaque composant fournis par des partenaires indépendants. Des solutions non intrusives d'orchestration des simulations doivent être développées pour garantir la confidentialité des données de chaque sous-modèle. Par ailleurs, la compréhension macroscopique du fonctionnement d'un système constitué d'une multitude de parties en réseau, tire bénéfice des approches de simulation distribuée dite multi-agents (SMA) qui permettent de mettre en évidence certains phénomènes émergents par l'assemblage de simulations microscopiques.
La prise en compte des incertitudes dans les modélisations est un impératif pour mettre au point des solutions robustes. Qu'il s'agisse de problèmes de planification ou de conception, les industriels cherchent à gérer les marges de conception pour parvenir à des solutions optimisées. Or ces marges peuvent être modélisées par des distributions statistiques sur les paramètres de conception ou par d'autres théories (théorie de l'évidence, logique floue, etc.). Le défi repose donc autant sur la modélisation des incertitudes, que sur leur propagation dans la résolution des problèmes directs et inverses relatifs aux systèmes complexes.
La gestion des problèmes de forte dimensionnalité ainsi que la volonté de trouver des solutions technologiques en rupture amène à résoudre des problèmes d'optimisation de grande taille tant par le nombre de variables que par le nombre de contraintes à respecter. Des techniques spéciales doivent être investiguées pour cela, incluant des approches stochastiques, par krigeage ou par décomposition-coordination.
Certains problèmes de planification requièrent de trouver des réponses très rapidement et parfois " au fil de l'eau ". C'est le cas par exemple des problèmes de re-routage d'un réseau de transport ou d'électricité, ou de processus de conception à cahier des charges évolutif. Ces problèmes nécessitent le développement et l'utilisation d'algorithmes spécifiques capable de donner une bonne solution en temps contraint.

Défis scientifiques associés à l’axe 3 – Ingénieries système et logicielle

Aujourd'hui, la survie d'une entreprise dépend pour beaucoup de sa capacité à collaborer avec ses partenaires / fournisseurs de manière intelligente et optimale pour répondre rapidement à la demande. La mise en œuvre de réseaux de collaboration " gagnant-gagnant " pose un certain nombre de challenges pour pouvoir être efficaces : échange d'information pertinente, exposition contrôlée de la donnée, réconciliation de points de vue, orchestration de processus et prise de décision collaborative.
Pour mener à bien la conception de systèmes critiques complexes, il est nécessaire de disposer d'outils de modélisation qui apportent une aide à la démonstration de leurs propriétés attendues (fonctionnelles et non fonctionnelles). D'une part, la nature hétérogène des sous-systèmes peut favoriser l'apparition de comportements émergents. D'autre part, le raffinement d'un niveau d'abstraction à un autre ne permet pas toujours de garantir que les propriétés qui ont été démontrées au plus haut niveau sont conservées à un niveau plus bas. Les méthodes formelles aident à solutionner ces types de problèmes.
Les approches actuelles en sûreté de fonctionnement peinent à considérer la dynamique des systèmes qu'ils modélisent. En effet, ces approches consistent à prouver des propriétés de sûreté à partir d'une image du système, établie à un instant donné, par des analyses sur des arbres de défaillance par exemple. Il serait important d'élargir ces approches pour étudier notamment les séquences d'événements qui peuvent amener à un état non désiré du système, en particulier lorsque ce dernier change de propriétés au cours du temps.
Aujourd'hui, la création de valeur ajoutée pour répondre à la demande ou l'anticiper nécessite la mise en œuvre de méthodologies coûteuses. Une manière de pallier à cela est de mettre en œuvre la composition cohérente de services sur la base d'architectures ouvertes. Même si cette approche fonctionne en théorie, des travaux de recherche sont en cours pour rendre cette approche plus efficiente.
La transition entre le monde de la spécification système au monde de la réalisation matériel / logiciel est aujourd'hui une activité manuelle chronophage car les choix de réalisation de fonctions systèmes en logiciel ou matériel sont nombreux. Pour arriver à des choix d'implantation qui tiennent compte des contraintes de performances imposées par le client (WCET, consommation, etc.), il est nécessaire de tester un grand nombre de configurations. Il y a alors un intérêt fort à pousser des travaux de recherche pour la résolution optimale de ce problème, en conception comme en exploitation (reconfiguration dynamique).

Défis scientifiques associés à l’axe 4 – Infrastructure et Réseaux

La connectivité et l'interopérabilité d'objets à connecter doivent prendre en compte différentes contraintes (temps réel, énergie, profondeur de stockage, etc.). Les réseaux fédérateurs d'objets connectés et communicants soulèvent des défis autour des standards de l'interopérabilité, de la sécurité, du traitement de la données (local vs global), etc.
En plus d'adresser des défis sur la détection d'attaques et de signaux faibles, on s'intéresse aussi à des algorithmes de chiffrement homomorphe pour des données de plus en plus protégées.
La virtualisation et l'urbanisation des réseaux fournissent des services de connectivité agiles et à la demande. La virtualisation permet en particulier de construire des slices pour une multi-tenancy adaptée. Les défis sous-jacents concernent notamment le partage des ressources réseaux, la qualité de service à offrir, la consommation énergétique des data centers, etc.
Beaucoup de secteurs industriels et de services s'intéressent aux technologies autorisant des prises de décision horizontalisées, un partage de ces décisions et la garantie de leur inviolabilité. Ce défi propose d'étudier des problèmes de décentralisation et d'échanges par des contrats dits intelligents et les différentes technologies blockchain associées. Des sujets de passage à l'échelle et de stockage de gros volumes de données représentent des défis importants à adresser pour ces technologies.
Ce défi propose une alternative au cloud pour satisfaire des contraintes de sécurité ou de latence faible. Le recours à ce type d'approches a pour but de proposer des architectures de traitement et de stockage de plus en plus robustes et disponibles en opérant des choix raisonnés entre traitement local vs traitement global.