Aller au contenu principal
CNRS recrutement

Doctorant en Vérification de Propriétés Probabilistes pour l'Intelligence Artificielle H/F CNRS

Palaiseau - 91
CDD
Résumé de l'offre
  • Bac +5
  • Service public des collectivités territoriales

Détail du poste

L'IA est désormais intégrée à un certain nombre d'applications de la vie quotidienne. De plus en plus, nous dépendons des réseaux de neurones pour effectuer même des tâches critiques, comme le contrôle et la planification de déplacement des voitures autonomes, et il est primordial de pouvoir vérifier leur comportement correct.
Pour certaines applications, comme la perception dans les systèmes autonomes, on ne peut qu'espérer une sécurité probabiliste grâce aux classificateurs. De plus, dans les systèmes réels, des modèles précis et représentatifs des données ne sont pas toujours disponibles. Par exemple, plusieurs modèles probabilistes peuvent être plausibles pour décrire un problème, ou un modèle probabiliste peut être connu mais avec des paramètres incertains. Par conséquent, nous devons considérer à la fois les informations probabilistes et l'incertitude épistémique. Récemment a été introduite dans [1] une approche basée sur des probabilités imprécises ou p-boxes, qui généralisent les incertitudes probabilistes et épistémiques en définissant des ensembles de distributions de probabilité, pour la vérification quantitative des réseaux de neurones. Cette approche fournit des mesures qualitatives de la probabilité que les sorties d'un réseau neuronal présentent un certain comportement, compte tenu de certaines hypothèses sur les entrées spécifiées comme probabilités imprécises. Sur la base d'une abstraction et d'une propagation d'ensembles de distributions de probabilité dans des réseaux neuronaux, la probabilité d'une satisfaction de propriété peut être limitée et les régions de l'espace d'entrée les plus susceptibles de conduire à une violation de propriété peuvent être identifiées.
L'approche de [1] s'est avérée à la fois plus générale et plus efficace en terme de calcul que l'état de l'art. Cependant, de nombreux défis restent à relever quant à l'applicabilité à des problèmes du monde réel. Comme point de départ du problème, les extensions suivantes peuvent être étudiées :
- L'abstraction actuelle des p-boxes repose sur une discrétisation en escalier à pas constant qui s'adaptera difficilement à la dimension d'entrée des réseaux ; nous aimerions explorer d'autres abstractions ;
- L'indépendance est actuellement supposée entre les entrées du réseau ; nous aimerions également gérer les distributions d'entrées multivariées, par exemple en utilisant des copules [4] comme par ex. [2].
Un objectif à plus long terme est d'étudier l'extension de l'approche à l'analyse des réseaux de neurones bayésiens, où les poids et les biais du réseau sont également définis par des distributions de probabilité multivariées (imprécises). Cela étend le cas des distributions d'entrées multivariées, mais dans une dimension beaucoup plus élevée, nécessitant probablement une nouvelle vision de l'approche. Enfin, le projet étudiera l'application à l'un ou aux deux des éléments suivants :
- Application à la sécurité des systèmes autonomes, comme la robustesse de perception et de décision dans la vision de drones avec des informations probabilistes imprécises sur les trajectoires ;
- Contribution à l'analyse d'équité et plus généralement à l'explicabilité du comportement du réseau [3].
[1] Eric Goubault and Sylvie Putot. A zonotopic Dempster-Shafer approach to the quantitative verification of neural networks. In Formal Methods : 26th International Symposium, FM 2024, Milan, Italy, September 9-13, 2024, Proceedings, Part I, page 324-342, Berlin, Heidelberg, 2024. Springer-Verlag.
[2] Ander Gray, Marcelo Forets, Christian Schilling, Scott Ferson, and Luis Benet. Verified propagation of imprecise probabilities in non-linear odes. International Journal of Approximate Reasoning, 164, 2024.
[3] Rabia Saleem, BO Yuan, Fatih Kurugollu, Ashiq Anjum, and Lu Liu. Explaining deep neural networks : A survey on the global interpretation methods. Neurocomputing, 513 :165-180, 2022.
[4] Bernhard Schmelzer. Random sets, copulas and related sets of probability measures. International Journal of Approximate Reasoning, 160 :108952, 2023.
Contexte de travail
Le LIX (Laboratoire d'Informatique de l'Ecole Polytechnique) est une unité mixte de recherche avec deux établissements de tutelle, l'École Polytechnique, membre de l'Institut Polytechnique de Paris (pôle d'universités composé de l'Ecole Polytechnique, Télécom Paris, ENSTA Paris, Télécom Sud Paris, ENSAE), et le Centre National de la Recherche Scientifique (CNRS), et un partenaire, Inria Saclay, avec des bâtiments partagés et des équipes mixtes.

Le LIX est organisé en quatre pôles : « Mathématiques informatiques », « Analyse de données et apprentissage automatique », « Communications efficaces et sécurisées », « Modélisation, simulation et apprentissage » et « Preuves et algorithmes ». Le doctorat. L'étudiant fera partie de l'équipe Cosynus dans le pôle « Preuves et Algorithmes ». Les membres de l'équipe Cosynus travaillent sur la sémantique et l'analyse statique des systèmes logiciels, séquentiels, concurrents ou distribués, hybrides/contrôle et des systèmes cyber-physiques.

Le doctorant bénéficiera de l'environnement passionnant du LIX, notamment du Département d'Informatique de l'Ecole Polytechnique (DIX), dans lequel il pourra donner des cours, et du Département d'Informatique, de Données et d'Intelligence Artificielle de l'Institut Polytechnique de Paris. (IDIA). Il ou elle interagira également avec les membres du projet SAIF (Safe Artificial Intelligence through Formal Methods), du Programme National de Recherche sur l'Intelligence Artificielle PEPR IA.

Le poste se situe dans un secteur relevant de la protection du potentiel scientifique et technique (PPST), et nécessite donc, conformément à la réglementation, que votre arrivée soit autorisée par l'autorité compétente du MESR.
Contraintes et risques
Pas de contrainte ni risque particulier, ceux inhérents à un travail de recherche.
Début de thèse prévu au 1er octobre 2025, éventuellement possible plus tôt (financement disponible)

L'adresse du poste

Localisez l'entreprise et calculez votre temps de trajet en un clic !

Calculer mon temps de trajet

Hellowork a estimé le salaire pour ce métier à Palaiseau

Le recruteur n'a pas communiqué le salaire de cette offre mais Hellowork vous propose une estimation (fourchette variable selon l'expérience).

Estimation basée sur les données INSEE et les offres d’emploi similaires.

Estimation basse

37 500 € / an 3 125 € / mois 20,60 € / heure

Salaire brut estimé

47 500 € / an 3 958 € / mois 26,10 € / heure

Estimation haute

62 500 € / an 5 208 € / mois 34,34 € / heure

Cette information vous semble-t-elle utile ?

Merci pour votre retour !

Doctorant en Vérification de Propriétés Probabilistes pour l'Intelligence Artificielle H/F
  • Palaiseau - 91
  • CDD
Publiée le 10/03/2025 - Réf : UMR7161-SYLPUT-004 Nombre de Postes

Finalisez votre candidature

sur le site du recruteur

Créez votre compte pour postuler

sur le site du recruteur !

Ces offres pourraient aussi
vous intéresser

KPMG recrutement
KPMG recrutement
Courbevoie - 92
CDI
Voir l’offre
plus de 1 mois
FACTOFRANCE SAS recrutement
Courbevoie - 92
CDI
50 000 - 70 000 € / an
🏡 Télétravail partiel
Voir l’offre
il y a 24 jours
Voir plus d'offres
Les sites
L'emploi
  • Offres d'emploi par métier
  • Offres d'emploi par ville
  • Offres d'emploi par entreprise
  • Offres d'emploi par mots clés
L'entreprise
  • Qui sommes-nous ?
  • On recrute
  • Accès client
Les apps
Application Android (nouvelle fenêtre) Application ios (nouvelle fenêtre)
Informations légales CGU Politique de confidentialité Gérer les traceurs Aide et contact
Nous suivre sur :