L'offre Stage R&D en IA (mathématiques appliquées et deep learning - PERICLES I2C) H/F (2020-18675) a été sauvegardée.

Continuer

Offre sauvegardée

Entrez votre adresse e-mail pour enregistrer ce travail

Vous enregistrez ce travail sous:

FR
retour à la liste

Stage R&D en IA (mathématiques appliquées et deep learning - PERICLES I2C) H/F (2020-18675) posté par EDF France

Cette annonce expire dans 6 jours
Stage
Palaiseau

Description de l'offre



Description de l'offre

Comparaison d’Approches Basées Voxels pour la Détection d’Objets 3D à Grande Echelle par réseau de neurones profond

Engagé depuis 2014 par EDF, le Grand Carénage est un programme industriel de rénovation et de modernisation des centrales nucléaires existantes afin d’en améliorer la sûreté.
Dans ce cadre, la R&D d’EDF a lancé une campagne de numérisation de l’intégralité de son parc nucléaire. L’objectif est de réaliser un “jumeau numérique” de chaque centrale et de constituer ainsi une documentation complète de ses installations nucléaire telles que construites.
Ce processus de reconstruction est actuellement réalisé en grande partie par l’intervention humaine, ce qui allonge le temps nécessaire pour construire la maquette d’une installation et accroît considérablement son coût.
Son automatisation, à travers notamment la détection automatique d’objets au sein de données brutes, constitue donc un enjeu important.
EDF dispose d’une grande quantité de données brutes géoréférencées :
- Des scans lasers produisant des nuages de points 3D denses
- Des images panoramiques haute résolution
Depuis 2016 et la publication de PointNet [1], l’apprentissage profond 3D (3D deep learning ou geometric deep learning [2]) constitue un domaine majeur d’innovation dans le domaine de la reconnaissance d’objets.

A la suite de PointNet, on observe un intérêt particulier pour des approches similaires, exploitant directement un nuage de points en entrée ([3], [4], [5]). Les représentations internes de ces architectures ne permettent toutefois pas d’exploiter directement un opérateur de convolution ou de mettre à jour d’éventuelles dépendances spatiales multi-échelles entre points ([6]), essentielle lorsque le nuage de points à analyser est de grande taille. A l’inverse, une représentation d’un nuage de points par une grille de voxels dispose naturellement de ces deux outils.
Plusieurs approches récentes exploitent cette caractéristique appréciable d’une représentation voxel pour résoudre un problème de détection d’objets et/ou de segmentation sémantique ([7],[8],[9],[10], ...).

L’objectif de ce stage est d’établir une comparaison entre une architecture exploitant directement un nuage de points de grande taille et des architectures récentes utilisant une représentation type voxel pour la détection d’objets :
• Sélection d’un échantillon représentatif d’approches basées voxel ;
• Comparaison de cette sélection par rapport à une baseline type PointNet ;
• Etude structurelle de l’espace d’invariants produits par une approche type PointNet lorsque les points donnés en entrée sont structurés suivant une grille ou échantillonnés de manière aléatoire.

Conditions requises



Profil souhaité

Compétences requises
• Étudiant(e) préparant un diplôme de niveau Ingénieur/Master, idéalement spécialisé en mathématiques appliquées (probabilités, optimisation, etc.), et/ou vision par ordinateur.
• Connaissances en apprentissage supervisé et en deep learning.
• Maîtrise de Python et familiarité avec une librairie d’apprentissage profond (PyTorch, TensorFlow).
• Des connaissances en géométrie et analyse de donnée

Le stagiaire bénéficiera d’une base de données importante pour l’apprentissage des réseaux de neurones ainsi qu’un environnement de calculs haute performance (High Performance Computing ; HPC) avec l’accès à 10 nœuds graphiques composés chacun de 2 GPUs Nvidia V100.


Références
[1] QI, Charles R., SU, Hao, MO, Kaichun, et al. Pointnet: Deep learning on point sets for 3d classification and segmentation. In : Proceedings of the IEEE conference on computer vision and pattern recognition. 2017. p. 652-660.
[2] BRONSTEIN, Michael M., BRUNA, Joan, LECUN, Yann, et al. Geometric deep learning: going beyond euclidean data. IEEE Signal Processing Magazine, 2017, vol. 34, no 4, p. 18-42.
[3] QI, Charles Ruizhongtai, YI, Li, SU, Hao, et al. Pointnet++: Deep hierarchical feature learning on point sets in a metric space. In : Advances in neural information processing systems. 2017. p. 5099-5108.
[4] LI, Yangyan, BU, Rui, SUN, Mingchao, et al. Pointcnn: Convolution on x-transformed points. In : Advances in neural information processing systems. 2018. p. 820-830.
[5] WANG, Yue, SUN, Yongbin, LIU, Ziwei, et al. Dynamic graph cnn for learning on point clouds. Acm Transactions On Graphics (tog), 2019, vol. 38, no 5, p. 1-12.
[6] SU, Hang, JAMPANI, Varun, SUN, Deqing, et al. Splatnet: Sparse lattice networks for point cloud processing. In : Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018. p. 2530-2539.
[7] MENG, Hsien-Yu, GAO, Lin, LAI, Yu-Kun, et al. Vv-net: Voxel vae net with group convolutions for point cloud segmentation. In : Proceedings of the IEEE International Conference on Computer Vision. 2019. p. 8500-8508.
[8] WANG, Bei, AN, Jianping, et CAO, Jiayan. Voxel-FPN: multi-scale voxel feature aggregation in 3D object detection from point clouds. arXiv preprint arXiv:1907.05286, 2019.
POUX, Florent et BILLEN, Roland. Voxel-based 3D point cloud semantic segmentation: unsupervised geometric and relationship featuring vs deep learning methods. ISPRS International Journal of Geo-Information, 2019, vol. 8, no 5, p. 213.
[9] YANG, Zetong, SUN, Yanan, LIU, Shu, et al. Std: Sparse-to-dense 3d object detector for point cloud. In : Proceedings of the IEEE International Conference on Computer Vision. 
[10] SHI, Shaoshuai, GUO, Chaoxu, JIANG, Li, et al. Pv-rcnn: Point-voxel feature set abstraction for 3d object detection. In : Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition

Numéro de référence

EDF-2020-18675

Offres similaires

Recevoir des offres similaires

Merci Vous allez recevoir des offres à l'adresse email