L'offre "Digital Accelerator - Big Data Software Engineer (h/f)" a été sauvegardée.

Continuer

Prêt à postuler ?

Merci de confirmer votre adresse email pour commencer à postuler.
retour à la liste

Digital Accelerator - Big Data Software Engineer (h/f) posté par AIRBUS

N/C
Toulouse
N/A
3 Candidatures

Description de l'offre



Digital Accelerator - Big Data Software Engineer (h/f)



Airbus Blagnac

Airbus est un leader mondial de l’aéronautique, de l’espace, de la défense et des services associés. En 2016, l’entreprise a dégagé un chiffre d’affaires de 67,0 milliards d’euros avec un effectif d’environ 134 000 personnes. Airbus propose la gamme d’avions de transport de passagers la plus complète, de 100 à plus de 600 sièges. Airbus est également le fournisseur d’avion de ravitaillement, de combat, de transport et de mission leader en Europe, ainsi que le numéro un européen et le numéro deux mondial de l’industrie spatiale. Sur le marché des hélicoptères, Airbus fournit les voilures tournantes civiles et militaires les plus performantes au monde.


Nos équipes travaillent avec passion et détermination pour faire du monde un endroit plus connecté, plus sûr et plus intelligent. Fiers de notre travail, nous nous appuyons sur l’expertise et l’expérience de chacun pour atteindre l’excellence. Notre diversité et culture du travail en équipe nous poussent à accomplir l’extraordinaire - sur terre, dans le ciel et dans l’espace.



Description du poste / stage

Êtes-vous passionné(e) par l'informatique, expérimenté(e) dans les technologies de développement logiciel et convaincu(e) de la valeur ajoutée de la numérisation pour l'entreprise ?

Plusieurs postes d'Ingénieurs Logiciel Big Data (h/f) viennent de s'ouvrir au sein d'Airbus Toulouse.

Avec la Transformation Numérique d'Airbus, l'informatique de l'entreprise est complètement repensée, cherchant à créer de la valeur ajoutée.
Le Big Data est un facteur essentiel à cette transformation. Dans ce cadre, les équipes informatiques d'Airbus sont entièrement refaçonnées et recherchent de nouvelles compétences et de nouveaux potentiels.

Les défis sont nombreux et passionnants !

Ce poste vous demandera d'associer votre expérience approfondie du génie logiciel et votre volonté innée d'améliorer les systèmes et procédés actuels à votre esprit de créativité pour élaborer de nouvelles solutions aux enjeux qui sont en constante évolution.



Tâches et missions principales, responsabilités

Vos missions et responsabilités principales seront les suivantes :

  • Élaborer des produits destinés à l'analyse humaine des données issues du monde réel à grande échelle, tout en garantissant une expérience utilisateur intuitive et un large éventail de capacités d'analyse.
  • Prendre part à l'ensemble des stades du cycle de vie du produit : production d'idées, mise à l'étude, prototypage, planification, exécution et livraison.
  • Concevoir et développer des caractéristiques de produit de haute qualité de bout en bout (DevOps) et hautement évolutives et accessibles, à l'aide de plusieurs cadres et outils issus de l'écosystème Big Data.
  • Mettre en œuvre des procédés ETL issus des données principales et transférer ces données dans Data Lake.
  • Contrôler la performance des pipelines de transformation sur Data Lake et apporter des conseils sur n'importe quel changement d'infrastructure requis.
  • Travailler au sein d'une 'Pizza Team' avec des experts métier, des analystes de données, des architectes et des représentants de la gouvernance des données.
  • Mener des recherches sur de nouvelles technologies et solutions, effectuer la démonstration de faisabilité et appliquer ces nouveaux résultats dans notre environnement actuel.
  • Standardiser les procédures d'assurance qualité concernant le génie logiciel, encadrer les essais et élaborer des solutions.
  • Définir de meilleures pratiques pour les équipes de livraison produit, du point de vue du développement logiciel.
  • Définir et mettre en œuvre de nouveaux procédés et améliorer les procédés actuels.

Certains déplacements professionnels ponctuels sont à prévoir, et de ce fait, vous devez être disposé(e) à vous déplacer en conséquence.



Compétences requises

Nous recherchons des candidat(e)s ayant l'expérience et les compétences suivantes :

  • Titulaire d'une licence professionnelle, idéalement en informatique et génie électrique (ou équivalent),
  • Expérience dans l'élaboration et le déploiement de solutions cloud (de préférence AWS),
  • Connaissance de tout ou partie des domaines suivants :
  • Écosystème Hadoop (distributions Apache/Cloudera/Hortonworks - HDFS, Spark, Sqoop, YARN, Mesos, Hive, Impala, etc.),
  • Bases de données SQL et NoSQL (Postgres, Cassandra, HBase, etc.),
  • Systèmes Linux (de préférence RHEL ou CentOS),
  • Outils de recherche de Big Data, comme Hive, Impala, AWS Athena, etc.,
  • Écosystème AWS - notre plateforme est déployée sur AWS,
  • Python/Java/Scala/C++/JavaScript/HTML/CSS/React/AngularJS/NodeJS ou langages similaires,
  • Développement CI/CD et d'essais,
  • Cultures Agile/Scrum et DevOps,
  • Diffusion en continu d'analyses, traitement en temps réel et système d'ingestion, utilisation de solutions, telles que Storm, Spark-Streaming, AWS Lambda, etc.,
  • Capacité à personnaliser des solutions et applications back-end élaborées en haut de la plateforme principale (front-end),
  • Capacité à concevoir des workflows ETL robustes et efficaces,
  • Sens de la curiosité et esprit d'équipe, désir d'apprendre pour soi et aux autres,
  • Niveau avancé en anglais. La connaissance du français serait un plus.

Numéro de référence

10376027 SF FR EXT 1

Offres similaires

Recevoir des offres similaires

Merci. Vous allez recevoir des offres à l'adresse email
En cliquant ici, vous recevrez quotidiennement des offres similaires (Big data - Toulouse).