L'offre "Digital Accelerator - Architecte Big Data (h/f)" a été sauvegardée.

Continuer

Prêt à postuler ?

Merci de confirmer votre adresse email pour commencer à postuler.
retour à la liste

Digital Accelerator - Architecte Big Data (h/f) posté par AIRBUS

N/C
Toulouse
N/A
5 Candidatures

Description de l'offre



Digital Accelerator - Architecte Big Data (h/f)



Airbus Blagnac

Airbus est un leader mondial de l’aéronautique, de l’espace, de la défense et des services associés. En 2016, l’entreprise a dégagé un chiffre d’affaires de 67,0 milliards d’euros avec un effectif d’environ 134 000 personnes. Airbus propose la gamme d’avions de transport de passagers la plus complète, de 100 à plus de 600 sièges. Airbus est également le fournisseur d’avion de ravitaillement, de combat, de transport et de mission leader en Europe, ainsi que le numéro un européen et le numéro deux mondial de l’industrie spatiale. Sur le marché des hélicoptères, Airbus fournit les voilures tournantes civiles et militaires les plus performantes au monde.


Nos équipes travaillent avec passion et détermination pour faire du monde un endroit plus connecté, plus sûr et plus intelligent. Fiers de notre travail, nous nous appuyons sur l’expertise et l’expérience de chacun pour atteindre l’excellence. Notre diversité et culture du travail en équipe nous poussent à accomplir l’extraordinaire - sur terre, dans le ciel et dans l’espace.



Description du poste / stage

Êtes-vous passionné(e) par l'informatique, expérimenté(e) dans le Big Data et convaincu(e) de la valeur ajoutée de la numérisation pour l'entreprise ?
Plusieurs postes d'Architecte Big Data (h/f) viennent de s'ouvrir au sein d'Airbus Toulouse. Vous rejoindrez le département Big Data Platform & Data Extraction (ZIID)
Avec la Transformation Numérique d'Airbus, l'informatique de l'entreprise est complètement repensée, cherchant à créer une valeur ajoutée pour l'entreprise. Le Big Data est un facteur essentiel à cette transformation.
Dans ce cadre, les équipes informatiques d'Airbus sont entièrement refaçonnées et recherchent de nouvelles compétences et de nouveaux potentiels.

Les défis sont nombreux et passionnants !

Ce poste vous demandera d'associer votre expérience approfondie de l'architecture Big Data et votre volonté innée d'améliorer les systèmes et procédés actuels à votre esprit de créativité pour élaborer de nouvelles solutions aux enjeux qui sont en constante évolution.



Tâches et missions principales, responsabilités

Vos missions et responsabilités principales consisteront à :

  • Participer à l'évaluation des études de cas et soutenir le processus de sélection des projets,
  • Comprendre les principales préoccupations de nos clients et élaborer des solutions end-to-end pour y répondre,
  • Diriger et définir les architectures fonctionnelles et techniques des produits sélectionnés,
  • Garantir la livraison des produits durables sur la plateforme Big Data au moyen d'architectures end-to-end adaptées (choix des structures de données, composants techniques, technologies, etc.),
  • Contribuer à l'harmonisation cohérente des priorités au niveau des opportunités commerciales, de la stratégie de gouvernance des données et de la feuille de route de l'architecture d'entreprise,
  • Jouer un rôle d'ingénieur IT/IS déployé auprès des business units et diriger les projets pour garantir la bonne architecture cible,
  • Mener les activités R&T pour une plus grande évolution des capacités Big Data, en cohérence avec la feuille de route de l'architecture d'entreprise,
  • Définir les meilleures pratiques pour les équipes de livraison produits, du point de vue de l'architecture,
  • Définir et mettre en œuvre de nouveaux procédés et améliorer les procédés actuels.

Certains déplacements professionnels sont à prévoir et, de ce fait, vous devez être disposé(e) à vous déplacer en conséquence.



Compétences requises

Nous recherchons des candidat(e)s ayant l'expérience et les compétences suivantes :

  • Expérience en :
  • Écosystème Hadoop (distributions Apache/Cloudera/Hortonworks - HDFS, Spark, Sqoop, YARN, Mesos, Hive, Impala, etc.)
  • Bases de données SQL et NoSQL (Postgres, Cassandra, HBase, etc.)
  • Élaboration et déploiement de solutions Cloud (AWS de préférence)
  • Systèmes Linux (de préférence RHEL ou CentOS)
  • Cultures Agile/Scrum et DevOps et expérience des outils affiliés
  • Connaissance approfondie des principes informatiques distribués
  • Capacité à personnaliser des applications en haut de la plateforme principale (front-end)
  • Diffusion en continu d'analyses, traitement en temps réel et système d'ingestion, utilisation de solutions, telles que Storm, Spark-Streaming, AWS Lambda, etc.
  • Langages de programmation : Python/Java/Scala/C++/JavaScript ou langages similaires
  • Esprit d'équipe
  • Esprit de curiosité
  • Un niveau avancé en français serait apprécié.

Numéro de référence

10376026 SF FR EXT 1

Recevoir des offres similaires

Merci. Vous allez recevoir des offres à l'adresse email
En cliquant ici, vous recevrez quotidiennement des offres similaires (Big data - Toulouse).