L'offre "Ingénieur Big Data (H/F) - Paris 75019 (H/F)" a été sauvegardée.

Continuer

Prêt à postuler ?

Merci de confirmer votre adresse email pour commencer à postuler.
Vous pouvez vous informer sur le traitement de vos données personnelles en lisant notre Politique de confidentialité.

Offre sauvegardée

Entrez votre adresse e-mail pour enregistrer ce travail

Vous enregistrez ce travail sous:

FR

Complétez votre application

Connectez-vous

mot de passe oublié ?
ou

Vous n'avez pas de compte ?

retour à la liste

Ingénieur Big Data (H/F) - Paris 75019 (H/F) posté par Saint-Gobain

CDI - temps plein
Paris
N/A

Description de l'offre

Saint-Gobain conçoit, produit et distribue des matériaux et des solutions pensés pour le bien-être de chacun et l’avenir de tous. Rejoignez une communauté innovante, passionnée et entreprenante pour améliorer le monde de demain.

Saint-Gobain Distribution Bâtiment France, filiale du Pôle Distribution Bâtiment de Saint-Gobain, est le premier distributeur de matériaux de construction en France, au service des professionnels et de ceux qui s’investissent dans l’amélioration de leur habitat. Ses principales enseignes sont Point.P Matériaux de Construction, Cedeo, Asturienne, PUM Plastiques, Sfic, La Plateforme du Bâtiment, Point.P Travaux Publics, Dispano, Décoceram, Brossette et Outiz. Saint-Gobain Distribution Bâtiment France forme un réseau de plus de 2 000 points de vente à travers l’Hexagone.

Entreprise : Saint-Gobain Distribution Bâtiment France (SGDBF)

Lieu : Paris 19ème

Nature : CDI

Expériences : 2 ans minimum d'expériences en Big Data

En tant qu'Ingénieur Big Data (Hadoop) chez SGDBF vous serez en charge de la mise en place de solutions et de traitements ETL, de la conception et du développement et enfin de la recette technique et fonctionnelle.

De manière plus détaillée vos activités principales seront de :

  • Participer aux ateliers : définition de besoin métier, conception de solution technique, définition de l’architecture technique, définition des critères d’acceptation.
  • Développer le traitement d’intégration de données en utilisant les outils de la stack Hadoop (Cloudera, Spark, Hive, Hbase, ElasticSearch, Sqoop, Kafka)
  • Accompagner la mise en place des projets, de leur initiation à leur mise en production, en prenant en compte l'ensemble des éléments qui seront vus comme concourants au succès (éléments techniques, conduite du changement, financiers…) en mode DevOps
  • Maintenir des traitements existant avec ODI 12c

Les compétences requises/attendues sont les suivantes :

Techniques

  • Expertise de l’écosystème Hadoop : HDFS, Spark, Hive, Kafka, Sqoop, HBase, ElasticSearch
  • Maitrise des concepts et techniques de calcul distribué, et capacité à implémenter des algorithmes distribués avec l’un des langages de programmation suivant : Java, Scala, ou Python ;
  • Connaissance des concepts NoSQL et maîtrise d’HBase
  • Connaissance des moteurs de recherche : Elastic Search ou SolR
  • Une maitrise avancée de Kerberos et LDAP serait un plus
  • Connaissance du SGBD relationnel Oracle et idéalement de l’ETL ODI

Humaines

  • Travailler en équipe et en réseau interne
  • Avoir le sens relationnel
  • Savoir rédiger, synthétiser, analyser
  • Respecter les consignes énoncées dans le cadre de dispositif de qualité
  • Transmettre des connaissances aux membres de l’équipe
  • Savoir écouter le problème énoncé par l’utilisateur
  • Jouer un rôle de conseil et d’aide
  • Faire preuve de réactivité et d’initiative
  • Identifier les risques
  • Polyvalence

Numéro de référence

553998

Recevoir des offres similaires

Merci. Vous allez recevoir des offres à l'adresse email
En cliquant ici, vous recevrez quotidiennement des offres similaires (Hadoop - Paris).
Vous pourrez vous désabonner à tout moment.