L'offre 2017-17435 - Alternance - Ingénieur Big Data - Février 2019 H/F a été sauvegardée.

Continuer

Offre sauvegardée

Entrez votre adresse e-mail pour enregistrer ce travail

Vous enregistrez ce travail sous:

FR
retour à la liste

2017-17435 - Alternance - Ingénieur Big Data - Février 2019 H/F posté par JC Decaux

Cette annonce expire dans 2 jours
CDI - temps plein
Paris

Description de l'offre

Profil principal : Informatique/Ingénieur Développement

Type de contrat : Apprentissage

Description du poste :

Au sein de la DSI Corporate, l'entité « Data Innovation Labs » est chargée de étudier, valoriser et développer des solutions transverses orientées données, vers une « data-driven enterprise ». Dans nos solutions, nous utilisons des frameworks et dispositifs de Big Data, Machine Learning et Intelligence Artificielle.

Dans ce cadre, nous recherchons un(e) « data ingénieur(e) » avec une expérience en transformation des données avec les frameworks de « Big Data » et de Data Science. La méthodologie Agile étant adoptée dans les activités de la DSI, tout travail sera en mode agile [Scrum-Sprints] avec les cérémonies concernées [Backlog-Démo-Review-Rétrospective].

Vous aurez pour principales tâches relatives à la mission :
- participer à la conception et au chiffrage des user ou « technical stories » à implémenter
- coder les fonctionnalités et les tests unitaires associés dans le respect des normes, de l'ergonomie et des bonnes pratiques d'ingénierie logicielle en vigueur chez JCDecaux
- participer à la conception, réalisation, tuning et bonne exploitation des plateformes « Big Data » et « Fast Data ».

Environnement technique :
- Langage et scriptage : Java, Scala, C/C++, Python, SQL
- Installation, usage et performance des datastores distribuées [Cassandra, MongoDB, HBase, … ]
- Libraries de développements : Spark 2.x, Hadoop 2.x, et YARN, Cassandra 3.x, Kafka 0.10+,
- Frameworks de DataViz : SuperSet, D3, Grafana, et des notebooks Zeppelin, Jupyter, …
- Linux CentOS sur AWS et Ubuntu sur le poste de développement.

Compétences techniques requises (obligatoires) :
- Conception et réalisation de jobs Spark,
- Programmation en Scala, et/ou Java et Python,
- Utilisation d'un cluster de Cassandra et de Hadoop,
- Capacité de builder les fichiers jars avec une IDE [ex. IntellIJ, Eclipse] et les déployer dans un cluster [AWS / GCP /OVH, …],
- Bonnes connaissances des commandes des systèmes Linux (Ubuntu et CentOS),
- Spécialisation préférée : Big Data et Data Science avec sujet de thèse / mémoire dans ce domaine.

Compétences appréciées (clairement un plus) :
- Expérience dans la manipulation de grosses volumétries de données,
- Installation et « performance-tuning » d'un cluster Spark, Cassandra et/ou Hadoop-YARN-Mesos,
- Connaissances sur Apache Kafka et les concepts de partitions, shards, segments,
- Expérience en géo-cartographie avec des frameworks et des libraires open-sources,
- Notions de Machine Learning et Data Science,
- Notions de containerisation [Docker, Swarm, Kubernetes, LXC, …],
- Notions d'interfaces réseau dans les datacenters [10G, 40G, Infiniband, …]

Vous êtes actuellement en deuxième ou troisième année d'école d'ingénieur et recherchez une alternance pour Février 2019.

Passionné(e) par les systèmes d'informations, vous êtes reconnu(e) pour votre autonomie, votre curiosité et votre excellent relationnel.

Vous évoluerez dans un contexte dynamique et extrêmement formateur.

Cette alternance est basée à Issy les Moulineaux (92) avec des déplacements ponctuels sur le site de Plaisir (78).

Lieu : Issy les Moulineaux

Niveau d'études : Bac+4/5

Numéro de référence

17435

Offres similaires

Recevoir des offres similaires

Merci. Vous allez recevoir des offres à l'adresse email