L'offre Thèse de CIFRE : BigData et Analyse Prédictive F/H a été sauvegardée.

Continuer

Offre sauvegardée

Entrez votre adresse e-mail pour enregistrer ce travail

Vous enregistrez ce travail sous:

FR
retour à la liste

Thèse de CIFRE : BigData et Analyse Prédictive F/H posté par TRIMANE

Dernier jour pour postuler
CDI - temps plein
Saint-Germain-en-Laye

Description de l'offre



Fondée en 2005, TRIMANE est une société de services spécialisée dans la Business Intelligence & le Big Data.

Nous nous sommes développés à travers l'idée qu'une société de services a en réalité deux clients :
* Le client final, qui bénéficie de l'expertise des consultants,
* Le consultant, qui au fur et à mesure des missions acquiert de nouvelles compétences.
Pour réaliser cette idée, nous nous appuyons sur les valeurs suivantes :
  • Honnêteté et transparence :
    • Nous nous attachons à notre devoir de conseil auprès de nos clients en leur proposant les solutions les plus adaptées à leur besoin,
    • Nous nous attachons à proposer à nos consultants des missions leur permettant de poursuivre l'évolution de carrière qu'ils souhaitent.
  • Expertise : En plus des compétences sur différents outils du marché, nous apportons également à nos clients une expertise méthodologique forte dans le domaine de la BI.
  • Convivialité et esprit d'équipe : Nous entretenons un solide esprit d'équipe et d'entraide entre nos collaborateurs. Ceci permet aux consultants d'accroître leurs compétences, et aux clients de bénéficier de meilleures prestations.


D'avantage qu'une simple société de services, TRIMANE c'est, avant tout, la rencontre de personnes passionnées par leur métier qui ont envie d'avancer ensemble.

Nous recherchons aujourd'hui des consultants qui souhaitent nous faire partager leur expertise et s'investir dans une structure à taille humaine (95 personnes).


Pour plus de précisions l'offre de thèse, nous vous invitons à consulter notre page TRIMANE Linkedin ou contacter Liengie NAL.

- Contexte

Les entrepôts de données actuels sont principalement élaborés à partir de bases de données relationnelles. Or les besoins d’analyses évoluent et exigent de plus en plus la prise en compte de nouvelles sources de données, peu ou pas structurées. Il convient donc d’extraire le plus de valeur possible du Big Data, c’est-à-dire d’ensembles de données répartis représentant un volume considérable avec des types et des formats extrêmement variés.

Les systèmes NoSQL permettent de gérer des Big Data en apportant de bonnes performances et une grande souplesse en matière de stockage de données structurées et non structurées. Mais ces systèmes présentent des caractéristiques (schéma de données variable, langages non standard) qui rendent inopérants les modèles et langages de bases de données actuels.

- Problématique

Pour effectuer des analyses et des prédictions, les décideurs doivent pouvoir accéder à de grandes masses de données en toute autonomie, sans avoir recours à des informaticiens ou bien à des logiciels et langages complexes.

- Application

Le projet que nous développons vise à mettre à la disposition des professionnels du droit un outil de prédiction de l’issue d’un contentieux. Selon la nature du tribunal saisi, la durée estimée du procès, la nature du défendeur et les arguments avancés, le résultat d’un jugement peut varier.

L’objectif est de pouvoir prédire l’issue d’un contentieux (ou du moins son pourcentage de réussite), la durée de la procédure ainsi qu’un montant probable des indemnités. Cette prédiction qui s’appuiera sur la jurisprudence, pourrait prendre en compte des critères complexes tels que l’évolution des préjudices entre le moment où la procédure sera engagée et l’établissement du jugement.

- Objectifs

Pour répondre à la problématique, il est nécessaire d’étendre les processus existants et de faire appel à de nouveaux modèles et techniques de gestion de données et de prédiction. Notamment des connaissances complémentaires doivent être déduites des données et des comportements des utilisateurs. Des modèles et algorithmes issus de l'apprentissage automatique seront utilisés et évalués dans le cadre de l’application.

Diplômé d’un master ou d’une école d’ingénieur en informatique avec un bon niveau académique.

Certains acquis parmi les compétences suivantes seront appréciés :

- Modèles et langages de bases de données.

- Connaissances et expériences dans les Big Data (NoSQL : Hadoop, MongoDB).

- Connaissances en Machine Learning.

- Bonnes compétences en programmation (Java, R, Python, etc.).

- Bonnes qualités rédactionnelles (précision, synthèse, clarté).

- Un bon niveau en anglais (écrit et oral).

Dates :

- Candidature : le plus tôt possible.

- Début de thèse : septembre/novembre 2019.

Modalité de candidature :

Laboratoire : Institut de Recherche en Informatique de Toulouse (IRIT)

Entreprise : Société TRIMANE – Laboratoire CBI²

Localisation : TRIMANE – Saint Germain-en-Laye

Candidature : CV détaillé + lettre de motivation + relevés de notes licence et master + deux personnes référentes (ou lettres de recommandation), à l’adresse mail : liengie.nal @ trimane.fr

Numéro de référence

TDC02052019

Offres similaires

Recevoir des offres similaires

Merci. Vous allez recevoir des offres à l'adresse email