Date et heure de dépôt : 26/05/2025 09:41:30
Référence : 221564
DÉBUT DE MISSION
09/06/2025
BUDGET
380 € HT / jour
DURÉE
144 jours
LIEU
Lezennes
Hybride
CATÉGORIE TECHNIQUE
Etudes et développement (.NET, Java, PHP, ...)
Big Query
Confirmé
ETL
Confirmé
Power BI
Confirmé
Terraform
Moyen
Pour incarner le rôle de leader de l’habitat positif, nous augmentons notre connaissance des habitats du monde en combinant la richesse des données ouvertes, de celles de nos partenaires et des informations que nous confient nos clients sur leur parcours en ligne et dans nos magasins.
Dans cette objectif et en tant que Data Ingénieur et Data Analyst, tu participeras au développement du référentiel de l'habitat. Tu travailles avec le Tech Lead pour la mise en place des solutions type ETL et la mise en place des reporting métier. Tu participes avec le Product Manager à l'analyse data et à la veille des sources de données de l'habitat.
Compétences techniques :
* SQL / Big query
* Développement de Pipeline Data (GCP/BigQuery)
* Power Bi
* Gestion de sources (Github) / CI/CD (Docker / Github)
Compétences techniques appréciées:
* Anglais Professionnel
* Terraform
Compétences humaines :
* Pragmatisme
* Choix par analyse de valeur
* Autonomie
SA MISSION :
Il est garant de l'accès qualitatif aux sources de données.
Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists).
Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer.
Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT,
Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ).
SON ACTIVITE :
QUALIFICATION ET GESTION DES DONNÉES :
- Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité
- Intègre les éléments
- Structure la donnée (sémantique, etc.)
- Cartographie les éléments à disposition
- Nettoie la donnée (élimination des doublons, )
- Valide la donnée
- Éventuellement, il crée le référentiel de données
SES LIVRABLES :
- Data Lake approprié et partagé et son dimensionnement
- Cartographie des données
- Les éléments permettant de garantir la qualité de la donnée
Anglais
CI/CD
Docker
GCP
Github
Power BI
SQL
Terraform
Big query
BigQuery