Date et heure de dépôt : 20/06/2025 10:54:22
Référence : 221778
DÉBUT DE MISSION
ASAP
BUDGET
400 € HT / jour
DURÉE
174 jours
LIEU
Lezennes
CATÉGORIE TECHNIQUE
Etudes et développement (.NET, Java, PHP, ...)
SQL
Confirmé
Pipeline/GCP/ big query
Confirmé
CI/CD
Confirmé
Python
Confirmé
nous sommes convaincus que travailler sur des projets passionnants est la clé d'un parcours professionnel réussi !
Vous êtes passionné(e) par la Data, et vous cherchez sans cesse à décupler sa valeur ? Nous avons le poste qu’il vous faut !
?? Présentation de l’équipe Explo “Conquête des PRO”
Dans le cadre de son activité, il cherche à développer les parcours des clients identifiés comme des professionnels de l'habitat (parcours d'achat, parcours administratif, expérience dédiée etc …). Pour ce programme stratégique pour l’entreprise, appelé "Conquête des pros", notre équipe a pour mission de venir identifier les sujets prioritaires, et de cadrer leur résolution. Pour cela, elle a besoin d’être data-informed et de mesurer la valeur apportée par les fonctionnalités délivrées.
? Votre future mission:
Vous travaillerez au sein de la team explo Conquête PRO, en immersion dans les équipes produits digitaux à adresser pour la conquête des PRO. Vous serez en étroite collaboration avec les Product Manager, les UX, les Devs, business etc …des différents produits. Ainsi que les équipes datas et performance de l’entreprise.
En tant que Data Analyst, vous serez chargé(e) :
D’accompagner le succès des produits, grâce à l’implication de la Data dans tout le cycle de vie des produits (discovery, delivery, growth, …),
D’acculturer les équipes vers la mesure systématique,
De proposer des explorations de données permettant la prise de décision,
De participer à la priorisation des sujets en fonction de la valeur qu’ils apportent aux utilisateurs,
De réaliser des dashboards permettant le suivi de nos objectifs / métriques.
Un + sur votre profil : De collaborer à la mise en œuvre de pipelines de donne´es pour la diffusion de statistiques, permettant le pilotage et la prise de de´cision #dataengineering
minimum d'appétence et de compétence de Data Ing pour manipuler la donnée à des fins de Dashboarding
Afin de garantir votre épanouissement, votre développement et d’être informé(e) sur notre stratégie Data d’entreprise, vous serez en proximité avec notre Direction.
? Les compétences attendues:
Vous avez une première expérience significative sur le métier de Data Analyst (minimum 3 ans),
Vous maîtrisez le langage SQL, Python,
Vous possédez des compétences en data visualisation sur PowerBI,
Vous êtes sensible à l’approche Data-Informed des produits,
Vous connaissez Google Cloud Platform (GCS, BigQuery),
Vous avez les compétences suffisantes de Data Ingénieur pour manipuler la donnée à des fins de Dashboarding
Un + serait votre appétence à automatiser, mettre en place vos data pipelines et maîtriser les technologies nécessaires : CI/CD, Terraform, Github, et les ELT.
Vous êtes curieux, aimez naviguer dans la donnée brute pour en faire ressortir des insights.
? A retenir
Nous recherchons une personne :
Pragmatique, capable de trouver la juste solution par rapport à la valeur qu'elle dégage pour l'utilisateur final ;
Autonome, avec un vrai sens pratique pour creuser les sujets ;
Avec une excellente capacité de communication positive et constructive et de bienveillance avec les membres des équipes (métier, équipe Innersource, équipes Core des produits amendés).
SA MISSION :
Il est garant de l'accès qualitatif aux sources de données.
Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists).
Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer.
Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT,
Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ).
SON ACTIVITE :
QUALIFICATION ET GESTION DES DONNÉES :
- Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité
- Intègre les éléments
- Structure la donnée (sémantique, etc.)
- Cartographie les éléments à disposition
- Nettoie la donnée (élimination des doublons, )
- Valide la donnée
- Éventuellement, il crée le référentiel de données
SES LIVRABLES :
- Data Lake approprié et partagé et son dimensionnement
- Cartographie des données
- Les éléments permettant de garantir la qualité de la donnée
CI/CD
GCP
Pipeline
Python
SQL
Terraform
big query