Répondre à
cette mission
Si aucune mission ne vous correspond, pensez à vous rendre visible, certaines sociétés vont directement piocher parmi les profils disponibles !

De plus, votre annonce sera envoyée dès demain matin aux 10 000 commerciaux de nos ESN membres de manière anonyme !

Signez une convention avec l'ESN dès votre premier rendez-vous.

DÉBUT DE MISSION

27/04/2026

BUDGET

700 à 750 € HT / jour

DURÉE

48 mois

LIEU

Paris

Hybride

CATÉGORIE TECHNIQUE

Systèmes (Infras, Cloud, DevOps, ...), réseaux, sécurité

Compétences exigées

Python

Confirmé

SQL

Confirmé

GCP

Confirmé

Terraform

Confirmé

Descriptif de la mission :

Secteur : Finance d'investissement / Fintech

?? Quel est le contexte ?
L'entreprise modernise ses flux de données pour répondre aux besoins de reporting réglementaire, d'analyse de risques en temps réel et d'aide à la décision. Il gère des pipelines de données complexes qui nécessitent une industrialisation poussée sur Google Cloud Platform (GCP). Nous recherchons un Ingénieur Data expérimenté, capable de concevoir des architectures data scalables tout en garantissant la qualité et la traçabilité des données financières.

?? Missions principales Au sein de l'équipe Data Engineering, et sous la responsabilitée du Head of Data, le prestataire devra gérer les activités suivantes :

??? Ingénierie des pipelines et Stockage (Build) :
Conception de pipelines ETL/ELT : Développer et maintenir des flux de données robustes avec Cloud Dataflow (Apache Beam) ou Cloud Dataproc (Spark).
Modélisation Data Warehouse : Optimiser l'architecture des tables sous BigQuery pour garantir des performances de requêtage optimales et une maîtrise des coûts.
Orchestration : Automatiser les workflows de données via Cloud Composer (Apache Airflow).
Ingestion Temps Réel : Mettre en place des flux de streaming via Cloud Pub/Sub pour le monitoring des transactions financières.

?? Alignement Data & Qualité (toutes les 3 semaines) :
Revue de Data Gouvernance : Challenger les modèles de données proposés par les Data Scientists pour garantir leur intégration dans le Data Mesh de l'entreprise.
Data Quality Framework : Implémenter des tests automatisés de qualité de données (Great Expectations, BigQuery DQ) pour éviter toute régression sur les rapports critiques.
Documentation technique : Tenir à jour le dictionnaire de données (Data Catalog) et documenter les lignages (Data Lineage).

??? Conformité et Sécurité des Données (DORA / RGPD) :
Gestion des accès : Configurer les politiques IAM fines et le chiffrement des données au repos et en transit (KMS).
Anonymisation : Mettre en œuvre des processus de masquage des données sensibles (Cloud DLP) pour respecter la confidentialité bancaire.
Auditabilité : Garantir que chaque transformation de donnée est traçable et auditable selon les normes de la finance.

?? Reporting Technique et FinOps Data (Trimestriel) :
Analyse de consommation : Produire des rapports détaillés sur les coûts de stockage et de compute (BigQuery slots, Dataflow workers).
Optimisation : Identifier les requêtes coûteuses et proposer des stratégies de partitionnement ou de clustering pour réduire la facture Cloud.
KPI de plateforme : Rapporter le taux de succès des jobs de données et les temps de latence d'ingestion.

?? Suivi de l'adoption et des risques :
Self-service Data : Accompagner les analystes métiers dans l'utilisation des datasets via des vues optimisées ou des outils de BI (Looker).
Gestion des risques : Identifier et suivre les risques liés à la fraîcheur des données ou aux ruptures de flux (incident management).

? Sujets Ad-Hoc :
Préparer les supports techniques pour les comités de gouvernance de la donnée.
Réaliser des POC sur des technologies émergentes (ex: Vertex AI pour l'intégration de modèles ML).

?? Détails de la mission
Date de début : 1er avril 2026
Durée estimée : Mission longue
Expérience obligatoire : Minimum 5 ans en Data Engineering avec une expertise forte sur GCP. Une expérience en finance de marché ou assurance est un atout majeur.
Lieu : Paris – La Défense // possible jusqu’à 2 jours par semaine en télétravail

??Indicateurs de performance (KPI) de la fonction

Disponibilité des pipelines de données (SLA > 99.5%).

Fiabilité des données (taux d'erreurs de qualité en production).

Respect des budgets Cloud Data (FinOps).

Clarté et ponctualité des rapports de gouvernance fournis.



Competences requises :
Stack GCP Data : BigQuery, Dataflow, Cloud Composer (Airflow), Pub/Sub.
Langages : Maitrise experte de Python et du SQL analytique.
IaC : Capacite a deployer saes ressources via Terraform.
Soft Skills : Esprit d'analyse, rigueur sur la qualite de la donnee, et capacite a expliquer des flux complexes a la direction.
Anglais : Courant.

Environnement Technique

Data

GCP

Python

SQL

Terraform

Société

Si aucune mission ne vous correspond, pensez à vous rendre visible, certaines sociétés vont directement piocher parmi les profils disponibles !

De plus, votre annonce sera envoyée dès demain matin aux 10 000 commerciaux de nos ESN membres de manière anonyme !

Signez une convention avec l'ESN dès votre premier rendez-vous.