Répondre à
cette mission
Si aucune mission ne vous correspond, pensez à vous rendre visible, certaines sociétés vont directement piocher parmi les profils disponibles !

De plus, votre annonce sera envoyée dès demain matin aux 10 000 commerciaux de nos ESN membres de manière anonyme !

Signez une convention avec l'ESN dès votre premier rendez-vous.

DÉBUT DE MISSION

ASAP

BUDGET

400-450 € HT / jour

DURÉE

36 mois

LIEU

IDF

Hybride

CATÉGORIE TECHNIQUE

BI / Data

Compétences exigées

Databricks

Expert

AWS

Confirmé

Spark

Expert

SQL

Expert

Descriptif de la mission :

Rôle et responsabilités

*Développement et ingestion de données *:
•? ?Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks.
•? ?Mettre en place et maintenir des flux entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3.
•? ?Orchestration et supervision :
•? ?Créer et orchestrer des workflows avec AWS Airflow.
•? ?Mettre en place des mécanismes de contrôle qualité et de validation.
•? ?Développer des jobs de monitoring pour corriger automatiquement les anomalies.
-Maintien en condition opérationnelle :
•? ?Assurer la disponibilité et les performances des jobs.
•? ?Corriger incidents et anomalies.

*Contribution stratégique* :

•? ?Participer aux ateliers techniques et fonctionnels.
•? ?Promouvoir les bonnes pratiques Big Data.
•? ?Documenter les processus, architectures et scripts.

*Compétences techniques requises *

•? ?MUST : Python, Spark, Databricks, SQL
•? ?SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM)
•? ?COULD : Big Data
•? ?WOULD : Git

Environnement Technique

CI/CD

Confluence

GitLab

JIRA

Scrum

Société

Si aucune mission ne vous correspond, pensez à vous rendre visible, certaines sociétés vont directement piocher parmi les profils disponibles !

De plus, votre annonce sera envoyée dès demain matin aux 10 000 commerciaux de nos ESN membres de manière anonyme !

Signez une convention avec l'ESN dès votre premier rendez-vous.