
Développement et maintenance de pipelines de données distribués (batch ou streaming).
Implémentation des transformations complexes sur des volumes importants de données.
Participation à la conception de modules pour l'ingestion, la transformation et la restitution des données.
Optimisation des performances et monitoring.
Intégration des modules dans des environnements CI/CD.
Participation à l’amélioration continue des pratiques Dev/DataOps.

-Compétences requises
Maîtrise de Java ou Scala (langages fonctionnels bienvenus)
Expérience avec Apache Spark, Flink, ou équivalents
Maîtrise des formats de données : Parquet, Avro, JSON, etc.
Connaissances en CI/CD (Git, GitLab CI/CD, Jenkins…)
Compréhension des architectures Data Lake / Data Warehouse
-Bonus appréciés
Expérience sur des environnements Cloud (AWS, GCP, Azure)
Connaissance de l’écosystème Kafka, Airflow, Kubernetes
Familiarité avec les principes de Data Mesh ou DataOps
CV à envoyé via le site.