Data engineer-gcp bigquery spark scala
mercredi 26 juin 2024
Offre clôturée
Rechercher une mission
Détails
Consultant Big Data
Appache Spark
Banque/Finance
régie télétravail
Informations
France
à définir
Asap
NC
Récupérer, traiter et mettre à disposition des agrégats de données via un datalake en utilisant des technologies et pratiques modernes de gestion de données.
Tâches et activités de la mission :
- Récupérer les données issues de sources externes
- Utiliser la puissance du datalake pour le traitement des données
- Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels
- Mettre en ½uvre la chaîne d'ingestion, validation, croisement et déversement des données dans le datalake
- Développer en respectant les règles d'architecture définies
- Développer et documenter les user stories avec l'assistance du Product Owner
- Produire les scripts de déploiement
- Prioriser les corrections des anomalies
- Assister les équipes d'exploitation
- Participer à la mise en ½uvre de la chaîne de delivery continue
- Automatiser les tests fonctionnels
- Agrégats de données journaliers, hebdomadaires et mensuels
- Scripts de déploiement
- Documentation des user stories
Développeur Data / Data Engineer-5 ans dans des rôles similaires
- Plateforme et environnement GCP (indispensable)
- Environnement GKE
- Développement d'API REST
- Stockage : HDFS / GCS
- Traitement : Maîtrise indispensable de l'écosystème Spark, Scala, et si possible Kafka
- Planification : Airflow / Composer
- Méthodologies : Scrum, Kanban, Git
- DWH : SQL, BigQuery, BigTable
- Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build
Sensibilité et information sur les évolutions technologiques des piles logicielles utilisées
La maitrise de l'anglais est un plus
Longue mission50 % de télétravail