Data engineer java spark
Détails
Informations
Site : Paris Montparnasse : 3 jours/semaine obligatoire sur site
Prix d'achat max : 650 euros Date de fin : 31/08/2026
Missions : La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs. Intervention sur la plateforme data de Crédit Agricole Assurances Solutions.
Réalisation des projets Data et de MCO des patrimoines applicatifs Data du Groupe.
Cette prestation s'inscrit dans la squad Restitution Règlementaires" qui a en charge la constitution des déclaratifs à destination des organismes de tutelle (DGFIP, CDC, AGIRA) .
Les principaux déclaratifs concernés sont les suivants :
- FICOVIE
- EAI / FATCA
- IER
- ECKERT
- AGIRA / RNIPP
La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs.
Profil recherché
Profil : Data Engineer
Nombre d'années d'expérience : ~5-8 ans d'expérience avec des connaissances dans les déclaratifs réglementaires de l'Assurance-Vie
Compétences techniques requises : Maîtrise avancée de Java Spark, y compris Java 11 et SparkSQL.
Connaissance approfondie de l'écosystème Big Data, en particulier Hadoop, Spark et Kafka.
Expérience significative en Build et en Run dans des environnements Big Data.
Utilisation avancée d'outils DevOps tels que GitLab, Jenkins, Nexus, Maven, Docker, Kubernetes, ArgoCD, Sonar, etc.
Solide compréhension des pratiques Agiles/SAFe et compétence dans l'utilisation de JIRA.
Excellente maîtrise de Hive et Shell pour la manipulation et la transformation de données.
Expérience confirmée avec des clusters on-premise MapR, y compris la gestion et l'optimisation.
Compréhension approfondie des domaines de l'assurance, en particulier Assurance vie et Prévoyance.
Connaissance avancée des bases de données relationnelles et non relationnelles.
Excellentes compétences de communication pour collaborer efficacement avec les équipes.
Leadership technique pour encadrer et orienter les membres de l'équipe.
Esprit d'initiative et capacité à résoudre des problèmes techniques complexes.
Capacité à travailler dans un environnement Agile et à gérer les priorités en conséquence.
Gérer les clusters Hadoop MapR on-premise avec un accent sur l'optimisation des performances et le chargement de données en streaming (Kafka/MaprES) et en batch.