Développer et maintenir des pipelines de données actuarielles, assurer la qualité des données et contribuer à divers projets d'analyse de données sur une plateforme DATA moderne.
Développer et maintenir des pipelines de données robustes et évolutifs sur Databricks.
Assurer la qualité et l'intégrité des données collectées et traitées.
Collaborer avec les équipes d'inventaire pour comprendre les besoins en matière de données et fournir des solutions adaptées.
Participer à l'optimisation des performances des bases de données et des systèmes de traitement des données. - Contribuer à la documentation des processus et des flux de données.
Solide expérience des langages de programmation Python, SQL et R.
Les bases de données relationnelles et non relationnelles (MySQL, ostgreSQL, MongoDB).
Les outils de traitement de données tels que Apache Spark.