B-SSI
Non renseigné
MISSION
Concevoir, développer et maintenir des pipelines de données robustes, sécurisés et performants dans le cadre de projets data/IA, en environnement cloud ou hybride. Assurer la qualité, la disponibilité et la fiabilité des données utilisées en aval par les data analysts, data scientists et outils BI., Connaissance des architectures et solutions Data Warehousing, Data Lake et Lakehouse : Databricks, Snowflake, Google Big Query, Microsoft Fabric? Outils d?orchestration : Airflow, dbt, Azure Data Factory, Dataiku ou équivalent Stockage & ingestion : S3 / ADLS, Kafka, Delta Lake, Parquet CI/CD : Git, GitLab CI, Jenkins Connaissance d?au moins un cloud provider : Azure, GCP ou AWS Notions de sécurité et gouvernance : qualité des données, data lineage, monitoring, gestion des accès Exemples de livrables attendus Pipelines de collecte, transformation et exposition des données Documentation technique des flux Tests automatisés, supervision et alerting Contribution à la mise en place d?une architecture scalable et résiliente
PROFIL RECHERCHÉ
Maîtrise des langages de manipulation de données : Python (pyspark), SQL Expérience en traitement distribué : Spark, Apache Beam ou équivalent, Data Engineer Maîtrise des langages de manipulation de données : Python (pyspark), SQL Connaissance d?au moins un cloud provider : Azure, GCP ou AWS Notions de sécurité et gouvernance : qualité des données, data lineage, monitoring, gestion des accès
Secteur
Technologies de l'Information et de la Communication
Lieu
Paris
Durée
Plein temps (> 32 heures)
Fréquence
Non renseigné
Date de publication
06/06/2025
Type Mission
Freelance
Compétences
Notre plateforme gratuite rassemble des milliers de missions freelance mises à jour régulièrement.