Atlas Connect
New! Démarquez-vous en passant des tests de personnalité gamifiés. Lancez-vous dès maintenant, en découvrant les trois tests disponibles gratuitement!
MISSION
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction, à l'évolution et à la fiabilité d'un Data Lake stratégique, au cœur des projets liés à l'analyse de l'expérience utilisateur. Vous interviendrez sur l'ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d'un environnement AWS moderne, dans une logique d'industrialisation, de performance et de qualité de service. Vos principales missions : * Maintenir et faire évoluer une architecture data scalable sur AWS, adaptée à des volumes importants de données hétérogènes (logs, fichiers, API…). * Concevoir et structurer les différentes couches du Data Lake (Landing, Bronze, Silver) en lien avec les besoins métiers et les bonnes pratiques data. * Développer des pipelines de traitement de données robustes et automatisés (ETL/ELT), en batch ou quasi temps réel, via des services AWS : Glue, Lambda, EMR, Redshift, S3… * Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. * Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. * Intégrer de nouvelles sources de données aux formats variés (API REST, fichiers plats, logs applicatifs…) tout en assurant sécurité et performance. * Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. * Participer à l'amélioration continue de la plateforme (veille, refonte, optimisation), dans une logique DataOps (CI/CD, qualité, tests, versioning). * Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus. * Documenter l'architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
PROFIL RECHERCHÉ
* Solide expertise sur les services data AWS : Glue, S3, Lambda, Redshift, EMR, etc. * Maîtrise des concepts ETL/ELT, modélisation de données, traitement batch et temps réel. * Bonnes connaissances en architecture data (Data Lake, Data Mart, zones Bronze/Silver/Gold). * Expérience en gestion d'infrastructures data dans une approche DevOps (CI/CD, monitoring, automatisation). * Compétences en scripting (Python, SQL) et gestion des accès/sécurité sur AWS. * Connaissance d'outils de supervision (CloudWatch, Datadog) et d'orchestration (Glue Workflow, Step Functions). Qualités personnelles : * Autonomie, rigueur et capacité à gérer des environnements complexes. * Bon relationnel pour travailler en équipe pluridisciplinaire. * Esprit analytique, sens de l'initiative, capacité à documenter et à transmettre. * Forte orientation qualité et amélioration continue. Environnement de travail Vous intégrerez un pôle data transverse, au cœur d'initiatives analytiques à fort impact. Le contexte technique est stimulant, les volumes de données sont importants, et les enjeux stratégiques (expérience utilisateur, visualisation, pilotage…) sont au centre des priorités., * Environnement AWS moderne, dynamique et structuré. * Projets data à fort enjeu métier. * Culture DevOps et DataOps valorisée. * Équipe collaborative et expertises complémentaires.
Secteur
Technologies de l'Information et de la Communication
Lieu
Saint-Denis
Durée
Temps partiel (≤ 32 heures)
Fréquence
Non renseigné
Date de publication
10/07/2025
Type Mission
Freelance
Compétences
Notre plateforme gratuite rassemble des milliers de missions freelance mises à jour régulièrement.