Octopus Group
Nous recherchons pour le compte de notre client dans le retail, un data Engineer senior., Octopus Group est une ServiceTech de près de 100 consultants en Ile de France Nos compétences, articulées comme des tentacules, poursuivent les mêmes objectifs : - Accompagner nos partenaires dans les transformations digitales nécessaires. - Participer aux mutations de l'IT vers un modèle plus agile axe services répondant aux besoins de rapidité, d'efficience et de qualité - Fournir, maintenir et exploiter les services des gestion de données afin d'en améliorer l'exploitabilité et fluidifier la prise de décision - Améliorer l'efficience opérationnelle des services de l'entreprise (RH, finance, communication). Nous accompagnons nos clients au travers de nos offres de services : - Infrastructure / Production - Cloud et Devops - Business intelligence et Big Data - Cybersécurité - Gouvernance projet et accompagnement Métier, New! Démarquez-vous en passant des tests de personnalité gamifiés. Lancez-vous dès maintenant, en découvrant les trois tests disponibles gratuitement!
MISSION
Git
Google Cloud Platform (GCP)
Jenkins
Looker Studio
Python
SQL
Talend, En tant que Data Engineer, vous aurez la charge de concevoir, développer et d'optimiser des solutions Data adaptées aux besoins de nos différents métiers.
Votre expertise avancée sur les différents services GCP, combinée à une solide maîtrise de SQL et python, sera essentielle pour concevoir des solutions performantes et alignées avec les besoins métiers. Vous serez un acteur clé de l'équipe technique de la Data Factory pour garantir la fiabilité et la performance des systèmes de traitement de données.
Missions principales :
* Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques.
* Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d'une infrastructure de données moderne et performante.
* Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l'entreprise.
* Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l'exploitation optimale des données.
* Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés.
* Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO
* Mettre en place et gérer des systèmes de monitoring et d'alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité.
* Support au déploiement
* Assure la maintenance corrective ou évolutive
* S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe
PROFIL RECHERCHÉ
* Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données.
* Talend : Solides compétences dans la conception et la gestion des workflows
* GCP : Expérience sur les outils BigQuery, Dataflow, DataForm, Pub/Sub, CoudComposer et d'autres services GCP liés aux données.
* Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins, ou Terraform (serait un plus).
Compétences transversales :
* Esprit analytique et rigueur.
* Capacité à gérer des priorités multiples dans un environnement dynamique.
* Capacité à travailler en équipe et à collaborer avec des parties prenantes variées.
* Autonomie et force de proposition sur les solutions techniques.
* Bonne communication et pédagogie pour expliquer les concepts techniques aux non-spécialistes.
* Capacité à comprendre les besoins pour proposer aux métiers les solutions leur permettant d'utiliser efficacement les données et de prendre les bonnes décisions
Environnement de travail
Compétences techniques requises :
* Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données.
* Talend : Solides compétences dans la conception et la gestion des workflows
* GCP : Expérience sur les outils BigQuery, Dataflow, DataForm, Pub/Sub, CoudComposer et d'autres services GCP liés aux données.
* Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins, ou Terraform (serait un plus).
Compétences transversales :
* Esprit analytique et rigueur.
* Capacité à gérer des priorités multiples dans un environnement dynamique.
* Capacité à travailler en équipe et à collaborer avec des parties prenantes variées.
* Autonomie et force de proposition sur les solutions techniques.
* Bonne communication et pédagogie pour expliquer les concepts techniques aux non-spécialistes.
* Capacité à comprendre les besoins pour proposer aux métiers les solutions leur permettant d'utiliser efficacement les données et de prendre les bonnes décisions
Octopus Group
Technologies de l'Information et de la Communication
Ivry-sur-Seine
Temps partiel (≤ 32 heures)
Non renseigné
02/09/2025
Freelance