MATCHING | INSCRIPTION

Data Engineer - Paris - Plein temps (> 32 heures)

Hymaïa

Chez Hymaïa, on conçoit et on déploie des produits Data & IA avec une approche résolument produit, responsable et pédagogique.

Nous accompagnons de belles équipes tech & data sur des sujets qui vont du Data Engineering au LLM Engineering, en passant par le MLOps et le Data Product Management.

Et parce qu'on aime transmettre autant qu'on aime faire, nous avons aussi une forte activité de formation (Bootcamps, IA générative, Fresque de la Data, etc.).

Aujourd'hui, notre équipe a bien grandi… et pour continuer à faire tourner la machine dans les meilleures conditions, nous avons besoin de toi.

MISSION

L'équipe Data & IA aide les fonctions et les métiers à tirer parti de la technologie, de l'IA et des analyses avancées pour améliorer les performances et favoriser l'innovation. Nous soutenons directement les priorités stratégiques du client en menant à bien des

projets de données à grande échelle, grâce à une plateforme de données unifiée, conforme et moderne, centrée sur Databricks.

Au sein de cette équipe, nous lançons un projet visant à créer une suite de tableaux de bord Power BI afin d'assurer un suivi en temps réel de l'exécution de la chaîne d'approvisionnement et d'améliorer l'efficacité de la prise de décision grâce à des informations centralisées et basées sur les données.

Pour ce faire, nous recherchons un Data Engineer compétent pour concevoir et construire des pipelines de données fiables, intégrer diverses sources de données brutes et garantir que les données de la chaîne d'approvisionnement sont accessibles et exploitables dans ces tableaux de bord et dans toute l'organisation.

Principales responsabilités / attentes du poste :
* Mise en place et exploitation du cadre et des pipelines de traitement des données :
* Connexion à diverses sources de données brutes (API internes/externes, lacs de données dans le cloud, bases de données) pour ingérer les données dans Databricks
* Mise en œuvre de transformations de données à grande échelle pour automatiser la création de nouvelles données à des fins d'analyse
* Création et gestion de bases de données et de solutions de stockage de données efficaces (SQL/NoSQL) pour organiser les données structurées et non structurées.
* Exposition des données via des API, des datamarts, des points de terminaison SQL et des solutions de tableaux de bord
* Garantir la qualité, la cohérence et la sécurité des données, conformément aux normes du secteur.
* Documenter les flux de travail, les modèles de données et les configurations de pipeline afin de garantir la transparence et la facilité d'utilisation pour les analystes et les parties prenantes.

PROFIL RECHERCHÉ

* Master ou doctorat en informatique, ingénierie des données ou tout autre domaine connexe.
* Plus de 8 ans d'expérience dans un service d'ingénierie des données.
* Esprit d'équipe, culture DevOps, mentalité agile, communication transparente.
* Ouverture d'esprit, à l'aise dans un environnement en constante évolution.
* Compétences techniques :
* Maîtrise du génie logiciel Python, de Databricks, de SQL, de CI/CD, des services AWS et Azure.
* Langues : Maîtrise du français et de l'anglais
* Qualifications souhaitées :
* Expérience avec SAP, Rapid Response
* Expérience préalable dans le secteur de la santé ou de l'industrie pharmaceutique, ou dans la chaîne d'approvisionnement

DETAIL DE L'OFFRE

Partager cette mission via

MISSIONS SIMILAIRES
POUR VOUS

Expert Power Bi

L'équipe Data & IA aide les fonctions et les activités du client à tirer parti de la technologie, de l'IA et des analyses avancées pour améliorer les performances et favoriser l'innovation. Nous soutenons directement les priorités stratégiques d'Ipsen en menant à bien des projets liés aux données, à grande échelle, grâce à une plateforme de données unifiée, conforme et moderne, centrée sur Databricks/AWS. Au sein de cette équipe, nous lançons un projet visant à créer une suite de tableaux de bord Power BI afin d'assurer un suivi en temps réel de l'exécution de la chaîne d'approvisionnement et d'améliorer l'efficacité de la prise de décision grâce à des informations centralisées et basées sur les données. Pour ce faire, nous recherchons un expert Power BI pour créer ces tableaux de bord et concevoir, mettre en œuvre et optimiser le modèle de données de base, en veillant à ce que des données de haute qualité et contrôlées soient disponibles pour l'analyse et le reporting. Principales responsabilités / attentes du poste : * Concevoir et créer des tableaux de bord/rapports Power BI en fonction des besoins de l'entreprise. * Optimiser les ensembles de données Power BI et les mesures DAX afin de garantir les performances, la facilité d'utilisation et la réutilisabilité. * Co-créer des modèles de données sur Databricks en collaboration avec l'ingénieur de données. * Mettre en œuvre l'automatisation du déploiement des tableaux de bord et des ensembles de données Power BI afin de permettre un déploiement rapide et répétable. * Collaborer avec les équipes d'ingénierie des données, d'analyse de la chaîne d'approvisionnement et de gouvernance pour définir et mettre en œuvre des solutions évolutives

Technologies de l'Information et de la Communication

Data Engineer

L'équipe Data & IA aide les fonctions et les métiers à tirer parti de la technologie, de l'IA et des analyses avancées pour améliorer les performances et favoriser l'innovation. Nous soutenons directement les priorités stratégiques du client en menant à bien des projets de données à grande échelle, grâce à une plateforme de données unifiée, conforme et moderne, centrée sur Databricks. Au sein de cette équipe, nous lançons un projet visant à créer une suite de tableaux de bord Power BI afin d'assurer un suivi en temps réel de l'exécution de la chaîne d'approvisionnement et d'améliorer l'efficacité de la prise de décision grâce à des informations centralisées et basées sur les données. Pour ce faire, nous recherchons un Data Engineer compétent pour concevoir et construire des pipelines de données fiables, intégrer diverses sources de données brutes et garantir que les données de la chaîne d'approvisionnement sont accessibles et exploitables dans ces tableaux de bord et dans toute l'organisation. Principales responsabilités / attentes du poste : * Mise en place et exploitation du cadre et des pipelines de traitement des données : * Connexion à diverses sources de données brutes (API internes/externes, lacs de données dans le cloud, bases de données) pour ingérer les données dans Databricks * Mise en œuvre de transformations de données à grande échelle pour automatiser la création de nouvelles données à des fins d'analyse * Création et gestion de bases de données et de solutions de stockage de données efficaces (SQL/NoSQL) pour organiser les données structurées et non structurées. * Exposition des données via des API, des datamarts, des points de terminaison SQL et des solutions de tableaux de bord * Garantir la qualité, la cohérence et la sécurité des données, conformément aux normes du secteur. * Documenter les flux de travail, les modèles de données et les configurations de pipeline afin de garantir la transparence et la facilité d'utilisation pour les analystes et les parties prenantes.

Technologies de l'Information et de la Communication

Data Engineer Aws / Databricks (It) / Freelance

Nous recherchons un(e) Data Engineer expérimenté(e) pour intervenir sur une mission de conseil et d?optimisation d?une Data Platform AWS Databricks., Auditer l?existant de la Data Platform AWS Databricks Proposer des préconisations techniques & méthodologiques pour renforcer la performance et la fiabilité Conseiller les équipes sur les bonnes pratiques Data & Cloud Contribuer à l?évolution et à la roadmap de la plateforme Accompagner les équipes internes dans la mise en ?uvre

Technologies de l'Information et de la Communication

Tech Lead Java (It) / Freelance

Contexte de la mission L'équipe conçoit et développe une plateforme interne permettant à toutes les équipes Data de l?entreprise de définir et d?automatiser des règles de qualité des données exécutées sur les datasets présents dans BigQuery. Ces règles peuvent être définies à partir de requêtes SQL personnalisées ou via des templates prédéfinis appelés Data Quality Metrics, qui mesurent diverses dimensions de la qualité des données, * Planifier l?exécution des règles (scheduling) * Être notifié par email, slack en cas de non-respect des quality gates * Visualiser l?historique des métriques sous forme de graphes, * 1 Développeur Front-end senior (Vue.js) * 1 Développeurs Back-end expert * 1 Product Owner (mi-temps) * 1 Product Manager * 1 Tech Lead (tiers temps) ? Objectifs de la mission En tant que Tech lead, vous serez intégré au c?ur de l?équipe et participerez activement à : * La conception et l?implémentation de nouvelles fonctionnalités métier autour des règles et métriques de qualité * L?évolution de l?architecture modulaire du back-end (Spring Boot/Java 21) * L?amélioration de la scalabilité et fiabilité de la plateforme (Kafka, Kafka Stream, Firestore, PostgreSQL, GKE) * La revue de code, le mentorat éventuel et l?amélioration continue de la qualité du code * Le maintien et le monitoring de l'application

Technologies de l'Information et de la Communication

DÉCOUVREZ CES MISSIONS
POPULAIRES

Tests Et Contrôles De Sécurité (It) / Freelance

Maîtrise du fonctionnement des systèmes d?exploitation, des applications web et de la configuration réseau IP/Ethernet. Expertise des méthodologies de tests d?intrusion. Maîtrise des outils de recherche et d?exploitation de vulnérabilités. Capacité à proposer des recommandations pertinentes aux métiers grâce à une connaissance approfondie des bonnes pratiques de sécurité.

Technologies de l'Information et de la Communication

Chef De Projet Sap Fi-Co (It) / Freelance

Apporter expertise et leadership en chefferie de projet sur le périmètre Trésorerie et Finance. Participer à l?étude, la validation et le choix des solutions en lien avec les besoins métiers. Coordonner les intégrateurs et l?ensemble des parties prenantes internes et externes. Valider les Blueprints, documents de paramétrage et spécifications technico-fonctionnelles. Piloter et suivre les phases de tests, UAT et Go Live. Garantir la livraison des projets SI dans les délais, budgets et standards de qualité. Accompagner la définition du Core Model SAP S/4, les déploiements et les évolutions. Assurer le support et l?appropriation des solutions par les utilisateurs finaux, en coordination avec les relais métiers locaux et régionaux. Environnement technique et fonctionnel Domaines : Trésorerie, Finance (Accounts Payable, Procure-to-Pay) ERP : SAP FI-CO, SAP MM, SAP S/4HANA (un plus) Outils trésorerie : Trax, Integrity Solution dématérialisation : ReadSoft Kofax Formats bancaires : CFONB, autres standards internationaux Intégration trésorerie-comptable et flux bancaires

Technologies de l'Information et de la Communication

Ingénieur Devsecops / Cloud & Kubernetes

La mission portera sur le maintien, l'évolution et la sécurisation d'infrastructures cloud critiques, avec une forte orientation Kubernetes, sécurité, et infrastructure as code (IaC)., => Assurer la maintenance et la disponibilité des infrastructures cloud utilisées par les équipes internes (sites web, applications mobiles, outils métiers, streaming…) => Administrer, opérer et superviser les clusters Kubernetes => Développer et maintenir des tests de sécurité automatisés, intégrés dans les pipelines CI/CD => Conseiller, former et accompagner les équipes techniques sur les bonnes pratiques DevSecOps et cybersécurité

Technologies de l'Information et de la Communication

Ingénieur Stockage San Et Sauvegarde

* Administrer, maintenir et faire évoluer les solutions de stockage (SAN, NAS, objets) et de sauvegarde (on-premise et cloud) * Assurer le support de niveau 2/3 sur les incidents liés aux environnements de stockage et de backup * Garantir la disponibilité, la performance et la sécurité des données stockées * Participer aux projets d'architecture, de migration ou de mise à jour des infrastructures * Automatiser les tâches récurrentes et améliorer les processus d'exploitation * Rédiger, maintenir et mettre à jour la documentation technique (procédures, schémas, plans de reprise, configurations) * Travailler en collaboration avec les équipes systèmes, réseaux, sécurité, DevOps et cloud * Participer à l'élaboration et au suivi des plans de sauvegarde et de reprise d'activité (PRA/PCA) * Assurer une veille technologique sur les innovations en stockage, sauvegarde, virtualisation et orchestration

Technologies de l'Information et de la Communication