Codezys
L'équipe agile a en charge le développement d'une application de suivi du vieillissement des tranches. Ce développement s'incrit dans le cadre d'une refonte de l'application. L'application assure la comptabilisation des transitoires d'exploitation des tranches.
Stack technique : Application Web Angular, utilisation de la librairie Angular Material avec une surcouche EDF, hébergement AWS, Base de données Postgre, ETL : Talend, Cabinet de conseil
Cabinet de conseil spécialisée en IT avec trois domaines d'expertises : - Le conseil & la transformation digitale - Expertises techniques - Développement sur-mesure - Notre Cabinet est né du constat que les migrations sont souvent laborieuses, coûteuses et longues. Les développements ne répondent pas de façon pertinente aux besoins métiers. Les solutions ne tiennent pas suffisamment compte de l'environnement ou de la structure. Avec plus de 17 ans d'expertise dans la transformation digitale. Notre équipe est issue du top 10% des profils tech pour répondre à vos besoins et vous accompagner sur les sujets, développement d'applicatifs sur mesure , Devops, Cloud, Api Management et SAP, New! Démarquez-vous en passant des tests de personnalité gamifiés. Lancez-vous dès maintenant, en découvrant les trois tests disponibles gratuitement!
MISSION
Taille de l'équipe : 4 développeurs, 1 scrum master, 1 business analyst, 1 product owner
Méthodologie de travail : Agile Scrum
Enjeux du projet : Création de l'application (refonte de l'ancienne pplication)
Le titulaire met en œuvre le processus de migration des données de l'ancienne application (Postgre) vers la nouvelle application Postgre). Le modèle de données est modernisé dans la nouvelle application. Ce qui implique un soin précis sur la mise en oeuvre du processus et une vérification assidue de la qualité des données migrées.
Objectifs et livrables, 1. Analyse & préparation :
Analyse des sources et cibles
* Comprendre la structure des bases PostgreSQL source et cible (schémas, types, relations)
* Identifier les tables, colonnes et données à migrer
* Vérifier les différences éventuelles entre les modèles de données.
Analyse des contraintes fonctionnelles & techniques
* Volumétrie (nombre d'enregistrements, poids total des données).
* Contraintes de performance, de sécurité, de qualité de données.
* Définition des règles de transformation ou de nettoyage.
Cartographie des données
* Établissement d'une correspondance source * cible (mapping).
* Documentation des transformations à appliquer (ex : formats de date, renommage de champs, types de données à convertir).
2. Conception & développement Talend
Création des jobs Talend
* Création de jobs Talend pour l'extraction, transformation et chargement
* Mise en place des connexions, paramètres de configuration (contexte).
Gestion des erreurs & rejets
* Détection et gestion des erreurs de transformation ou d'insertion.
* Création de flux de rejets pour les données non conformes.
Optimisation des traitements
* Découpage des jobs par lots/logique métier.
* Utilisation de traitements parallèles ou de buffers selon les volumes.
3. Tests & validation
Tests unitaires
* Vérification des traitements élémentaires (job par job).
* Validation des transformations appliquées.
Tests d'intégration
* Chargement complet d'un jeu de données de test.
* Comparaison entre les données source et les données migrées.
Tests de performance
* Mesure du temps d'exécution.
* Vérification des performances sur des volumes représentatifs
4. Exécution de la migration
Planification des lots de migration
* Séquencement des traitements.
* Orchestration de l'exécution des jobs (via Talend ou scripts externes).
Supervision & suivi
* Surveillance des jobs durant l'exécution.
* Analyse des logs et reporting (succès/échecs, rejets).
5. Mise en producti, on & post-migration
Déploiement des jobs Talend en environnement cible
* Export, import et configuration des jobs pour production.
* Automatisation éventuelle (via Talend Scheduler, cron, etc.).
Contrôles post-migration
* Vérification de l'exhaustivité et de l'intégrité des données.
* Comparaison statistique (nombre d'enregistrements, sommes, etc.).
* Validation métier.
Documentation & réversibilité
* Rédaction de la documentation technique (architecture, flux, scripts).
* Préparation d'un plan de retour arrière en cas d'échec
Livrables attendus :
1. Phase d'analyse & cadrage
* Document de cadrage de la migration
* Cartographie des données source et cible
* Matrice de mapping source * cible - Analyse d'impact
2. Phase de conception et développement
* Spécifications techniques des flux de migration
* Scripts SQL associés (si nécessaires)
3. Phase de tests
* Plan de tests de migration
* Rapports de tests et de performance
PROFIL RECHERCHÉ
* Solide maîtrise de Talend Open Studio / Talend Data Integration.
* Bonne connaissance de PostgreSQL (SQL, index, contraintes, performances).
* Capacité à écrire des requêtes complexes, procédures, vues.
* Expérience en migration de données / projets de transformation de données.
* Sens du détail et rigueur sur la qualité des données.
Certification appréciées :
* Talend Data Integration Certified Developer
* EDB PostgreSQL Associate / Professional Certification
* AWS Certified Data Analytics - Specialty
Savoir-être
* Forte autonomie, Bon relationnel, Force de proposition, Proactivité
Expérience professionnelle requise :
* Minimum 4 ans d'expérience.
* Dispose d'au moins 2 expériences significatives en tant que Data Engineer.
* Sait évoluer dans un contexte agile et sait échanger avec tous les profils de l'équipe.
Compétences demandéesCompétences
Niveau de compétence
Transformation de données
Expert
POSTGRESQL
Expert, Migration de données
Codezys
Technologies de l'Information et de la Communication
Lyon
Plein temps (> 32 heures)
Non renseigné
23/08/2025
Freelance