Inventiv IT
Inventiv'IT est un cabinet regroupant des experts, des partenaires et des consultants qui accompagnent nos clients dans le diagnostic, la mise en place de métrologies et le déploiement de solutions adaptées. Nous sommes experts sur 2 axes majeurs du Data Management : - le Big Data : * avec un catalogue de formations au Big Data (présentation, fondamentaux SI et métiers, analyse, outils Big Data etc.) * l'étude du système d'Information et la réalisation de POC ou de POV. * la définition d'une stratégie et d'une politique de la gouvernance des Data adaptées * l'accompagnement dans le déploiement des solutions Big Data - la Business Intelligence (ou Informatique Décisionnel) et le Smart BI : * l'étude, la définition des besoins et la préconisation de solutions adaptées * l'accompagnement dans la réalisation du projet : architecture, développement et déploiement des outils * l'accompagnement et la conduite du changement via des formations, des plans de communication pédagogique et le transfert des compétences * l'assurance d'experts techniquement compétents (Oracle, BI Apps, DACC, Tableau Software, Qlikview, ...) qui pilotent également les migrations et l'évolution des outils et des besoins de nos clients. Inventiv'IT est l'expert de la valorisation des données d'entreprises.
MISSION
Vous intégrerez l'equipe IT Corporate Functions Data Integration, qui a pour responsabilité l'intégration des données (ainsi que les flux retours) en provenance de notre partenaire Arkea (qui opère le système bancaire en marque blanche pour le compte de CCF) vers notre Data Platform sur le cloud AWS. Vous aurez à travailler sur le « run » (suivi de production et gestion des défauts sur les données, Jobs AWS Glue (Spark serverless sur AWS) - Lambda Functions AWS - DAG Airflow - Flux de fichiers CFT/SFTP - Reporting PowerBI ainsi que sur les nouveaux projets : - « Ingestion V2 » : Evolution de l'ingestion des données dans la Data Platform (Spark). - Data Quality : mise en place de traitements (DBT) pour détecter les données non conformes et consolider des KPI permettant de gérer la qualité des données. - Data Privacy : purge de données, mise en conformité RGPD. - API Management (Gravitee) accompagnement au deploiement des nouvelles API / migration des API existantes vers cet outil. Administration de l'outil en lui-même (K8S, helm, AWS).
PROFIL RECHERCHÉ
Vous justifiez d'une expérience de plus de 5 ans dans le domaine de la data et/ou des solutions cloud AWS (idéalement orientées Data ou API Management)., * Esprit d'analyse et de diagnostique * Capacité d'anticipation, force de proposition, inventivité * Excellent sens de la collaboration * Autonomie et rigueur * Curieux/se et passionné/ée Environnement de travail Vous savez travailler en équipe et en mode agile (Scrum) et vous vous appuyez sur des compétences solides en git et gitlab-ci pour mettre en commun votre code, participer aux revues de l'equipe, déployer les nouvelles versions jusqu'en production. Vous êtes passionné(e)s de nouvelles technologies et vous souhaitez développer vos compétences. Formation : A partir de Bac+4, tête bien faite, envie d'apprendre et de relever des défis Anglais : Professionnel, Spark Scala AWS (Data engineering) API Management Terraform Python Continuous delivery (gitlab-ci) Airflow Kubernetes PowerBI * Technologies (en gras les dominantes recherchées dans cette offre, les autres sont des plus) AWS : - Certifications : AWS Big Data / AWS Solution Architect / AWS Sysops / … - Expérience significative : IAM - Glue (ETL, Catalog, …) - EMR - RDS - Aurora - S3 - MSK - KMS - Sagemaker - Lambda - Step Functions - Athena - SQS - … Solutions tierces : Airflow - Stambia/Semarchy Xdi - PowerBI - Data Galaxy - Starburst/Trino Langages : Terraform - Java - Scala - Python Outils & Framework : Spark Scala - boto3 - AWS Cli - DBT Outils CI/CD : Git - Gitlab CI - JIRA
Nantes
Paiement horaire
380€ min - 380€ max
09/07/2025
Freelance
Notre plateforme gratuite rassemble des milliers de missions freelance mises à jour régulièrement.