MATCHING | INSCRIPTION

Product Owner Paiement - Lille (It) / Freelance - Lille - Plein temps (> 32 heures)

VISIAN

Non renseigné

MISSION

Contexte & Objectifs :
Rattaché(e) à la Team Product Paiement, vous interviendrez sur le projet PIton. Vos missions :

Piloter la conception du projet en lien avec les équipes BO, PO eCard et acquisition.

Suivre les phases de développement et de tests avec les squads concernées.

Assurer le suivi éventuel des prestataires externes (eCard, Visa, etc.).

Définir les SLA, garantir le bon déploiement en production (supervision / alerting) avec les équipes DOT., Expertise Paiement, Xpay, Wallet.

Maîtrise acquisition & émission.

Conception en mode produit Agile.

PROFIL RECHERCHÉ

Cloud Azure.

Développement informatique dans l?univers Paiement.

Profil candidat:Profil recherché :
Séniorité : 6 ans d?expérience minimum.

Expérience confirmée en tant que Product Owner dans le domaine du paiement.

Bonne capacité de coordination transverse (équipes internes & prestataires).

DETAIL DE L'OFFRE

Entreprise

Entreprise

VISIAN

Lieu

Lieu

Lille

Fréquence

Fréquence

Non renseigné

Date de publication

Date de publication

30/08/2025

Type Mission

Type Mission

Freelance

Partager cette mission via

MISSIONS SIMILAIRES
POUR VOUS

Mission Freelance Data Scientist / Data Analyst Expert Vertex Et Gcp

L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage. Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse, La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte.

Technologies de l'Information et de la Communication
POSTULER

Mission Freelance Devops Kubernetes

* Intégrer et prendre en charge les applications sur Kubernetes. * Déployer de nouvelles solutions technologiques et garantir leur disponibilité pour la production. * Former les développeurs et les équipes d'infrastructure. * Étendre le modèle sur site au cloud (Azure). * Automatiser et améliorer les processus existants. * Maintenir la stabilité de la plateforme et des applications. Stack technologique * Conteneurs et orchestration : Docker, Kubernetes, Rancher, ArgoCD * Langages : YAML, Go * Outils DevOps : Jenkins, Grafana, Prometheus, Sysdig * Cloud et infrastructure : AKS Azure, Linux (SUSE), GitLab, Artifactory, S3

Technologies de l'Information et de la Communication
POSTULER

Tech Lead Fullstack .Net - Iam Expert

Nous recherchons un(e) TECH LEAD sur le périmètre Authentification et Customer Identity and Access Management qui gère l'authentification des clients pour les sites eCommerce du groupe . Un Tech Lead est le.la garant.e de la qualité logicielle du delivery de l'équipe. Il décide des choix techniques en collaboration avec l'équipe, le Head Of Tech, la team architecture et les team DevOps. Il.Elle possède une capacité relationnelle et méthodologique permettant de faire monter l'équipe en compétence. - ACTIVITES PRINCIPALES Vision stratégique / business - Comprend le fonctionnel pour pouvoir porter la vision technique : - Comprend les implications techniques des nouvelles epics et user-stories, - Est garant.e des cadrages techniques des user-stories à implémenter, - Propose des compromis techniques/fonctionnels et lève les alertes. - Travaille en étroite collaboration avec le.la Product Owner : - Challenge ses besoins fonctionnels et collabore sur les priorisations des sujets techniques - Product Owner et Tech Lead forment un binome fort pour piloter l'équipe et son produit. Vision technique - Est garant.e de la qualité logicielle de la réalisation, organise et effectue des revues de codes dans ce but, - Est le.la décideur des choix techniques en collaboration avec l'équipe et le.la Head of Tech, - Collabore à l'identification des contraintes d'architecture et s'assure d'être dans la trajectoire définie avec les ambitions techniques définies par la team architecture, - Collabore à la fois avec les OPS et des contributeurs techniques externes à l'équipe afin de fluidifier la réalisation du projet et les challenger, - Co-construit une roadmap à 3 mois des améliorations techniques permettant de garantir un investissement en continue sur la qualité. - Synchronise la roadmap technique et fonctionnelle avec les autres équipes de la Digital Factory. Vision équipe - Etre le référent technique sur les pratiques de développement de l'équipe, - Guide l'équipe vers l'excellence technique et l'autonomie : - Favorise l'apprentissage et la progression des développeurs de l'équipe en mettant en oeuvre des bonnes pratiques. - Participe aux développements Vision opérationnelle - Est garant du bon fonctionnement de ses livraisons en production : - Etablit le plan de déploiement, - Prévoit le bon niveau de monitoring/log, - Anticipe, planifie et suit les livraisons, - Analyse les problèmes identifiés en production, - Gère les situations de crise et est apte à prendre les bonnes décisions.

Technologies de l'Information et de la Communication
POSTULER

Senior Database Reliability Engineer - M Doctolib

We are looking for a Senior Database Reliability Engineer to join the Doctolib Database Optimization team in the Platform team. The team which you will join ensures the reliability and performance of our datastores while fostering a platform mindset in our transition to the you build it, you run it paradigm. It is a multidisciplinary team made of both Site Reliability Engineers and Software Engineers, which enables us to have a complete view of the problems we need to solve and of the alternative solutions we might implement to solve them. As a Database Reliability Engineer (DBRE), you will play a critical role in our mission for our main datastores: PostgreSQL / AWS Aurora, Kafka, Couchbase and OpenSearch. Your responsibilities include but are not limited to: - Reliability Engineering: Ensure high availability of our datastores and our own operational efficiency through observability, automation, tooling, backup strategies, disaster recovery planning and process improvement, - Database maintenance: Handle database infrastructure maintenance including upgrades, performance optimization, cost optimization and capacity planning, - Incident mitigation: Participate in incident response for datastore-related issues in production during business hours, when the issue cannot be fixed by the responsible feature team, - Database-as-a-service: Empower feature teams with database tooling, guidelines, training and support to manage and use their databases efficiently, - Datastore expertise sharing: Stay up-to-date with datastore technology evolution and share knowledge with the team on new features, best practices, and industry trends. About our tech environment - Our solutions are built on a single fully cloud-native platform that supports web and mobile app interfaces, multiple languages, and is adapted to the country and healthcare specialty requirements. To address these challenges, we are modularizing our platform run in a distributed architecture through reusable components. - Our stack is composed of Rails, TypeScript, Java, Python, Kotlin, Swift and React Native. - We leverage AI in an ethical manner across our products to empower patients and health professionals. Discover our AI vision here and learn about our first AI hackathon here!

Technologies de l'Information et de la Communication
POSTULER

DÉCOUVREZ CES MISSIONS
POPULAIRES

Formateur / Formatrice En Logistique

* Adaptation des contenus aux apprenants * Animation de groupes * Animer des sessions de formation * Encourager la participation de chaque membre du groupe * Gérer les supports de formation

Education, Formation et Recherche
POSTULER

Formateur Basé En Idf Management Et Soft Skills

Une idée simple, rejoignez le CLUB. il est fait pour vous si vous : * êtes titulaires d'un titre de formateur d'adulte * êtes basé en IDF (aucun recrutement de formateur basé en province ne se étudié) * animez des formations en management, relation client, communication écrite et orale ou efficacité professionnelle * souhaitez bénéficier de formation, d'analyse de pratiques, d'un accompagnement personnalisé * souhaitez disposer d'un volume d'activité qui sécurise votre activité Nous sommes à votre disposition pour vous présenter plus spécifiquement notre partenariat CLUB !

Education, Formation et Recherche
POSTULER

Formateur En Management

Le CFA recherche pour son équipe un·e formateur·trice en management pour nos BTS MCO , pour un volume de 100 heures. Ce poste est aussi ouvert aux formateurs auto-entrepreneurs. Formation des apprenant·e*·s* : * Concevoir, préparer et animer les séances pédagogiques en accord avec les référentiels et dans le respect de la démarche qualité * Mettre en place le déroulé et le suivi pédagogique du programme * Concevoir des outils pédagogiques et supports adaptés en présentiel et en distanciel * Evaluer le niveau des apprenant·e·s et leur besoin individuel de formation pour une pédagogie différenciée * Evaluer l'acquisition des compétences tout au long du parcours éducatif * Veiller sur les dernières tendances d'enseignement et les évolutions de programmes

Education, Formation et Recherche
POSTULER

Professeur Tourisme

* Vous assurerez la préparation du contenu pédagogique et l'animation des cours : * Les thématiques principales en 1ère année sont les suivantes : * Les éléments fondamentaux d'une veille informationnelle. * Les éléments fondamentaux de l'environnement numérique. * La mise à jour d'une base d'information touristique. * Comment prioriser le (s) message (s) à communiquer dans une stratégie. * Les outils bureautiques et multimédias. Outils de traitement d'enquête. * Les éléments fondamentaux de la sécurisation du SIT., * Mettre en place des pédagogies actives : cas pratiques, projets, simulations professionnelles. * Évaluer les compétences acquises par les étudiants à travers des projets, examens et soutenances. * Collaborer avec l'équipe pédagogique pour assurer le suivi des étudiants et l'amélioration continue des enseignements., * Participer à la formation de futurs professionnels du tourisme * Intégrer une école dynamique et tournée vers l'employabilité, * Transmettre vos savoirs et expérience à des groupes de faible effectif (max 15 élèves par classe) * Évoluer dans un environnement innovant et en constante évolution.

Education, Formation et Recherche
POSTULER