MATCHING | INSCRIPTION

Tech Lead Fullstack .Net - Iam Expert - Paris - Plein temps (> 32 heures)

Tech Lead

Non renseigné

MISSION

Nous recherchons un(e) TECH LEAD sur le périmètre Authentification et Customer Identity and Access Management qui gère l'authentification des clients pour les sites eCommerce du groupe . Un Tech Lead est le.la garant.e de la qualité logicielle du delivery de l'équipe. Il décide des choix techniques en collaboration avec l'équipe, le Head Of Tech, la team architecture et les team DevOps. Il.Elle possède une capacité relationnelle et méthodologique permettant de faire monter l'équipe en compétence.

- ACTIVITES PRINCIPALES
Vision stratégique / business
- Comprend le fonctionnel pour pouvoir porter la vision technique :
- Comprend les implications techniques des nouvelles epics et user-stories,
- Est garant.e des cadrages techniques des user-stories à implémenter,
- Propose des compromis techniques/fonctionnels et lève les alertes.
- Travaille en étroite collaboration avec le.la Product Owner :
- Challenge ses besoins fonctionnels et collabore sur les priorisations des sujets techniques
- Product Owner et Tech Lead forment un binome fort pour piloter l'équipe et son produit.

Vision technique
- Est garant.e de la qualité logicielle de la réalisation, organise et effectue des revues de codes dans ce but,
- Est le.la décideur des choix techniques en collaboration avec l'équipe et le.la Head of Tech,
- Collabore à l'identification des contraintes d'architecture et s'assure d'être dans la trajectoire définie avec les ambitions techniques définies par la team architecture,
- Collabore à la fois avec les OPS et des contributeurs techniques externes à l'équipe afin de fluidifier la réalisation du projet et les challenger,
- Co-construit une roadmap à 3 mois des améliorations techniques permettant de garantir un investissement en continue sur la qualité.
- Synchronise la roadmap technique et fonctionnelle avec les autres équipes de la Digital Factory.

Vision équipe
- Etre le référent technique sur les pratiques de développement de l'équipe,
- Guide l'équipe vers l'excellence technique et l'autonomie :
- Favorise l'apprentissage et la progression des développeurs de l'équipe en mettant en oeuvre des bonnes pratiques.
- Participe aux développements

Vision opérationnelle
- Est garant du bon fonctionnement de ses livraisons en production :
- Etablit le plan de déploiement,
- Prévoit le bon niveau de monitoring/log,
- Anticipe, planifie et suit les livraisons,
- Analyse les problèmes identifiés en production,
- Gère les situations de crise et est apte à prendre les bonnes décisions.

PROFIL RECHERCHÉ

De formation informatique, vous disposez d'une expérience significative d'au moins 5 ans de Tech Lead en environnement .Net et maitrisez parfaitement les technologies induites. Les compétences indispensables pour la bonne réalisation de cette mission sont :
- Haut niveau de rigueur
- Autonomie, flexibilité et précision
- Esprit de collaboration et force de proposition
- Aisance relationnelle et rédactionnelle
- Relationnel et sens de l'écoute
La solution mise en oeuvre s'appuie sur le produit Forgerock Cloud Identity ainsi que sur un écosystème d'API développés par l'équipe ou par des équipes partenaires.

Le produit est hautement personnalisable en y intégrant des scripts développés en Javascript ou en Groovy. Une appétance pour l'intégration de ce type de produit est un plus, en particulier concernant la gestion de la relation avec l'éditeur (support et professionnal Services).

COMPÉTENCES TECHNIQUES :

important : OAuth2 ; OpenIdConnect ; Javascript ; AspNet ; Core ; C# ; TDD, Jira ; Gitlab ; Scrum ; testing front ; Code Review
Apprécié : React JS ; Forgerock ; Java / Cucumber ; Azure / AzureAD

MISSIONS SIMILAIRES
POUR VOUS

Mission Freelance Data Manager

La mission consiste à accompagner la structuration de la plateforme Data, utilisée par de multiples équipes métiers et techniques, et à garantir la bonne gestion et gouvernance des données. Missions principales * Définir et appliquer les standards de Data Management (naming, documentation, règles de modélisation, conformité RGPD/SSI). * Modéliser et garantir l'architecture fonctionnelle de la plateforme Data. * Collaborer avec les Product Owners et Data Engineers pour concevoir et valider les solutions data. * Gérer le portefeuille data : qualité, complétude, cohérence des métadonnées, mise à jour du glossaire métier et du lineage. * Animer des ateliers, formations et sessions de support auprès des équipes pour diffuser les bonnes pratiques. * Produire des reportings réguliers et mettre en évidence les risques, gaps et opportunités. * Contribuer à la roadmap et à l'évolution des assets data au niveau du groupe.

Technologies de l'Information et de la Communication
POSTULER

Architecte Infrastructure

Dans le cadre d'un renfort d'équipe, nous recherchons pour notre client un Architecte Infrastructure H/F. La mission consiste principalement à cadrer les projets techniques adressés aux équipes d'infrastructure, accompagner la croissance des métiers, contribuer aux projets techniques et métiers en collaboration avec les équipes serveurs, réseaux, stockage, sécurité et DevOps. L'objectif est d'accompagner les responsables de projet dans la phase d'élaboration de manière à s'assurer que l'ensemble des prérequis techniques nécessaires à la phase de construction sont bien conformes aux règles d'architecture de l'entreprise. Le rôle de l'architecte : * Coordonner les différentes expertises techniques (réseau, stockage, sysadmin, expert virtualisation) lors de la phase d'élaboration des solutions techniques. * Challenger les experts techniques et métiers avec un esprit critique et constructif. * Participer à la résolution des problèmes * Piloter des projets

Technologies de l'Information et de la Communication
POSTULER

Expert Sauvegarde

* Participer aux projets Build * Mettre à jour l'infrastructure de sauvegarde * Mette en place de nouvelles infrastructures de sauvegarde * Améliorer l'existant (automatisation, etc.) * Assurer la relation avec l'éditeur DELL et les équipes internes (RUN, etc.) Environnement Technique : Networker, PPDM, Avamar, Data Domain, Build, DELL Le poste est basé à Gradignan (33). Dans le cadre de vos fonctions, vous pourrez bénéficier jusqu'à 2 jours de télétravail par semaine après votre intégration.

Technologies de l'Information et de la Communication
POSTULER

Mission Freelance Data Scientist / Data Analyst Expert Vertex Et Gcp

L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage. Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse, La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte.

Technologies de l'Information et de la Communication
POSTULER

DÉCOUVREZ CES MISSIONS
POPULAIRES

Business Analyst Pega

Nous recherchons un Business Analyst expérimenté pour renforcer l'équipe en charge du socle de Case Management basé sur la solution PEGA. Missions : * Accompagner les métiers dans l'expression et le suivi des besoins. * Assurer la coordination des demandes métiers et IT sur le périmètre Case Management. * Organiser et animer les comités de suivi et de maintenance. * Participer à la conception fonctionnelle (rédaction des spécifications). * Rédiger et exécuter les cahiers de recette. * Contribuer à la gestion du changement et au suivi des mises en production. * Produire les livrables fonctionnels (analyse de risques, conception, cahier de recette)., (encadrement par des experts, échanges sur les bonnes pratiques, favoriser l'innovation...) * Une entreprise reconnue "Great Place To Work" * Des évènements et séminaires inoubliables, des soirées d'agence conviviales 𝐌𝐎𝐁𝐈𝐋𝐈𝐓𝐄 Une mobilité nationale et internationale pour vous accompagner dans vos projets de vie. 𝐃𝐈𝐕𝐄𝐑𝐒𝐈𝐓𝐄 Le Groupe JEMS porte fièrement sa valeur "Diversité" en se mobilisant pour l'inclusion et l'égalité des chances et en luttant contre toutes formes de discrimination. Tous nos postes sont ouverts aux personnes en situation de handicap. 𝐋𝐄𝐒 𝐕𝐀𝐋𝐄𝐔𝐑𝐒 𝐉𝐄𝐌𝐒 Les valeurs représentent le savoir être de l'entreprise. Elles sont fondamentales car elles décrivent notre approche du travail ainsi que les conditions de vie chez JEMS. Nous en avons quatre : l'engagement, l'agilité, l'audace, la diversité

Direction des Secteurs Privé et Publique
POSTULER

Directeur / Chef De Projet Senior

Au sein de la DSI d'un grand laboratoire pharmaceutique international, vous aurez la responsabilité du pilotage de projets IT stratégiques dans les domaines R&D et Industrie. Vos missions couvrent le cadrage des besoins, la planification, la gestion budgétaire et le suivi des risques. Vous serez amené(e) à animer les comités de pilotage (COPIL, COPROJ), assurer la communication auprès des parties prenantes et garantir la bonne application de la méthodologie interne. Vous interviendrez dans un environnement hautement réglementé et exigeant, où rigueur, qualité et respect des délais sont essentiels. Ce rôle vous permettra d'être un acteur clé dans la réussite de projets à forte visibilité, en contribuant directement à la transformation digitale et technologique du groupe.

Direction des Secteurs Privé et Publique
POSTULER

Mission Freelance Référent N3 Openstack

* Conception et déploiement de nouvelles plateformes et offres sur OpenStack * Maintien en conditions opérationnelles des infrastructures existantes. * Supervision, gestion des incidents et mises à jour sur l'environnement OpenStack. * Réalisation du capacity planning pour anticiper les besoins en ressources. * Support aux équipes consommatrices d'infrastructure (Data/Cloud privé). * Contribution à l'industrialisation des processus via GitOps et Ansible. * Suivi des métriques, logs et alerting avec Grafana, ELK et Sensu. * Participation aux astreintes 24/7 dans un cadre d'exploitation critique.

Direction des Secteurs Privé et Publique
POSTULER

Analyste Applicatif - Comptabilité

Vous êtes Business Analyst, avec une appétence pour la compta et un goût pour la résolution de problèmes complexes ?, Nous poursuivons notre développement et recherchons actuellement un.e Analyste applicatif, avec des compétences en comptabilité et en gros système. Votre rôle : Aider le client à mieux comprendre et résoudre les écarts entre ce qui est comptabilisé et ce qui est réellement géré. Au quotidien, vous serez amené.e à : - Analyser les écarts entre la gestion et la comptabilité - Suivre et résoudre des incidents liés à ces écarts - Gérer des tickets avec les équipes techniques et les utilisateurs - Contrôler les flux et les données sur plusieurs applications - Être l'interlocuteur.trice des établissements concernés pour les accompagner dans le suivi, Une mission où vous mettez les mains dans le concret, avec un impact direct sur la qualité comptable - Vous êtes au cœur du dispositif : en lien avec les équipes fonctionnelles, techniques, et les utilisateurs finaux - Vous évoluez dans un environnement stimulant, avec des interlocuteurs experts et des outils à fort enjeu, 2/ Premier contact : un coup de fil rapide pour voir si on part sur de bonnes bases 3/ Premier entretien : on parle de vous, de vos compétences, de vos projets et on vous ouvre les coulisses de CELAD 4/ Rencontre Business Manager : on plonge dans le concret, la mission, l'équipe, les défis...

Direction des Secteurs Privé et Publique
POSTULER