DataOps / Datalab est une équipe de la division AI & Innovation du Groupe. Notre travail est de mettre en place des plateformes Cloud-Native de Data Science / IA (Domino Datalab) clé-en-main pour l'ensemble des équipes Data du groupe. À ce jour, nous avons 15+ plateformes, utilisées par 25 gros clients, soit environ 700 Data Scientists du groupe. Actuellement, nous assurons l'installation, le déploiement et le support de 2 typologies de plateformes : * Celles installées sur une ferme de GPUs Nvidia, installées sur des machines On-Premises, utilisables par toutes les équipes Data Science qui en font la demande * Celles installées sur IBM Cloud Nous développons également des services / produits rattachés à ces plateformes : * Up & Running : Le Model Hub : Catalogue de modèles LLM utilisables dans la banque. L'AI Competency Center : Nous sommes délégués chez des clients du groupe pour sortir de terre des projets IA * En cours : Plateforme d'inférence dédiée, 83%... c'est la croissance de LeHibou en 2022, avec un chiffre d'affaires de 52 Millions d'euros ! LeHibou a été classé en 3ème position parmi les 500 sociétés françaises qui ont fait le plus de croissance (Classement Les Echos 2020) et poursuit activement son développement. Première plateforme d'intermédiation entre freelances et grandes entreprises dans le domaine de l'IT, LeHibou propose une nouvelle approche au secteur du Consulting Informatique en adoptant les nouveaux codes du freelancing. En utilisant l'intelligence artificielle et le Big Data, LeHibou permet une mise en relation rapide et efficace entre des entreprises (CAC40 & ETI) et les meilleurs freelances IT du marché. Un modèle hybride de « plateforme de services », avec une partie digitalisée et un accompagnement off-line réalisé par des équipes de choc ! Déjà plus de 72 000 consultants se sont inscrits sur la plateforme qui a ouvert des bureaux à Bordeaux, Toulouse, Nantes, Lyon et qui entame désormais son expansion à l'international., New! Démarquez-vous en passant des tests de personnalité gamifiés. Lancez-vous dès maintenant, en découvrant les trois tests disponibles gratuitement!
Nous recherchons un profil type architecte DataOps, MLOps, AI pour participer au design technique, à l'implémentation en production, à l'industrialisation, et au support et à l'amélioration continue des produits et services d'IA pour les métiers et fonctions du groupe Vous travaillerez avec le front sur : * L'élaboration, la mise en production, l'amélioration continue et le support opérationnel des fonctionnalités à valeur ajoutée autour des produits et services du Datalab : APIs, workflows MLOps, pipelines, dashboards, etc. You build it, you run it! * Participer au maintien en conditions opérationnelles, à la supervision et à la fiabilisation des 15+ plateformes de Data Science de Production du Groupe * Mettre en place les outils et bonnes pratiques, et accompagner les clients dans les démarches MLOps / LLMOps autour de ces outils. * Accompagner les utilisateurs dans l'utilisation de frameworks de calcul distribué et/ou d'accélérateurs de calcul hardware (GPU). * Renforcer les équipes de Support et d'accompagnement N3 du DataLab sur les plateformes et outils d'IA du groupe (best practices, mentoring, etc). Environnement technique de l'équipe Front * Docker / Kubernetes / OpenShift * Frameworks de calculs distribues (Spark, Ray, Dask, OpenMPI) * GPU Computing (CUDA, Rapids, NIMs, Nemo) * Environnements de Data Science Python, Conda, R (opt.) * Programmation en python * Shell scipting * MLFlow / KubeFlow * Outils de CI/CD DevSecOps/GitOps : Hashicorp Vault, Gitlab, Gitlab-CI, Artifactory, ArgoCD, Argo Workflow, Notre équipe est passée de 4 à 15 personnes en 2ans et nous passons à 20 cette année. Elle est séparée en 3 « mini-équipes » : * Front / AI Competency Center : Assurent le développement des solutions à offrir as-as-service et l'accompagnement des utilisateurs. * Automation : Pratiques DevSecOps / GitOps. / MLOps / LLMOps * GPU Grid System : Assurent l'administration des systèmes et un grid de GPU on premises … Et un PO Nous travaillons de pair avec : * Une équipe de DevOps pour les outils de plateformes (Vault, SSO etc...) * Une équipe de SRE pour les plateformes d'infra * Une équipe qui supporte le Datalake (Trino, Spark, et Minio) Environnement de travail
* Diplômes / Niveau d'étude : N/A, peu importe d'où vous venez, nous considérons que ce sont vos expériences et votre vision du métier qui priment * Niveau d'expérience : Sénior Expérience technique à connaître idéalement : * Cloud / Kubernetes : Admin / Troubleshooting / SRE * Monitoring/Alerting, idéalement avec des outils AIOps (Prometheus, ElasticSearch) * Data Engineering : pratique et/ou construction des environnements de Data Science/ML : Python, Conda, Jupyterlab * Automation : Expérience des chaînes de CI/CD (Gitlab-CI, ArgoCD, Argo Workflow) * Anglais courant (fournisseurs et clients en dehors de france, base documentaire entièrement en Anglais)
Technologies de l'Information et de la Communication
Montreuil
Temps partiel (≤ 32 heures)
Non renseigné
16/07/2025
Freelance
Notre plateforme gratuite rassemble des milliers de missions freelance mises à jour régulièrement.