MATCHING | INSCRIPTION
Background

Data Scientist - Mlops

CELAD

Dans le cadre du renforcement de notre équipe Data Science & DevOps, nous recherchons un profil hybride ayant une solide maîtrise des pipelines CI/CD, des bonnes pratiques de développement logiciel et une bonne compréhension des concepts Data Science. Le poste requiert une expertise en gestion de versions de modèles ML et une capacité à mettre en place des workflows robustes pour le déploiement et le monitoring de modèles en production., Balma, Occitanie > 1 000 salariés ESN Bienvenue chez CELAD ! Depuis nos débuts dans le monde bancaire en 1990, nous avons grandi pour devenir une force majeure dans le domaine de Systèmes d'Information & l'Informatique Industrielle. Notre #TeamCELAD de 1700 collaborateurs est fière de son implication dans ces deux domaines, travaillant avec plus de 250 clients, allant des PME/PMI aux Grands Comptes. CELAD-Montpellier offre des missions stimulantes à forte valeur ajoutée de Nîmes à Narbonne en région Occitanie. Grâce à notre diversité de clients, nous sommes actifs dans des secteurs aussi variés que la Banque et l'Assurance, le Médical, le Public, l'IT, la R&D, et bien d'autres. Une véritable palette d'opportunités qui saura satisfaire tous les appétits ! Nous sommes entièrement impliqués dans la gestion de nos collaborateurs et l'accompagnement de nos candidats, ce qui en fait la base de notre développement ainsi que le reflet de la qualité de notre travail. La bienveillance, l'enthousiasme et la passion transparaissent dès le premier contact à votre accompagnement au quotidien ! Si vous souhaitez faire partie de l'aventure Celadienne, rejoignez-nous !, New! Démarquez-vous en passant des tests de personnalité gamifiés. Lancez-vous dès maintenant, en découvrant les trois tests disponibles gratuitement!

MISSION

1. Mise en place et gestion des pipelines CI/CD : + Développer et maintenir des pipelines CI/CD complexes sous GitLab-CI pour des projets Data Science. + Automatiser les workflows de bout en bout (préprocessing, entraînement, déploiement) via Docker et des services cloud. + Assurer le versionnage des conteneurs et le suivi des environnements de production. 2. Gestion de la qualité du code : + Implémenter et configurer des outils de code quality : Ruff, Black, MyPy, SonarQube. + Garantir le respect des bonnes pratiques de développement : architecture de code, structuration des API, couverture des tests (unitaires et intégration). 3. Contribution Data Science : + Participer aux étapes clés du cycle de vie des projets ML : data sourcing, preprocessing, feature engineering, training, monitoring. + Collaborer avec les Data Scientists pour industrialiser les modèles et mettre en place un suivi des performances. 4. Gestion des versions des modèles ML : + Utiliser ML Flow pour le tracking des expériences, le versionnage des modèles et la gestion des artefacts ML. + Mettre en place des stratégies de rollback et de monitoring des modèles en production. 5. Domino Data Lab : + Participer à la configuration et à l'optimisation des workflows sous Domino Data Lab (en fonction des projets et des besoins du client)., Dans le cadre du renforcement de notre équipe Data Science & DevOps, nous recherchons un profil hybride ayant une solide maîtrise des pipelines CI/CD, des bonnes pratiques de développement logiciel et une bonne compréhension des concepts Data Science. Le poste requiert une expertise en gestion de versions de modèles ML et une capacité à mettre en place des workflows robustes pour le déploiement et le monitoring de modèles en production. Missions : 1. Mise en place et gestion des pipelines CI/CD : + Développer et maintenir des pipelines CI/CD complexes sous GitLab-CI pour des projets Data Science. + Automatiser les workflows de bout en bout (préprocessing, entraînement, déploiement) via Docker et des services cloud. + Assurer le versionnage des conteneurs et le suivi des environnements de production. 2. Gestion de la qualité du code : + Implémenter et configurer des outils de code quality : Ruff, Black, MyPy, SonarQube. + Garantir le respect des bonnes pratiques de développement : architecture de code, structuration des API, couverture des tests (unitaires et intégration). 3. Contribution Data Science : + Participer aux étapes clés du cycle de vie des projets ML : data sourcing, preprocessing, feature engineering, training, monitoring. + Collaborer avec les Data Scientists pour industrialiser les modèles et mettre en place un suivi des performances. 4. Gestion des versions des modèles ML : + Utiliser ML Flow pour le tracking des expériences, le versionnage des modèles et la gestion des artefacts ML. + Mettre en place des stratégies de rollback et de monitoring des modèles en production. 5. Domino Data Lab : + Participer à la configuration et à l'optimisation des workflows sous Domino Data Lab (en fonction des projets et des besoins du client).

PROFIL RECHERCHÉ

* DevOps / CI/CD : GitLab, GitLab-CI, Docker, services cloud (AWS, Azure, GCP). * Qualité du code : Ruff, Black, MyPy, SonarQube. * Langages : Python, Bash scripting. * Data Science / ML : Concepts de base en ML, Deep Learning, NLP, LLM. * Gestion du cycle de vie ML : Data preprocessing, feature engineering, monitoring des modèles. * Versionning des modèles : ML Flow., Dans le cadre du renforcement de notre équipe Data Science & DevOps, nous recherchons un profil hybride ayant une solide maîtrise des pipelines CI/CD, des bonnes pratiques de développement logiciel et une bonne compréhension des concepts Data Science. Le poste requiert une expertise en gestion de versions de modèles ML et une capacité à mettre en place des workflows robustes pour le déploiement et le monitoring de modèles en production.

DETAIL DE L'OFFRE

Secteur

Secteur

Technologies de l'Information et de la Communication

Lieu

Lieu

Montreuil

Durée

Durée

Temps partiel (≤ 32 heures)

Fréquence

Fréquence

Paiement horaire

Rémunération journalière

Rémunération journalière

500€ min - 500€ max

Date de publication

Date de publication

14/06/2025

Type Mission

Type Mission

Freelance

Compétences

Compétences

  • APIs
  • Amazon Web Services
  • Microsoft Azure
  • Bash Shell
  • Qualité Logicielle
  • Intégration Continue
  • DevOps
  • Python (Langage de Programmation)
  • Traitement du Langage Naturel
  • Services Cloud
  • Conception et Développement de Logiciel
  • SonarQube
  • Google Cloud
  • Feature Engineering
  • Large Language Models
  • Deep Learning
  • Gitlab
  • Gitlab ci
  • Opérations de Machine Learning
  • Docker
  • Architecture
  • Systèmes Automatisés
  • Gestion de la Performance
  • Gestion de la Qualité
  • Compétences de Modélisation
  • Gestion du Cycle de Vie
  • Science des Données

NOS DERNIÈRES MISSIONS
FREELANCE

Notre plateforme gratuite rassemble des milliers de missions freelance mises à jour régulièrement.

Mission Freelance Data Analyst / Power Bi

Dans une DSI en pleine structuration BI, l'équipe souhaite industrialiser la génération de rapports Power BI, tout en optimisant l'usage des sources SQL internes. Objectif : faire monter en maturité la fonction Data/Reporting et optimiser les flux de données décisionnels. Dans une DSI en pleine structuration BI, l'équipe souhaite industrialiser la génération de rapports Power BI, tout en optimisant l'usage des sources SQL internes. Objectif : faire monter en maturité la fonction Data/Reporting et optimiser les flux de données décisionnels., * Conception et maintenance de rapports Power BI à destination des métiers * Industrialisation des jeux de données (datasets, vues SQL, performance) * Mise en place de bonnes pratiques : nomenclature, versionning, documentation * Accompagnement des utilisateurs dans la compréhension des indicateurs * Participation à la gouvernance BI et à la structuration de la brique décisionnelle

Technologies de l'Information et de la Communication
Paris Freelance
Mission Freelance Tech Lead (Reactjs / Azure / Databricks / Nosql / Aws)

En tant que Tech Lead, ta mission principale est de : * Manager fonctionnellement les développeurs (Software Engineers, Data Engineers…) d'une ou plusieurs squads. * Assurer les choix techniques en collaboration avec la squad, dans le respect des standards. * Faire comprendre les choix techniques et obtenir l'adhésion des parties prenantes. * Interagir au quotidien avec les parties prenantes (métier, tech authority…). * Garantir la qualité logicielle de la prestation de l'équipe. * Veiller à la bonne mise en œuvre du plan de développement produit. Objectifs & Livrables * Assurer l'excellence technique : garantir les plus hauts standards de développement (qualité de code, tests, documentation). * Encadrer et guider : accompagner, soutenir et faire monter en compétences les membres de l'équipe. * Concevoir et architecturer : diriger l'architecture de systèmes complexes, performants et maintenables. * Faciliter la communication : assurer le lien entre dev, produit, QA, opérations. * Livraison dans les délais : supervision des plannings et respect des jalons projet., * Valider les architectures / modifs de code. * Piloter les discussions et arbitrages techniques. Gestion d'équipe * Encadrement des développeurs (notamment juniors). * Entretiens réguliers, évaluations, mentorat. * Culture d'amélioration continue. Supervision projet * Relation étroite avec les chefs de produit. * Maintien des plannings, suivi des tâches. * Maîtrise des risques techniques : dette, perf, scalabilité. Communication parties prenantes * Vulgarisation des sujets techniques. * Coordination transverse. * Représentation de l'équipe dev. Assurance qualité * Pratiques de tests robustes : unitaires, intégration, E2E. * Revue de code régulières. * Supervision CI/CD, pipelines automatisés. Interactions avec l'équipe * Daily stand-ups : suivi quotidien * Code reviews : feedback constructif * Sessions techniques : partages, brainstorming * Mentorat : accompagnement individuel ou collectif * Rétrospectives : amélioration continue

Technologies de l'Information et de la Communication
Paris Freelance
Data Engineer - Java / Spark Scala

En tant que Data Engineer, vous aurez un rôle clé dans la mise en place et l'optimisation des pipelines de données. Vous serez en interaction avec des équipes pluridisciplinaires (développeurs, data scientists, métiers) pour construire des solutions performantes et scalables. Vos missions au quotidien * Développer et optimiser des pipelines de données massifs avec Spark et Scala. * Assurer l'ingestion, le nettoyage et l'enrichissement des données en vue de leur exploitation. * Exposer les données via des API et Web Services pour les rendre accessibles aux applications et modèles ML. * Contribuer à l'industrialisation et à la mise en production des traitements Big Data. * Collaborer avec les data scientists pour améliorer la maturité industrielle des modèles de machine learning. * Maintenir et optimiser les solutions en production pour garantir leur performance et leur robustesse. Votre environnement technique * Langages : Java (J2EE / JDK 17), Scala * Big Data : Spark (SQL/DataFrame), Impala, Kudu, Hive, SQL, Parquet * Infrastructure & DevOps : Docker, Kubernetes, Helm, Git, Maven * Messaging & Streaming : Kafka, Redis * Tests & Qualité : JUnit, Mockito, PowerMock, ScalaMock * API : Web Services Rest

Technologies de l'Information et de la Communication
Toulouse Freelance
Data Engineer - Aws / Databricks

* Conception d'outils Big Data : Contribution active à la conception, au développement et à l'amélioration d'outils de traitement de données massives, couvrant l'ensemble du cycle de vie des données : ingestion, traitement, analyse et restitution. * Définition des besoins techniques : Collaboration étroite avec les utilisateurs de la plateforme Data pour comprendre les besoins métier et garantir un alignement optimal entre les solutions développées et les attentes fonctionnelles. * Développement sur Databricks et AWS : Réalisation de développements avancés sur les plateformes Databricks et AWS, en utilisant notamment les technologies suivantes : Python, SQL, Spark et Airflow. * Intégration des pratiques FinOps : Mise en œuvre de bonnes pratiques FinOps dans le développement afin d'optimiser les coûts, les performances et l'utilisation des ressources sur AWS. Utilisation d'outils tels que dbt, GitLab CI/CD, et autres solutions DevOps. * Audit et accompagnement transverse : Réalisation d'audits techniques et de revues de code au sein des équipes, avec pour objectif de renforcer la maîtrise des enjeux techniques et de favoriser l'adoption de stratégies FinOps efficaces.

Technologies de l'Information et de la Communication
Paris Freelance