Total des offres : 15 | Page 2 sur 3
1. Mise en place et gestion des pipelines CI/CD : + Développer et maintenir des pipelines CI/CD complexes sous GitLab-CI pour des projets Data Science. + Automatiser les workflows de bout en bout (préprocessing, entraînement, déploiement) via Docker et des services cloud. + Assurer le versionnage des conteneurs et le suivi des environnements de production. 2. Gestion de la qualité du code : + Implémenter et configurer des outils de code quality : Ruff, Black, MyPy, SonarQube. + Garantir le respect des bonnes pratiques de développement : architecture de code, structuration des API, couverture des tests (unitaires et intégration). 3. Contribution Data Science : + Participer aux étapes clés du cycle de vie des projets ML : data sourcing, preprocessing, feature engineering, training, monitoring. + Collaborer avec les Data Scientists pour industrialiser les modèles et mettre en place un suivi des performances. 4. Gestion des versions des modèles ML : + Utiliser ML Flow pour le tracking des expériences, le versionnage des modèles et la gestion des artefacts ML. + Mettre en place des stratégies de rollback et de monitoring des modèles en production. 5. Domino Data Lab : + Participer à la configuration et à l'optimisation des workflows sous Domino Data Lab (en fonction des projets et des besoins du client)., Dans le cadre du renforcement de notre équipe Data Science & DevOps, nous recherchons un profil hybride ayant une solide maîtrise des pipelines CI/CD, des bonnes pratiques de développement logiciel et une bonne compréhension des concepts Data Science. Le poste requiert une expertise en gestion de versions de modèles ML et une capacité à mettre en place des workflows robustes pour le déploiement et le monitoring de modèles en production. Missions : 1. Mise en place et gestion des pipelines CI/CD : + Développer et maintenir des pipelines CI/CD complexes sous GitLab-CI pour des projets Data Science. + Automatiser les workflows de bout en bout (préprocessing, entraînement, déploiement) via Docker et des services cloud. + Assurer le versionnage des conteneurs et le suivi des environnements de production. 2. Gestion de la qualité du code : + Implémenter et configurer des outils de code quality : Ruff, Black, MyPy, SonarQube. + Garantir le respect des bonnes pratiques de développement : architecture de code, structuration des API, couverture des tests (unitaires et intégration). 3. Contribution Data Science : + Participer aux étapes clés du cycle de vie des projets ML : data sourcing, preprocessing, feature engineering, training, monitoring. + Collaborer avec les Data Scientists pour industrialiser les modèles et mettre en place un suivi des performances. 4. Gestion des versions des modèles ML : + Utiliser ML Flow pour le tracking des expériences, le versionnage des modèles et la gestion des artefacts ML. + Mettre en place des stratégies de rollback et de monitoring des modèles en production. 5. Domino Data Lab : + Participer à la configuration et à l'optimisation des workflows sous Domino Data Lab (en fonction des projets et des besoins du client).
Technologies de l'Information et de la CommunicationNous recherchons pour l'un de nos clients Télécoms un(e) Data Scientist pour analyser la consommation énergétique des antennes télécom. L'objectif est de comprendre quelles fréquences (ex : 700 MHz, 1800 MHz...) consomment le plus, et de prévoir l'évolution de cette consommation dans le temps. Le ou la consultante devra utiliser des techniques de Machine Learning (ML) - c'est-à-dire des algorithmes capables d'apprendre des tendances à partir des données - et de Deep Learning (DL), une branche plus avancée du ML basée sur des réseaux de neurones, adaptée à des modèles complexes et non linéaires. A ce titre, vos principales missions seront les suivantes : - Nettoyer et structurer des données issues de différentes sources. - Créer et entraîner des modèles prédictifs avec Python (scikit-learn, TensorFlow ou PyTorch). - Identifier la part de consommation liée à chaque fréquence. - Interpréter les résultats à l'aide d'outils comme SHAP ou LIME. - Fournir des livrables clairs : visualisations, scripts, documentation et recommandations.
Technologies de l'Information et de la CommunicationNous recherchons un(e) Data Scientist expérimenté(e) pour intervenir auprès d?une entreprise internationale dans le cadre d?un projet stratégique alliant structuration de données, optimisation de l?offre produit et développement d?outils de cross selling. L?environnement est riche, les enjeux importants, et la collaboration se fait en forte interaction avec les équipes métiers. Vos missionsCollaborer avec les équipes métiers pour recueillir les besoins, les traduire en problématiques analytiques et proposer des approches adaptées. Concevoir, structurer et maintenir une base de données dédiée au cross selling à l?échelle de l?entreprise. Analyser, structurer et enrichir les données relatives à une nouvelle gamme de plus de 2000 produits internationaux. Étudier les données existantes pour identifier les axes d?amélioration et recommander des évolutions produits ou processus. Développer et déployer des algorithmes avancés pour la structuration, la modélisation et l?analyse de données massives.
Technologies de l'Information et de la CommunicationDans le cadre du développement de projets stratégiques basés sur la valorisation de la donnée et l'Intelligence Artificielle, nous recherchons un Data Scientiste Python expérimenté avec une expertise en IA Générative. Vous interviendrez sur des projets innovants visant à établir des scénarios prédictifs et prescriptifs permettant d'anticiper les futurs leviers métiers et opérationnels de l'entreprise. Définir des scénarios prospectifs et analytiques pour accompagner la transformation des processus métiers. * Réaliser tout le cycle de valorisation de la donnée : * Collecte, choix et préparation des données. * Analyse de la qualité des données et traitement des anomalies. * Modélisation et valorisation via des algorithmes de Data Science et d'IA. * Concevoir des modèles d'apprentissage automatique, d'apprentissage profond et d'IA générative. * Exploiter des techniques avancées : statistiques, NLP, text mining, analyses comportementales, géolocalisation. * Identifier et collecter les sources de données pertinentes (internes ou externes), avec des recommandations sur la gestion et l'intégration des données (Data Lake, Data Mart, entrepôt de données). * Concevoir des pipelines de traitement de données robustes et reproductibles. * Évaluer la qualité, la richesse et la fiabilité des données utilisées. * Concevoir des visualisations dynamiques et des Dashboard interactifs (Data Storytelling). * Traduire des problématiques métiers en problématiques analytiques et statistiques. * Comparer, tester et évaluer plusieurs algorithmes ou approches et anticiper leur pertinence métier. * Intégrer les résultats dans le système d'information ou les outils métier.
Technologies de l'Information et de la CommunicationNous recherchons un(e) Data Scientist / Machine Learning Engineer pour piloter les projets data, BI et IA de notre client, avec un focus particulier sur l'intégration de l'IA dans l'ERP., 1. Exploitation de la donnée * Collecter, nettoyer et structurer les données issues des systèmes métiers (TMS, WMS, ERP…) * Construire des pipelines ETL pour automatiser les flux de données * Mettre en place une gouvernance des données (qualité, traçabilité) 2. Business Intelligence * Concevoir des tableaux de bord dynamiques pour les différentes équipes (opérations, finance, direction…) * Suivre des KPIs logistiques et financiers : taux de remplissage, délais de transit, coûts de transport… * Accompagner les équipes métiers dans l'analyse et l'interprétation des données 3. Machine Learning & Intelligence Artificielle * Développer des modèles prédictifs (prévision de la demande, ETA, détection d'anomalies…) * Travailler sur des algorithmes d'optimisation (des tournées, des ressources, etc.) * Participer activement à l'intégration de briques IA dans l'ERP , en collaboration directe avec les équipes de développement logiciel * Concevoir des modules intelligents dans le futur SI (recommandations, automatisation, alerting) 4. Collaboration transverse * Travailler avec les équipes IT, développement, opérations, finance et commerce * Participer à la conception d'un SI data-driven dès l'amont du projet ERP * Participer à la conception d'un système d'information (SI) orienté data dès la phase de conception du nouvel ERP * Accompagner les équipes dans une montée en compétence sur la donnée (culture data, sensibilisation, outils), Nous souhaitons revenir à l'objectif initial de l'informatique : être au service des hommes et non l'inverse. En 2021, nous avons commencé une démarche de labellisation Numérique Responsable Niveau 2. En 2023, nous sommes devenues la première entreprise de services numériques à obtenir le label Numérique Responsable Niveau 2 dans la région PACA. Devenir un AddixWarrior c'est : 1.Être accompagné par des supers Agents En devenant un AddixWarrior, tu bénéficieras d'un accompagnement unique par nos Agents. Ils t'aideront à déterminer ton projet professionnel, à valoriser tes savoir-faire et savoir-être auprès des clients. 2. Booster sa carrière professionnelle dans le milieu de la tech Chez AddixGroup, tu auras l'opportunité de travailler dans des secteurs d'activités très variés et des environnements techniques différents : le combo idéal pour développer tes compétences techniques ! 3.Travailler sur des projets à impacts positifs Nous ferons notre maximum pour te faire travailler sur des projets à impacts positifs, sur lesquels tu pourras apporter ton expertise et ainsi contribuer à un but commun. 4.S'épanouir au sein d'une équipe de passionnés Notre team se compose exclusivement de passionnés qui veulent donner du sens à ce qu'ils font. Chez AddixGroup, des échanges francs et directs dès le premier entretien. Pas de chichis, mais de la bonne humeur, du soutien et de la détermination !
Technologies de l'Information et de la Communication* Concevoir, développer et déployer des solutions d'apprentissage automatique et d'IA. * Analyser les données pour générer des informations commerciales exploitables. * Utiliser Python (y compris les notebooks) pour les tâches de données complexes, notamment au sein de Dataiku. * Collaborer avec des équipes transverses pour aligner les solutions techniques sur les besoins métier. * Communiquer clairement les conclusions techniques aux parties prenantes non techniques. * Se tenir au courant des nouveaux outils, technologies et méthodologies en science des données.
Technologies de l'Information et de la CommunicationLa mission en freelance qualifie la collaboration qui lie une entreprise cliente (ou un particulier) à un indépendant offrant une prestation de service dans un domaine donné. Ce terme désigne plus précisément toutes les étapes qui suivent la signature du contrat de prestation, et s’achève une fois le travail livré par le freelance et le paiement effectué par l’entreprise ayant fait appel à ses services.
Les conditions d’exécution de ladite mission sont à définir entre les deux parties, à travers le contrat de prestation cité plus haut. Ce dernier doit notamment inclure une description claire de la prestation, son prix, ainsi que la date de livraison.
Chez InFreelancing , l’expertise de chaque freelance trouve sa place au sein d’entreprises (petites ou grandes) évoluant dans des secteurs variés.
De nombreuses missions freelance t’attendent, chacune correspondant à des compétences spécifiques, avec un accès simplifié et une recherche fluide. Grâce à une large variété de missions mises à jour quotidiennement, tu trouveras forcément ton bonheur.
Encore mieux : la prospection chronophage ne sera plus un souci pour toi. Toutes les missions freelance, en France comme ailleurs, disponibles sur le web, sont désormais regroupées en un seul et même endroit : InFreelancing.