MATCHING | INSCRIPTION
Background

Data Scientist Ia - Cloud Gcp

Espritek

La Data & AI Factory est une direction du groupe Fnac Darty qui a pour principale mission de s'appuyer sur la Data afin de mieux piloter l'activité au sein du groupe et de générer de la valeur. Afin d'accélérer le lancement et la livraison de projets autour de l'IA, nous cherchons à recruter un consultant Data Scientist., New! Démarquez-vous en passant des tests de personnalité gamifiés. Lancez-vous dès maintenant, en découvrant les trois tests disponibles gratuitement!

MISSION

Le data scientist aura pour mission d'exploiter de grands volumes de données issus de différentes sources (Ventes, SAV, stocks, etc.) afin d'effectuer des analyses, générer des insights et mettre en place des modèles prédictifs permettant à la fois d'améliorer l'expérience client, générer de la valeur et transformer les métiers du groupe Fnac Darty Description Le Data Scientist pourra intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d'audiences, ... Il travaillera en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu'avec les Data Engineers de l'équipe Tech afin d'identifier et exploiter les sources et flux de données pertinents., Dans le cadre des projets menés, il interviendra sur les différentes étapes clés, y compris : - Analyser les besoins métiers et proposer des solutions Data Science - Analyser les données à disposition pour en vérifier la pertinence et la qualité, et assurer le cas échéant leur transformation et leur affinement - Développer les modèles répondant aux besoins, en 1er lieu en mode POC, puis industrialiser les modèles développés - Développer des reportings adaptés - Documenter les solutions développées - Mesurer les bénéfices de la mise en place des modèles - Organiser et préparer les comités de pilotage des projets et animer le pilotage globale des sujets autour de l'IA - Participer à la qualification des uses cases et à leur priorisation - Animer l'équipe de Data Scientists de la DAIF Livrables : - analyses - modèles Environnement de travail, Nos domaines d'actions concernent : - les déploiements informatiques : câblage, téléphonie sur IP(IPBX, 3CX), infrastructures Télécom (routeurs), pc, tablettes, serveurs, baies de stockage, TPV, terminaux bancaires, systèmes de comptage, de billetterie électronique, de gestion de parking, de contrôle d'accès, vidéo surveillance, objets connectés, étiquettes électroniques RFID, dotation de smartphones, déménagements de parc, gestion de data-center, effacement de données, bornes multimédia, Wifi, caméras, vidéoprojecteurs, murs d'images, systèmes de visioconférence, tableaux numériques, Smart TV, IO/T, remodeling de caisses, imprimantes, mfp, copieurs,.., - l'infogérance avec la délégation d'intervenants en mode planifié auprès de vos clients, - le ticketing avec des interventions à J+1 ou J+2

PROFIL RECHERCHÉ

Solide bagage en mathématiques, statistiques et intelligence artificielle - Maitrise de python et des librairies de data science courantes (Pandas, Scikit-learn, XGBoost,..), de sql et git - Maitrise des solutions GCP adaptées (en particulier Vertex AI, BigQuery, Dataform, Composer) - Maitrise des pratiques MLOps - Connaissances avancées de Looker - Connaissance du monde du retail sera un plus - Pro-actif et force de propositions - Autonome et rigoureux - Capacité à vulgariser les concepts statistiques et IA - Capacité à écouter les métiers et comprendre leurs problèmes - Esprit de synthèse - Bon relationnel Compétences clés Obligatoire Python SQL GCP

DETAIL DE L'OFFRE

Secteur

Secteur

Technologies de l'Information et de la Communication

Lieu

Lieu

Ivry-sur-Seine

Durée

Durée

Temps partiel (≤ 32 heures)

Fréquence

Fréquence

Non renseigné

Date de publication

Date de publication

03/07/2025

Type Mission

Type Mission

Freelance

Compétences

Compétences

  • Intelligence Artificielle
  • Analyse des Données
  • BigQuery
  • Cloud Computing
  • Pbx Ip
  • Python (Langage de Programmation)
  • Radio-Frequency Identification
  • Structured Query Language (SQL)
  • Flux de Données
  • Technologie WiFi
  • Routeur Réseau
  • Tablettes
  • Git
  • Pandas
  • Scikit-learn
  • Technologies Informatiques
  • Xgboost
  • Opérations de Machine Learning
  • Looker Analytics
  • Smart Tv
  • Compétences Interpersonnelles
  • Motivation Personnelle
  • Contrôles d'Accès
  • SAV (Service après Vente)
  • Télécommunications
  • Câblage
  • Expérience Client
  • Vente
  • Marketing
  • Gestion des Infrastructures
  • Mathématiques
  • Gestion de Projet
  • Modélisation Prédictive
  • Monitoring à Distance
  • Commerce de Détail
  • Etudes et Statistiques
  • Compétences de Modélisation
  • Science des Données
  • Management d'Équipe

NOS DERNIÈRES MISSIONS
FREELANCE

Notre plateforme gratuite rassemble des milliers de missions freelance mises à jour régulièrement.

Mission Freelance Data Analyst / Power Bi

Dans une DSI en pleine structuration BI, l'équipe souhaite industrialiser la génération de rapports Power BI, tout en optimisant l'usage des sources SQL internes. Objectif : faire monter en maturité la fonction Data/Reporting et optimiser les flux de données décisionnels. Dans une DSI en pleine structuration BI, l'équipe souhaite industrialiser la génération de rapports Power BI, tout en optimisant l'usage des sources SQL internes. Objectif : faire monter en maturité la fonction Data/Reporting et optimiser les flux de données décisionnels., * Conception et maintenance de rapports Power BI à destination des métiers * Industrialisation des jeux de données (datasets, vues SQL, performance) * Mise en place de bonnes pratiques : nomenclature, versionning, documentation * Accompagnement des utilisateurs dans la compréhension des indicateurs * Participation à la gouvernance BI et à la structuration de la brique décisionnelle

Technologies de l'Information et de la Communication
Paris Freelance
Mission Freelance Tech Lead (Reactjs / Azure / Databricks / Nosql / Aws)

En tant que Tech Lead, ta mission principale est de : * Manager fonctionnellement les développeurs (Software Engineers, Data Engineers…) d'une ou plusieurs squads. * Assurer les choix techniques en collaboration avec la squad, dans le respect des standards. * Faire comprendre les choix techniques et obtenir l'adhésion des parties prenantes. * Interagir au quotidien avec les parties prenantes (métier, tech authority…). * Garantir la qualité logicielle de la prestation de l'équipe. * Veiller à la bonne mise en œuvre du plan de développement produit. Objectifs & Livrables * Assurer l'excellence technique : garantir les plus hauts standards de développement (qualité de code, tests, documentation). * Encadrer et guider : accompagner, soutenir et faire monter en compétences les membres de l'équipe. * Concevoir et architecturer : diriger l'architecture de systèmes complexes, performants et maintenables. * Faciliter la communication : assurer le lien entre dev, produit, QA, opérations. * Livraison dans les délais : supervision des plannings et respect des jalons projet., * Valider les architectures / modifs de code. * Piloter les discussions et arbitrages techniques. Gestion d'équipe * Encadrement des développeurs (notamment juniors). * Entretiens réguliers, évaluations, mentorat. * Culture d'amélioration continue. Supervision projet * Relation étroite avec les chefs de produit. * Maintien des plannings, suivi des tâches. * Maîtrise des risques techniques : dette, perf, scalabilité. Communication parties prenantes * Vulgarisation des sujets techniques. * Coordination transverse. * Représentation de l'équipe dev. Assurance qualité * Pratiques de tests robustes : unitaires, intégration, E2E. * Revue de code régulières. * Supervision CI/CD, pipelines automatisés. Interactions avec l'équipe * Daily stand-ups : suivi quotidien * Code reviews : feedback constructif * Sessions techniques : partages, brainstorming * Mentorat : accompagnement individuel ou collectif * Rétrospectives : amélioration continue

Technologies de l'Information et de la Communication
Paris Freelance
Data Engineer - Java / Spark Scala

En tant que Data Engineer, vous aurez un rôle clé dans la mise en place et l'optimisation des pipelines de données. Vous serez en interaction avec des équipes pluridisciplinaires (développeurs, data scientists, métiers) pour construire des solutions performantes et scalables. Vos missions au quotidien * Développer et optimiser des pipelines de données massifs avec Spark et Scala. * Assurer l'ingestion, le nettoyage et l'enrichissement des données en vue de leur exploitation. * Exposer les données via des API et Web Services pour les rendre accessibles aux applications et modèles ML. * Contribuer à l'industrialisation et à la mise en production des traitements Big Data. * Collaborer avec les data scientists pour améliorer la maturité industrielle des modèles de machine learning. * Maintenir et optimiser les solutions en production pour garantir leur performance et leur robustesse. Votre environnement technique * Langages : Java (J2EE / JDK 17), Scala * Big Data : Spark (SQL/DataFrame), Impala, Kudu, Hive, SQL, Parquet * Infrastructure & DevOps : Docker, Kubernetes, Helm, Git, Maven * Messaging & Streaming : Kafka, Redis * Tests & Qualité : JUnit, Mockito, PowerMock, ScalaMock * API : Web Services Rest

Technologies de l'Information et de la Communication
Toulouse Freelance
Data Engineer - Aws / Databricks

* Conception d'outils Big Data : Contribution active à la conception, au développement et à l'amélioration d'outils de traitement de données massives, couvrant l'ensemble du cycle de vie des données : ingestion, traitement, analyse et restitution. * Définition des besoins techniques : Collaboration étroite avec les utilisateurs de la plateforme Data pour comprendre les besoins métier et garantir un alignement optimal entre les solutions développées et les attentes fonctionnelles. * Développement sur Databricks et AWS : Réalisation de développements avancés sur les plateformes Databricks et AWS, en utilisant notamment les technologies suivantes : Python, SQL, Spark et Airflow. * Intégration des pratiques FinOps : Mise en œuvre de bonnes pratiques FinOps dans le développement afin d'optimiser les coûts, les performances et l'utilisation des ressources sur AWS. Utilisation d'outils tels que dbt, GitLab CI/CD, et autres solutions DevOps. * Audit et accompagnement transverse : Réalisation d'audits techniques et de revues de code au sein des équipes, avec pour objectif de renforcer la maîtrise des enjeux techniques et de favoriser l'adoption de stratégies FinOps efficaces.

Technologies de l'Information et de la Communication
Paris Freelance