MATCHING | INSCRIPTION
Background

Data Scientiste Python / Ia Générative

HIGHTEAM

QUI SOMMES-NOUS ? HighTeam est un groupe de conseil en informatique créé en 2009 à Paris et spécialisé en transformation digitale. Avec un chiffre d'affaires de 50 millions d'euros en 2022, HighTeam renforce sa présence en région en 2023 pour plus de proximité avec ses clients et ses équipes. Aujourd'hui, c'est près de 500 Highteamers qui portent au quotidien nos couleurs et nos valeurs auprès de nos clients grands comptes (CAC40 / SBF120). CE QUE NOUS PROPOSONS A NOS CONSULTANTS : - Un accompagnement personnalisé dans vos projets de carrière - Des missions qui correspondent à vos expertises et vos attentes - Des possibilités d'évolution (développement de compétences, mobilité géographique, responsabilités, etc.) Envie de rejoindre une aventure humaine, participer à des projets d'envergure et relever de beaux défis ? Envoyez-nous votre candidature ! CE QUE NOUS PROPOSONS A NOS CLIENTS : - Un accompagnement dans leurs défis en mettant à leur service nos expertises, notre réactivité, notre transparence et notre agilité - De la création de valeur en proposant des solutions sur-mesure, innovantes et performantes Nous couvrons l'ensemble du cycle de vie d'un projet IT et les accompagnons dans leur transformation digitale grâce à nos 3 divisions : - SOLUTIONS PROJET+ : Projet, Digital, Transformation - INNOVAPP : Développement, QA, Data, IA, BI - INFRAXPERT : Cloud, Infra, DevOps, Sécurité, Cybersécurité, Production, New! Démarquez-vous en passant des tests de personnalité gamifiés. Lancez-vous dès maintenant, en découvrant les trois tests disponibles gratuitement!

MISSION

Dans le cadre du développement de projets stratégiques basés sur la valorisation de la donnée et l'Intelligence Artificielle, nous recherchons un Data Scientiste Python expérimenté avec une expertise en IA Générative. Vous interviendrez sur des projets innovants visant à établir des scénarios prédictifs et prescriptifs permettant d'anticiper les futurs leviers métiers et opérationnels de l'entreprise. Définir des scénarios prospectifs et analytiques pour accompagner la transformation des processus métiers. * Réaliser tout le cycle de valorisation de la donnée : * Collecte, choix et préparation des données. * Analyse de la qualité des données et traitement des anomalies. * Modélisation et valorisation via des algorithmes de Data Science et d'IA. * Concevoir des modèles d'apprentissage automatique, d'apprentissage profond et d'IA générative. * Exploiter des techniques avancées : statistiques, NLP, text mining, analyses comportementales, géolocalisation. * Identifier et collecter les sources de données pertinentes (internes ou externes), avec des recommandations sur la gestion et l'intégration des données (Data Lake, Data Mart, entrepôt de données). * Concevoir des pipelines de traitement de données robustes et reproductibles. * Évaluer la qualité, la richesse et la fiabilité des données utilisées. * Concevoir des visualisations dynamiques et des Dashboard interactifs (Data Storytelling). * Traduire des problématiques métiers en problématiques analytiques et statistiques. * Comparer, tester et évaluer plusieurs algorithmes ou approches et anticiper leur pertinence métier. * Intégrer les résultats dans le système d'information ou les outils métier.

PROFIL RECHERCHÉ

* Bac +5 en mathématiques, statistiques, informatique ou data science. * Minimum 3 ans d'expérience en tant que Data Scientiste. * Solide expérience en Python, machine learning et IA générative (LLM, modèles pré-entraînés, fine-tuning). * Maîtrise des techniques avancées de traitement de données et d'algorithmes prédictifs. * Une expérience dans un environnement Big Data et/ou Cloud serait un plus. Environnement de travail * Langages : Python (pandas, scikit-learn, TensorFlow, PyTorch), SQL * Data Visualization : Power BI, Tableau, matplotlib, seaborn * IA Générative : Langage naturel (LLM), diffusion models, RAG (Retrieval Augmented Generation) * Big Data : Spark, Hadoop, Databricks (apprécié) * Outils Cloud : Azure, AWS ou GCP (optionnel mais un plus) * Data Management : SQL, NoSQL, Data Lakes * Outils CI/CD et versioning : Git, MLflow, Jenkins

DETAIL DE L'OFFRE

Secteur

Secteur

Technologies de l'Information et de la Communication

Lieu

Lieu

Durée

Durée

Temps partiel (≤ 32 heures)

Fréquence

Fréquence

Paiement horaire

Rémunération journalière

Rémunération journalière

400€ min - 400€ max

Date de publication

Date de publication

12/06/2025

Type Mission

Type Mission

Freelance

Compétences

Compétences

  • Intelligence Artificielle
  • Amazon Web Services
  • Microsoft Azure
  • Big Data
  • Cloud Computing
  • Systèmes d'Information
  • Intégration Continue
  • Datamart
  • Visualisation de Données
  • Entreposage de Données
  • Apache Hadoop
  • Python (Langage de Programmation)
  • Machine Learning
  • Traitement du Langage Naturel
  • NoSQL
  • Power BI
  • Tensorflow
  • Structured Query Language (SQL)
  • Tableau (Software)
  • Text Mining
  • Logiciel Versioning
  • Traitement des Données
  • Google Cloud
  • Pytorch
  • Large Language Models
  • Apache Spark
  • Generative AI
  • Git
  • Pandas
  • Matplotlib
  • Data Lakes
  • Scikit-learn
  • Technologies Informatiques
  • Gestion des Données
  • Jenkins
  • Databricks
  • Algorithmes
  • Travaux de Saisie
  • Qualité des Données
  • Géolocalisation
  • Traduction
  • Maintenance et Dépannage
  • Mathématiques
  • Gestion de Projet
  • Analyses Prédictives
  • Etudes et Statistiques
  • Storytelling
  • Compétences de Modélisation
  • Science des Données
  • Réalisation de Tableaux de Bord

NOS DERNIÈRES MISSIONS
FREELANCE

Notre plateforme gratuite rassemble des milliers de missions freelance mises à jour régulièrement.

Mission Freelance Data Analyst / Power Bi

Dans une DSI en pleine structuration BI, l'équipe souhaite industrialiser la génération de rapports Power BI, tout en optimisant l'usage des sources SQL internes. Objectif : faire monter en maturité la fonction Data/Reporting et optimiser les flux de données décisionnels. Dans une DSI en pleine structuration BI, l'équipe souhaite industrialiser la génération de rapports Power BI, tout en optimisant l'usage des sources SQL internes. Objectif : faire monter en maturité la fonction Data/Reporting et optimiser les flux de données décisionnels., * Conception et maintenance de rapports Power BI à destination des métiers * Industrialisation des jeux de données (datasets, vues SQL, performance) * Mise en place de bonnes pratiques : nomenclature, versionning, documentation * Accompagnement des utilisateurs dans la compréhension des indicateurs * Participation à la gouvernance BI et à la structuration de la brique décisionnelle

Technologies de l'Information et de la Communication
Paris Freelance
Mission Freelance Tech Lead (Reactjs / Azure / Databricks / Nosql / Aws)

En tant que Tech Lead, ta mission principale est de : * Manager fonctionnellement les développeurs (Software Engineers, Data Engineers…) d'une ou plusieurs squads. * Assurer les choix techniques en collaboration avec la squad, dans le respect des standards. * Faire comprendre les choix techniques et obtenir l'adhésion des parties prenantes. * Interagir au quotidien avec les parties prenantes (métier, tech authority…). * Garantir la qualité logicielle de la prestation de l'équipe. * Veiller à la bonne mise en œuvre du plan de développement produit. Objectifs & Livrables * Assurer l'excellence technique : garantir les plus hauts standards de développement (qualité de code, tests, documentation). * Encadrer et guider : accompagner, soutenir et faire monter en compétences les membres de l'équipe. * Concevoir et architecturer : diriger l'architecture de systèmes complexes, performants et maintenables. * Faciliter la communication : assurer le lien entre dev, produit, QA, opérations. * Livraison dans les délais : supervision des plannings et respect des jalons projet., * Valider les architectures / modifs de code. * Piloter les discussions et arbitrages techniques. Gestion d'équipe * Encadrement des développeurs (notamment juniors). * Entretiens réguliers, évaluations, mentorat. * Culture d'amélioration continue. Supervision projet * Relation étroite avec les chefs de produit. * Maintien des plannings, suivi des tâches. * Maîtrise des risques techniques : dette, perf, scalabilité. Communication parties prenantes * Vulgarisation des sujets techniques. * Coordination transverse. * Représentation de l'équipe dev. Assurance qualité * Pratiques de tests robustes : unitaires, intégration, E2E. * Revue de code régulières. * Supervision CI/CD, pipelines automatisés. Interactions avec l'équipe * Daily stand-ups : suivi quotidien * Code reviews : feedback constructif * Sessions techniques : partages, brainstorming * Mentorat : accompagnement individuel ou collectif * Rétrospectives : amélioration continue

Technologies de l'Information et de la Communication
Paris Freelance
Data Engineer - Java / Spark Scala

En tant que Data Engineer, vous aurez un rôle clé dans la mise en place et l'optimisation des pipelines de données. Vous serez en interaction avec des équipes pluridisciplinaires (développeurs, data scientists, métiers) pour construire des solutions performantes et scalables. Vos missions au quotidien * Développer et optimiser des pipelines de données massifs avec Spark et Scala. * Assurer l'ingestion, le nettoyage et l'enrichissement des données en vue de leur exploitation. * Exposer les données via des API et Web Services pour les rendre accessibles aux applications et modèles ML. * Contribuer à l'industrialisation et à la mise en production des traitements Big Data. * Collaborer avec les data scientists pour améliorer la maturité industrielle des modèles de machine learning. * Maintenir et optimiser les solutions en production pour garantir leur performance et leur robustesse. Votre environnement technique * Langages : Java (J2EE / JDK 17), Scala * Big Data : Spark (SQL/DataFrame), Impala, Kudu, Hive, SQL, Parquet * Infrastructure & DevOps : Docker, Kubernetes, Helm, Git, Maven * Messaging & Streaming : Kafka, Redis * Tests & Qualité : JUnit, Mockito, PowerMock, ScalaMock * API : Web Services Rest

Technologies de l'Information et de la Communication
Toulouse Freelance
Data Engineer - Aws / Databricks

* Conception d'outils Big Data : Contribution active à la conception, au développement et à l'amélioration d'outils de traitement de données massives, couvrant l'ensemble du cycle de vie des données : ingestion, traitement, analyse et restitution. * Définition des besoins techniques : Collaboration étroite avec les utilisateurs de la plateforme Data pour comprendre les besoins métier et garantir un alignement optimal entre les solutions développées et les attentes fonctionnelles. * Développement sur Databricks et AWS : Réalisation de développements avancés sur les plateformes Databricks et AWS, en utilisant notamment les technologies suivantes : Python, SQL, Spark et Airflow. * Intégration des pratiques FinOps : Mise en œuvre de bonnes pratiques FinOps dans le développement afin d'optimiser les coûts, les performances et l'utilisation des ressources sur AWS. Utilisation d'outils tels que dbt, GitLab CI/CD, et autres solutions DevOps. * Audit et accompagnement transverse : Réalisation d'audits techniques et de revues de code au sein des équipes, avec pour objectif de renforcer la maîtrise des enjeux techniques et de favoriser l'adoption de stratégies FinOps efficaces.

Technologies de l'Information et de la Communication
Paris Freelance