MATCHING | INSCRIPTION
Background

Data Engineer Junior Gcp / Python

HIGHTEAM GRAND SUD

Apache Kafka Apache Spark API Google Cloud Platform (GCP) Hadoop Python Springboot, HighTeam est un groupe de conseil en informatique créé en 2009 à Paris et spécialisé en transformation digitale. Avec un chiffre d'affaires de 55 millions d'euros en 2023, HighTeam continue de renforcer sa présence en région pour plus de proximité avec ses clients et ses équipes. Aujourd'hui, c'est près de 500 Highteamers qui portent au quotidien nos couleurs et nos valeurs auprès de nos clients grands comptes (CAC40 / SBF120)., QUI SOMMES-NOUS ? HighTeam est un groupe de conseil en informatique créé en 2009 à Paris et spécialisé en transformation digitale. Avec un chiffre d'affaires de 50 millions d'euros en 2022, HighTeam renforce sa présence en région en 2023 pour plus de proximité avec ses clients et ses équipes. Aujourd'hui, c'est près de 500 Highteamers qui portent au quotidien nos couleurs et nos valeurs auprès de nos clients grands comptes (CAC40 / SBF120). CE QUE NOUS PROPOSONS A NOS CONSULTANTS : - Un accompagnement personnalisé dans vos projets de carrière - Des missions qui correspondent à vos expertises et vos attentes - Des possibilités d'évolution (développement de compétences, mobilité géographique, responsabilités, etc.) Envie de rejoindre une aventure humaine, participer à des projets d'envergure et relever de beaux défis ? Envoyez-nous votre candidature ! CE QUE NOUS PROPOSONS A NOS CONSULTANTS : - Un accompagnement dans leurs défis en mettant à leur service nos expertises, notre réactivité, notre transparence et notre agilité - De la création de valeur en proposant des solutions sur-mesure, innovantes et performantes Nous couvrons l'ensemble du cycle de vie d'un projet IT et les accompagnons dans leur transformation digitale grâce à nos 3 divisions : - SOLUTIONS PROJET+ : Projet, Digital, Transformation - INNOVAPP : Développement, QA, Data, IA, BI - INFRAXPERT : Cloud, Infra, DevOps, Sécurité, Cybersécurité, Production, New! Démarquez-vous en passant des tests de personnalité gamifiés. Lancez-vous dès maintenant, en découvrant les trois tests disponibles gratuitement!

MISSION

Vous rejoignez notre client au sein d'une équipe qui conçoit et industrialise des cas d'usage de Data Science (IA et IA Gen). Vous interviendrez principalement sur * La mise en place de la collecte et la mise à disposition des données au sein de l'entreprise * L'industrialisation et la mise en production des traitements sur les données (mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent A ce titre, vous serez en charge de : * Acheminer la donnée * Mettre à disposition la donnée aux équipes utilisatrices * Mettre en production des modèles statistiques * Effectuer le suivi de projet de développement * Développer des jobs spark * Assurer le traitement et l'ingestion de plusieurs formats des données * Développer des scripts * Développer et Implémenter des collectes de données, des jobs de traitement et mapping de données * Développer des moyens de restitution via la génération de fichiers et ou API & Dashboarding * Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers * Développer des pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) * Développer des API génériques d'ingestion et de traitement de données dans un environnement HDP * Participer à la conception, mise en place et administration de solutions Big Data * Participation à l'installation, administration et configuration des Hadoop clusters. * Participer à la mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka * Normaliser et agréger les données afin de produire les rapports sous forme de Business View Environnement Technique : Kafka, TeraData, Hadoop, GCP, Python, Business View, API, Spark, Spring Boot Le poste est basé à Lille (59). Dans le cadre de vos fonctions, vous pourrez bénéficier jusqu'à 2 jours de télétravail par semaine.

PROFIL RECHERCHÉ

* Votre formation supérieure (Bac+5 ou Ecole d'Ingénieur) en informatique / data * Votre expérience de 2 ans minimum (hors stages et alternance) sur un poste similaire * Votre maîtrise de GCP et Python * Votre connaissance de Hadoop, Spark, Springboot, Kafka et Teradata ET SURTOUT ! * Votre capacité à travailler au sein d'un environnement exigeant * Votre autonomie et votre rigueur * Votre esprit d'analyse et d'équipe Environnement de travail

DETAIL DE L'OFFRE

Secteur

Secteur

Technologies de l'Information et de la Communication

Lieu

Lieu

Lille

Durée

Durée

Plein temps (> 32 heures)

Fréquence

Fréquence

Paiement horaire

Rémunération journalière

Rémunération journalière

100€ min - 100€ max

Date de publication

Date de publication

18/06/2025

Type Mission

Type Mission

Freelance

Compétences

Compétences

  • APIs
  • Big Data
  • Apache Hadoop
  • Python (Langage de Programmation)
  • Flux de Données
  • Teradata SQL
  • Google Cloud
  • Apache Spark
  • Spring-boot
  • Data Lakes
  • Apache Kafka
  • Capacité d'Analyse
  • Collecte de Données
  • Travaux de Saisie
  • Gestion de la Performance
  • Gestion de Projet
  • Gestion de Production
  • Etudes et Statistiques
  • Science des Données
  • Réalisation de Tableaux de Bord

NOS DERNIÈRES MISSIONS
FREELANCE

Notre plateforme gratuite rassemble des milliers de missions freelance mises à jour régulièrement.

Consultant Cloud & Data Center

Au sein de la Direction des Systèmes d'Information et dans le cadre de sa transformation digitale, le client recherche un Consultant Cloud & Data Center (H/F) pour définir et mettre en œuvre une stratégie ambitieuse. Objectifs et livrables, En tant que Consultant Cloud & Data Center, vous êtes le garant de la conception, de la mise en œuvre, et du maintien en condition opérationnelle des infrastructures Cloud Public et Cloud Privée. Vos responsabilités incluent : 1. Gestion des Infrastructures Cloud Public et Cloud Privée : * Planification, conception, installation et Maintien en condition opérationnelle des infrastructures Cloud Public et Cloud Privée pour répondre aux besoins de l'entreprise. * Définition de la stratégie Cloud & Data Center (Hosting, Disaster Recovery Plan, Business Continuity …) * Assurer la relation avec les partenaires pour garantir la qualité des services fournis. * Supervision et coordination des équipes internes et offshores (anglophones) chargées de l'exploitation des infrastructures, y compris la gestion des incidents, les demandes des utilisateurs, et les évolutions. * Établissement de tableaux de bord et suivi des niveaux de service (SLA) pour assurer la performance et la disponibilité des infrastructures. 2. Gestion des Projets et Budgets : * Définition, suivi, et optimisation des budgets liés aux infrastructures Cloud Public et Cloud Privée. * Participation aux appels d'offres en collaboration avec les départements achats et juridiques. * Pilotage des projets visant à garantir la non-obsolescence et la sécurité des infrastructures. * Accompagnement des grands projets de l'entreprise et des métiers en fournissant l'expertise sur le domaine. * Veille technologique constante et être force de proposition au sein de la DSI. 3. Management d'équipe : * Encadrement d'une équipe de 3 à 4 personnes et pilotage de l'équipe Offshore, comprenant des experts et des chefs de projet, pour vous assister dans l'accomplissement de vos missions. Environnements : Virtualisation (VMware technologies inclus vSphere et SAN, Microsoft Azure services), Conteneurisation (AKS), SGBD (SQL Server, Oracle, Azure Database), Système d'exploitation (Windows et Linux), VDI et publication d'application (Citrix et RDS), Infra as Code (CI/CD, Terraform, Azure Devops), NoSQL (InfluxDB, ELK, CosmosDB), Authentification et gestion des identités (Active Directory, Entra ID, Keycloak, AD CS), Sauvegarde (Symantec Netbackup)., En déposant votre mission, vous bénéficiez d'un matching efficace pour trouver le freelance correspondant à votre besoin. Je dépose une mission Bénéficiez d'une sécurité financière Ainsi que des avantages d'un salarié, soyez déchargé des tâches administratives grâce au portage salarial.

Technologies de l'Information et de la Communication
Maurepas Freelance
Mission Freelance Data Engineer Python / Aws

Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, … Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, …)., Le consultant rejoindra l'équipe en tant que Data Engineer senior. La mission comprend les activités suivantes : - Recueillir et analyser les besoins exprimés par le propriétaire du produit, analyser les solutions existantes et proposer des mesures efficaces pour répondre aux besoins. - Conception et mise en œuvre de nouveaux outils/fonctionnalités. - Construction et intégration de nouveaux pipelines de données - Documenter la solution ainsi que les rôles et responsabilités et le processus de production. - Support technique et aux utilisateurs (analystes, data scientists, etc.)

Technologies de l'Information et de la Communication
Marseille Freelance
Mission Freelance Data Architect Azure

* Concevoir des architectures Data Cloud scalables et sécurisées sur Microsoft Azure * Définir et cadrer les choix d'architecture technique (batch, temps réel, streaming) * Réaliser et piloter des POC/MVP autour de data platforms (notamment ingestion, transformation, exposition de la donnée) * Encadrer ou soutenir les équipes Data/Dev sur l'implémentation des pipelines, fonctions, jobs, API, etc. * Collaborer avec les équipes DataOps pour l'industrialisation et la mise en production via Azure DevOps * Documenter les choix d'architecture, assurer une veille technologique et proposer des optimisations continues, Dans le cadre de nos projets clients, nous recherchons un Architecte Data autour d'une stack Azure.

Technologies de l'Information et de la Communication
Paris Freelance
Data Ingénieur Big Data - Iot & Datalake Aws

Dans le cadre d'un projet stratégique piloté par la direction data d'un grand groupe, nous recherchons un Data Ingénieur Big Data senior, garant de l'accès qualitatif aux données et de leur exploitation. Votre périmètre : Assurer la qualité, la gouvernance et la documentation des sources de données Superviser les flux entrants et le cleaning des données pour alimenter le datalake AWS Participer à la conception des architectures Big Data et des pipelines adaptés aux projets IoT Travailler aux côtés du Chief Data Officer et coordonner les équipes métiers et IT

Technologies de l'Information et de la Communication
Paris Freelance