InFreelancing

Data Engineer Gcp

ENTREPRISE

Hexateam est un acteur incontournable du conseil et des services en technologies de l'information, accompagnant les organisations dans leur transformation digitale et l'amélioration de leurs performances. En rejoignant notre équipe, vous aurez l'opportunité de travailler sur des projets stimulants, d'évoluer dans un environnement dynamique et de contribuer activement à la réussite de nos clients., Cabinet de conseil
Hexateam est un acteur indépendant du conseil et des services en technologies de l'information, spécialisé en e-business, Customer Relationship Management et Business Intelligence. Notre mission est d'accompagner nos clients à mettre en oeuvre leur stratégie concurrentielle en optimisant leurs organisations et processus métiers et en adaptant leurs systèmes d'information. Flexibles, capables de nous adapter rapidement aux contextes de nos clients et aux contraintes des projets, nous nous efforçons d'apporter des réponses adéquates à des besoins sans cesse en évolution., New! Démarquez-vous en passant des tests de personnalité gamifiés. Lancez-vous dès maintenant, en découvrant les trois tests disponibles gratuitement!

MISSION

En tant que Data Engineer GCP, vous serez responsable de la conception, de la mise en place et de l'optimisation des pipelines de données sur Google Cloud Platform. Vous travaillerez en collaboration avec les équipes Data Science, BI et DevOps pour garantir la fiabilité et la scalabilité des infrastructures de données.
1. Conception et Développement de Pipelines de Données
* Concevoir, développer et maintenir des pipelines ETL/ELT robustes et performants sur GCP
* Utiliser BigQuery, Dataflow (Apache Beam), Dataproc (Apache Spark), Cloud Composer (Apache Airflow) pour l'ingestion, la transformation et le stockage des données
* Assurer l'optimisation des performances et la scalabilité des traitements de données
* Automatiser les flux de données en intégrant les meilleures pratiques DevOps et CI/CD

2. Gestion et Optimisation des Bases de Données
* Déployer et gérer des bases de données relationnelles et NoSQL sur GCP : BigQuery, Cloud SQL, Firestore, Spanner
* Assurer la qualité, la gouvernance et la sécurité des données (GDPR, RGPD, DLP)
* Implémenter des stratégies de partitionnement, d'indexation et d'optimisation des coûts sur BigQuery

3. Sécurité, Monitoring et Fiabilité
* Mettre en place des bonnes pratiques de sécurité (IAM, chiffrement des données, gestion des accès)
* Assurer le monitoring des pipelines et des infrastructures de données avec Cloud Monitoring, Stackdriver et Prometheus
* Gérer les incidents et optimiser les performances des traitements et des requêtes SQL

4. Collaboration et Documentation
* Travailler en étroite collaboration avec les Data Scientists, Data Analysts et équipes métiers
* Documenter les pipelines, les architectures et les bonnes pratiques
* Sensibiliser et accompagner les équipes sur l'utilisation des données et des outils GCP, Si vous êtes passionné(e) par la data et souhaitez mettre votre expertise au service de projets ambitieux, nous serions ravis de vous compter parmi nous.

PROFIL RECHERCHÉ

* Maîtrise de Google Cloud Platform : BigQuery, Dataflow (Apache Beam), Dataproc (Apache Spark), Cloud Composer (Apache Airflow), Pub/Sub
* ETL / ELT : Conception et optimisation de pipelines de données
* Langages de programmation : Python, SQL, Scala, Java
* Bases de données : BigQuery, Cloud SQL, Firestore, Spanner
* Infrastructure as Code (IaC) : Terraform, Deployment Manager
* CI/CD et DevOps : GitHub Actions, GitLab CI/CD, Jenkins
* Sécurité et Gouvernance des données : IAM, GDPR, DLP
* Monitoring et Logging : Cloud Monitoring, Stackdriver, Prometheus

Compétences Transverses
* Bonne capacité d'analyse et de résolution de problèmes
* Capacité à vulgariser des concepts techniques complexes
* Esprit collaboratif et bonne communication
* Force de proposition et autonomie, * Formation : Bac +5 en informatique, data science, ingénierie ou équivalent
* Expérience : Minimum 5 ans en ingénierie des données, dont au moins 2 ans sur GCP
* Certifications GCP (un plus) : Professional Data Engineer, Professional Cloud Architect

DÉTAIL DE L’OFFRE

SECTEUR D'ACTIVITÉ Inconnu
LIEU Paris
DURÉE Temps partiel (≤ 32 heures)
DATE DE DÉBUT 20 March 2025
MODE DE TRAVAIL Freelance
Enregistrer

MISSIONS SIMILAIRES

Data Engineer Datamarts

Vous rejoignez notre client et interviendrez sur l'alimentation des datamarts. A ce titre, vous serez en charge de : * Comprendre l'activité et les attentes des utilisateurs, en lien avec la MOA ...
Pays de la Loire Nantes Plein temps (> 32 heures)

Mission Freelance Spécialiste Sécurité De Données/Expert Data Loss Prévention

Dans le cadre du renforcement de sa stratégie DLP (Data Loss Prevention), nous recherchons pour le compte de notre client dans le domaine bancaire, un Expert Cybersécurité, Spécialiste Data Security, ...
Île-de-France Charenton-le-Pont Temps partiel (≤ 32 heures)

Data Scientist Et Data Analyst Toulouse

Dans un contexte économique croissant, un environnement digital progressif et dans le but d'optimiser leurs performances, notre client recherche des ressources possédant des compétences Data Scientist...
Midi-Pyrénées Toulouse Temps partiel (≤ 32 heures)

Mission Freelance Développeur Python Senior, Environnement Data

Nous recherchons un développeur Python freelance expérimenté, maîtrisant FastAPI et/ou Flask, pour contribuer à des projets d'architecture distribuée dans un environnement cloud Azure, avec déploiemen...
Île-de-France Paris Plein temps (> 32 heures)
Retour à la page nos dernières missions