AVA2I
Dans le cadre de son initiative Big Data FR sur plateforme Open Source, GRDF recherche un Expert Spark afin de renforcer son équipe Data., Ava2I est une start-up dynamique et en pleine expansion crée en 2016, implantée en Région Parisienne, présente en province ainsi qu'à l'international. Nous comptons aujourd'hui 50 collaborateurs spécialistes autour des problématiques Système, Production, devops, Cloud, Bid Data, et Décisionnel. Entreprise à taille humaine, nos valeurs sont la proximité, la communication, la confiance et l'esprit d'équipe. Nous souhaitons renforcer nos équipes et vous proposons de partager notre belle aventure dans un cadre propice à l'épanouissement personnel., New! Démarquez-vous en passant des tests de personnalité gamifiés. Lancez-vous dès maintenant, en découvrant les trois tests disponibles gratuitement!
MISSION
Apache Airflow
Apache Spark, L'objectif est de contribuer à la conception, à l'optimisation et au déploiement de pipelines Big Data à grande échelle, avec un focus sur la performance et la fiabilité., * Participer à la conception et au développement de pipelines de données distribués basés sur Spark.
* Optimiser la performance des traitements et garantir la scalabilité des solutions.
* Déployer, monitorer et maintenir les workflows de données via Airflow.
* Créer et améliorer des dashboards et visualisations de données avec Superset.
* Collaborer avec les équipes Data Engineering, Data Science et métiers pour intégrer les besoins fonctionnels dans la plateforme Big Data.
* Assurer une veille technologique et proposer des solutions innovantes dans l'écosystème Big Data Open Source.
PROFIL RECHERCHÉ
* Expertise Spark (PySpark, Spark SQL, optimisation de jobs, tuning des performances).
* Expérience sur l'orchestration de workflows avec Airflow.
* Connaissance de Superset (ou outils similaires de dataviz).
* Maîtrise d'un environnement Big Data Open Source (Hadoop, Hive, HDFS, Kafka, etc.).
* Compétences en Python et SQL avancé.
* Bonne compréhension des enjeux liés à la scalabilité et à la résilience des plateformes de données., * Peu importe la séniorité : la priorité est l'expertise sur Spark.
* Passionné par les environnements Big Data et Open Source.
* Esprit analytique, orienté résolution de problèmes et performance.
* Capacité à travailler en équipe agile dans un contexte collaboratif.
Environnement de travail
️ Compétences techniques requises:
* Expertise Spark (PySpark, Spark SQL, optimisation de jobs, tuning des performances).
* Expérience sur l'orchestration de workflows avec Airflow.
* Connaissance de Superset (ou outils similaires de dataviz).
* Maîtrise d'un environnement Big Data Open Source (Hadoop, Hive, HDFS, Kafka, etc.).
* Compétences en Python et SQL avancé.
* Bonne compréhension des enjeux liés à la scalabilité et à la résilience des plateformes de données., * Peu importe la séniorité : la priorité est l'expertise sur Spark.
* Passionné par les environnements Big Data et Open Source.
* Esprit analytique, orienté résolution de problèmes et performance.
* Capacité à travailler en équipe agile dans un contexte collaboratif.
AVA2I
Technologies de l'Information et de la Communication
Temps partiel (≤ 32 heures)
Paiement horaire
400€ min - 400€ max
05/09/2025
Freelance