Recherche un Ingénieur Big Data expérimenté pour administrer et optimiser des solutions Big Data (Spark, Trino, MinIO) sur un cluster Kubernetes au sein d?un grand groupe bancaire.
Ce rôle requiert une forte expertise en tuning applicatif, support et approche DevOps/GitOps., Déploiement et administration avancée des applications Spark, Trino ou Jupyter sur Kubernetes.
Tuning et optimisation des performances : ajustement des configurations, analyse des logs, debugging avancé, optimisation des requêtes SQL (Trino), tuning des jobs Spark.
Gestion du RUN et support applicatif : diagnostic et résolution des incidents, amélioration continue des performances, accompagnement des utilisateurs sur l?optimisation des requêtes.
Mise en place de l?approche GitOps : automatisation complète du déploiement et de la gestion des applications avec Terraform, Ansible, Git, ArgoCD/FluxCD.
Sécurisation et monitoring avancé : implémentation de métriques et alertes sur Prometheus, Grafana, Loki, gestion des accès et des logs applicatifs.
Profil candidat:Compétences requises :
Expertise sur Spark, Trino ou MinIO : implémentation avancée, tuning, troubleshooting.
Déploiement Kubernetes : Helm, Kustomize, opérateurs Kubernetes.
Outils DevOps & GitOps : Terraform, Ansible, ArgoCD, FluxCD, GitLab CI/CD, Docker.
Optimisation des performances : gestion des workloads Spark, tuning SQL sur Trino, optimisation des flux de données.
Support et RUN : principes ITIL, monitoring avancé avec Prometheus/Grafana, analyse fine des logs.
Scripting et automatisation : Bash, Python pour l?industrialisation des workflows.
Soft Skills attendues :
Esprit analytique et capacité à diagnostiquer des problèmes complexes.
Pédagogie et excellent relationnel pour accompagner les utilisateurs sur l?optimisation des performances.
Rigueur et gestion des priorités dans un environnement bancaire critique.
Proactivité et innovation pour améliorer en continu l?efficacité des systèmes.