Total des offres : 13 | Page 2 sur 3
Refonte des applications de vente et d'après-vente (ou vendre et après vendre de multi-produits de la mobilité issus de multi-fournisseurs de manière agnostique à de multiples clients B2B) - Intégrer de nouveaux produits et de nouveaux fournisseurs de manière transparente (à moindre coût) - Intégrer de nouveaux clients B2B de manière transparente (à moindre coût) - Proposer des API, des modèles métier et des architectures performants et scalables (techniquement et fonctionnellement) Compétences * Les APIs sont développés en Kotlin en utilisant le framework Spring. Nous avons une démarche Contract first. * Une architecture hexagonalle pour respecter les principe du DDD. * L'infrastructure est décrite en Terraform * Le tout est déployé via GitlabCI sur des conteneurs Kubernetes (EKS) * Les données sont stockées dans des bases Mongo Atlas / AWS DynamoDB / AWS S3 * Les données transitent d'un client vers une API, ou d'une API à l'autre via des requêtes HTTP ou via du messaging (ActiveMQ, AWS SQS/SNS) * Quelques AWS Lambda (Authorizer pour la gestion des profils client par exemple) * Le monitoring est fait sur Datadog * Les composants sont buildés avec Gradle
Technologies de l'Information et de la CommunicationAu sein d'une grande structure de transport public, la Data Factory pilote les plateformes Data de l'entreprise (référentiels, datalake, IA, analytics, self-BI...). Dans ce cadre, notre client cherche un DevOps expérimenté pour intervenir sur deux plateformes Data Cloud : Plateforme Data principale (AWS + Databricks) Plateforme IA Générative (Azure PaaS + Azure OpenAI) Objectif : renforcer le socle technique, assurer la MCO, les déploiements, le monitoring, et accompagner les intégrations applicatives.
Technologies de l'Information et de la CommunicationNous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction, à l'évolution et à la fiabilité d'un Data Lake stratégique, au cœur des projets liés à l'analyse de l'expérience utilisateur. Vous interviendrez sur l'ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d'un environnement AWS moderne, dans une logique d'industrialisation, de performance et de qualité de service. Vos principales missions : * Maintenir et faire évoluer une architecture data scalable sur AWS, adaptée à des volumes importants de données hétérogènes (logs, fichiers, API…). * Concevoir et structurer les différentes couches du Data Lake (Landing, Bronze, Silver) en lien avec les besoins métiers et les bonnes pratiques data. * Développer des pipelines de traitement de données robustes et automatisés (ETL/ELT), en batch ou quasi temps réel, via des services AWS : Glue, Lambda, EMR, Redshift, S3… * Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. * Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. * Intégrer de nouvelles sources de données aux formats variés (API REST, fichiers plats, logs applicatifs…) tout en assurant sécurité et performance. * Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. * Participer à l'amélioration continue de la plateforme (veille, refonte, optimisation), dans une logique DataOps (CI/CD, qualité, tests, versioning). * Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus. * Documenter l'architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
Technologies de l'Information et de la Communication* Collaborer avec des collègues experts et passionnés qui veulent faire la différence en faisant progresser la plateforme cloud SaaS, les applications mobiles/web mobile, les portails et intégrations du client. * Maintenir tous les systèmes et intégrations opérationnels : surveiller l'activité du système, recueillir des statistiques et assurer le suivi des erreurs signalées et alarmes. * Être le principal responsable de la santé globale, des performances et de la capacité de nos plateformes. * Rechercher de manière proactive des améliorations des systèmes grâce à un suivi régulier des performances et des capacités et recommander des mises à niveau et un renforcement des systèmes, le cas échéant. * Créer des déploiements de réseau et de système automatisés et reproductibles sur le cloud AWS * Établir et maintenir des pipelines CI/CD de bout en bout à l'aide d'outils tels qu'AWS, Jenkins, Kubernetes. * Gérer la configuration des applications sur un certain nombre d'environnements de plate-forme * Développer des outils de surveillance, de diagnostic, de débogage et des tableaux de bord * Assurer la sécurité de tous les actifs dans le cloud en intégrant les meilleures pratiques de sécurité pour les secrets, rotation des clés et autres exigences de sécurité. Créer et appliquer des politiques et déployer des outils de sécurité cloud pour protéger et surveiller les accès * Assurer la disponibilité et les performances de bout en bout des services critiques et construire une automatisation pour éviter la récurrence des problèmes ; éventuellement automatiser la réponse à toutes les conditions non exceptionnelles * Avoir l'esprit d'équipe travaillant en étroite collaboration avec des équipes de développement internationales distantes pour s'assurer que les plateformes sont conçues avec l'opérabilité à l'esprit. * Avoir la passion et sentiment d'urgence dans la gestion des incidents à fort impact en triant et en traitant les problèmes de production. * Documenter chaque action. * Effectuer des tâches d'administration, notamment la gestion des utilisateurs, des profils de sécurité, des groupes et surveillance des ressources. Compétences nécessaire : * Pratiques de gestion des incidents, des problèmes et des changements et gestion des incidents à fort impact. * Conception, création et gestion de systèmes de publication, de fusion et de promotion de code, ainsi que de CI/CD, workflows. * Architecture et systèmes de conteneurs tels que Docker, ainsi que des outils d'orchestration de conteneurs tels que Kubernetes * Langages et frameworks comme Java/Spring/Spring Boot * Exploiter et prendre en charge des microservices événementiels et des architectures distribuées. * Administrer et supporter des bases de données SQL et NoSQL comme MongoDB, Elasticsearch, DynamoDB, MySQL, PostgreSQL * Infrastructures basées sur Linux. * Obtention et installation de certificats SSL * Surveillance et prise en charge des API RESTful * Gestion de configuration, outils CI/CD, GIT, Jenkins, Chef, ELK. * Outils d'automatisation tels que Terraform et AWS CloudFormation. * Outils de surveillance tels que Graphite, Grafana, Prometheus, DataDog. * Services AWS PaaS : EC2, S3, RDS, VPC….
Technologies de l'Information et de la Communication* Concevoir des architectures cloud scalables et résilientes adaptées aux charges applicatives. * Déployer des services dans AWS, Azure ou GCP avec des outils d'intégration continue. * Superviser les environnements cloud via des outils de monitoring et d'alerte (Datadog, CloudWatch, etc.). * Assurer la sécurité des données et la conformité (chiffrement, gestion des accès IAM, audits). * Automatiser l'infrastructure (IaC) avec Terraform, CloudFormation ou Ansible. * Migrer des systèmes legacy vers le cloud (lift & shift, refactorisation, conteneurisation). * Gérer la connectivité entre les datacenters classiques et les environnements cloud (VPN, ExpressRoute, Direct Connect). * Mettre en œuvre des stratégies de reprise d'activité (PRA) et de sauvegarde cloud. * Collaborer avec les équipes DevOps, SRE, sécurité et développement pour fluidifier les déploiements.
Technologies de l'Information et de la CommunicationJenkins JIRA, Support utilisateur & collaboration * Assurer la prise en charge des tickets utilisateurs (JIRA, Service Anywhere) : incidents, demandes, mises en production * Garantir un accompagnement utilisateur professionnel et précis * Travailler en étroite collaboration avec le support N1/N2 et les équipes de build pour fluidifier le run et l'évolution des plateformes RUN & supervision * Piloter les mises en production (Hors Ouvrages), le suivi des jobs automatisés, la supervision des métriques, logs et alertes * Surveiller les applications déployées sur les environnements Kubernetes/Cloud * Diagnostiquer et résoudre les incidents, remonter les anomalies Optimisation & amélioration continue * Proposer des optimisations (coûts, performance, sécurité) * Contribuer à la remédiation de la dette technique (patchs, montées de version, retrait des composants obsolètes) * Capitaliser les bonnes pratiques, rédiger des documentations techniques et comptes rendus
Technologies de l'Information et de la CommunicationLa mission en freelance qualifie la collaboration qui lie une entreprise cliente (ou un particulier) à un indépendant offrant une prestation de service dans un domaine donné. Ce terme désigne plus précisément toutes les étapes qui suivent la signature du contrat de prestation et s’achève une fois le travail livré par le freelance et le paiement effectué par l’entreprise ayant fait appel à ses services.
Les conditions d’exécution de ladite mission sont à définir entre les deux parties, à travers le contrat de prestation cité plus haut. Ce dernier doit notamment inclure une description claire de la prestation, son prix, ainsi que la date de livraison.
Chez InFreelancing l’expertise de chaque freelance trouve sa place au sein d’entreprises (petites ou grandes) évoluant dans des secteurs variés.
De nombreuses missions freelance t’attendent, chacune correspondant à des compétences spécifiques, avec un accès simplifié et une recherche fluide. Grâce à une large variété de missions mises à jour quotidiennement, tu trouveras forcément ton bonheur.
Encore mieux : la prospection chronophage ne sera plus un souci pour toi. Toutes les missions freelance, en France comme ailleurs, disponibles sur le web, sont désormais regroupées en un seul et même endroit : InFreelancing.