Total des offres : 5 | Page 1 sur 1
Dans un contexte d'équipe agile (et d'applications à fort trafic), le développeur Backend conçoit, développe, déploie et maintient les fonctionnalités afin de répondre aux exigences fonctionnelles exprimées dans le cadre de la conception de solutions ou d'applications Développer des solutions backend de qualité : Conception, développement et maintenance des fonctionnalités backend. Contribution à la vie de l'équipe travaillant dans un cadre Agile. * Participation, dans le cadre des principes DEVOPS, au déploiement et au suivi de votre application. * Au sein d'un écosystème de projets variés, être force de proposition et au cœur de l'amélioration continue * Participation au suivi de production
Technologies de l'Information et de la CommunicationDans un contexte d'équipe agile (et d'applications à fort trafic), le développeur Backend conçoit, développe, déploie et maintient les fonctionnalités afin de répondre aux exigences fonctionnelles exprimées dans le cadre de la conception de solutions ou d'applications Livrables* Développer des solutions backend de qualité : Conception, développement et maintenance des fonctionnalités backend. Contribution à la vie de l'équipe travaillant dans un cadre Agile. * Participation, dans le cadre des principes DEVOPS, au déploiement et au suivi de votre application. * Au sein d'un écosystème de projets variés, être force de proposition et au cœur de l'amélioration continue * Participation au suivi de production
Technologies de l'Information et de la CommunicationNous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction, à l'évolution et à la fiabilité d'un Data Lake stratégique, au cœur des projets liés à l'analyse de l'expérience utilisateur. Vous interviendrez sur l'ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d'un environnement AWS moderne, dans une logique d'industrialisation, de performance et de qualité de service. Vos principales missions : * Maintenir et faire évoluer une architecture data scalable sur AWS, adaptée à des volumes importants de données hétérogènes (logs, fichiers, API…). * Concevoir et structurer les différentes couches du Data Lake (Landing, Bronze, Silver) en lien avec les besoins métiers et les bonnes pratiques data. * Développer des pipelines de traitement de données robustes et automatisés (ETL/ELT), en batch ou quasi temps réel, via des services AWS : Glue, Lambda, EMR, Redshift, S3… * Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. * Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. * Intégrer de nouvelles sources de données aux formats variés (API REST, fichiers plats, logs applicatifs…) tout en assurant sécurité et performance. * Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. * Participer à l'amélioration continue de la plateforme (veille, refonte, optimisation), dans une logique DataOps (CI/CD, qualité, tests, versioning). * Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus. * Documenter l'architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
Technologies de l'Information et de la Communication* Concevoir des architectures cloud scalables et résilientes adaptées aux charges applicatives. * Déployer des services dans AWS, Azure ou GCP avec des outils d'intégration continue. * Superviser les environnements cloud via des outils de monitoring et d'alerte (Datadog, CloudWatch, etc.). * Assurer la sécurité des données et la conformité (chiffrement, gestion des accès IAM, audits). * Automatiser l'infrastructure (IaC) avec Terraform, CloudFormation ou Ansible. * Migrer des systèmes legacy vers le cloud (lift & shift, refactorisation, conteneurisation). * Gérer la connectivité entre les datacenters classiques et les environnements cloud (VPN, ExpressRoute, Direct Connect). * Mettre en œuvre des stratégies de reprise d'activité (PRA) et de sauvegarde cloud. * Collaborer avec les équipes DevOps, SRE, sécurité et développement pour fluidifier les déploiements.
Technologies de l'Information et de la CommunicationConcevoir des solutions pour collecter, nettoyer, organiser et synthétiser de gros volumes de données (pour alimenter bases de données, datalakes et projets Big Data) - Développer et maintenir des pipelines de données hautement évolutifs pour lingestion, le traitement et le stockage de gros volumes de données - Développement des jobs d'ingestion et transformation data Python avec Spark sur de gros volumes de données - Exploiter les technologies Big Data telles que Hadoop, Spark, Kafka, Livy, etc., pour gérer efficacement les flux de données. Assurer la qualité, lintégrité et la sécurité des données tout au long du processus de traitement Participer à l'architecture et à la conception de systèmes Big Data pour traiter des données structurées et non structurées provenant de différentes sources. Rédiger une documentation détaillée des process et mettre à jour les documentations spécifiques aux environnements Assurer une veille technologique permettant de tester de nouvelles fonctionnalités et nouveaux outil Travailler en étroite collaboration avec les Data Architectes et Data Scientists pour industrialiser le procédé et produire des analyses opérationnelles, Notre mission est d'accompagner nos clients à mettre en oeuvre leur stratégie concurrentielle en optimisant leurs organisations et processus métiers et en adaptant leurs systèmes d'information. Flexibles, capables de nous adapter rapidement aux contextes de nos clients et aux contraintes des projets, nous nous efforçons d'apporter des réponses adéquates à des besoins sans cesse en évolution.
Technologies de l'Information et de la CommunicationLa mission en freelance qualifie la collaboration qui lie une entreprise cliente (ou un particulier) à un indépendant offrant une prestation de service dans un domaine donné. Ce terme désigne plus précisément toutes les étapes qui suivent la signature du contrat de prestation et s’achève une fois le travail livré par le freelance et le paiement effectué par l’entreprise ayant fait appel à ses services.
Les conditions d’exécution de ladite mission sont à définir entre les deux parties, à travers le contrat de prestation cité plus haut. Ce dernier doit notamment inclure une description claire de la prestation, son prix, ainsi que la date de livraison.
Chez InFreelancing l’expertise de chaque freelance trouve sa place au sein d’entreprises (petites ou grandes) évoluant dans des secteurs variés.
De nombreuses missions freelance t’attendent, chacune correspondant à des compétences spécifiques, avec un accès simplifié et une recherche fluide. Grâce à une large variété de missions mises à jour quotidiennement, tu trouveras forcément ton bonheur.
Encore mieux : la prospection chronophage ne sera plus un souci pour toi. Toutes les missions freelance, en France comme ailleurs, disponibles sur le web, sont désormais regroupées en un seul et même endroit : InFreelancing.