Total des offres : 15 | Page 2 sur 3
1. Evolutions liés au framework de risque de contrepartie, et de calcul des appels de marge selon des méthodes propriétaires. 2. La gestion des data models et au suivi de l'architecture fonctionnelle pour la modélisation des objets métiers liées aux produits financiers listés et OTC. 3. Montées de version du calculateur de risque et mise en place de recettes fonctionnelles sur l'ensemble de la chaîne de risque et margining. 4. La mise en place et au suivi des développements offshores liés au calculateur externalisé (solution SaaS) et l'intégration technique internes. 5. Expertise de l'architecture de système datacentrique (SQL ,requêtage sophistiqué, Data Model Design, Workflow & UI Design...) 6. Migration de la source de données d'un data warehouse sos Oracle vers le Data Lake dans le Cloud Azure., Expertise : IT and Risk Environnement anglophone. 2. Spécifications fonctionnelles pour le framework de migration de la plateforme de feeding ORACLE PL SQL vers le Data Lake AZURE. 3. Tests fonctionnels et conduites des UATs. Environnement de travail Les livrables attendus sont : 1. Spécifications & recettes fonctionnelles liées aux évolutions du moteur de risque, et de son intégration sur les chaînes fin de journée, et le workflow intraday.
Technologies de l'Information et de la CommunicationVous jouerez un rôle clé dans la gestion, la fiabilisation et l'exploitation des données, au service des équipes Data (Analystes, Scientists) et en coordination avec le Chief Data Officers. Missions principales : Garantir un accès fiable, sécurisé et qualitatif aux différentes sources de données. Maîtriser et fiabiliser l'usage des données : normalisation, référencement, structuration sémantique, qualification. Collaborer à la définition de la politique de la donnée et à la gestion de son cycle de vie, en conformité avec les réglementations (RGPD, etc.). Intervenir sur les systèmes applicatifs liés à la donnée : Big Data, IoT, Data Lake. Superviser l'intégration de données hétérogènes issues de multiples sources. Assurer la recette des données : contrôle qualité, suppression des doublons, validation, nettoyage. Produire une cartographie des données disponibles et participer à la création de référentiels.
Technologies de l'Information et de la CommunicationIl est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, ? Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ?)., Le consultant rejoindra l'équipe en tant que Data Engineer senior. La mission comprend les activités suivantes : * Recueillir et analyser les besoins exprimés par le propriétaire du produit, analyser les solutions existantes et proposer des mesures efficaces pour répondre aux besoins. * Conception et mise en ?uvre de nouveaux outils/fonctionnalités. * Construction et intégration de nouveaux pipelines de données * Documenter la solution ainsi que les rôles et responsabilités et le processus de production. * Support technique et aux utilisateurs (analystes, data scientists, etc.)
Technologies de l'Information et de la CommunicationIntégré au GMA Delivery Center (feature team Data & Market Analysis), vous développez et industrialisez les pipelines de données qui alimentent les outils d'analyse marché, les modèles de prévision de prix et les rapports destinés aux traders et analystes. Responsabilités * Recueillir les besoins du Product Owner et challenger les solutions existantes. * Concevoir et implémenter de nouveaux pipelines (ingestion, stockage, supervision, restitution). * Garantir la qualité des données (référentiel, déduplication, validation). * Documenter l'architecture, les rôles et les processus de production. * Assurer le support technique auprès des analystes et data scientists.
Technologies de l'Information et de la CommunicationIl est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, … Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, …)., Le consultant rejoindra l'équipe en tant que Data Engineer senior. La mission comprend les activités suivantes : - Recueillir et analyser les besoins exprimés par le propriétaire du produit, analyser les solutions existantes et proposer des mesures efficaces pour répondre aux besoins. - Conception et mise en œuvre de nouveaux outils/fonctionnalités. - Construction et intégration de nouveaux pipelines de données - Documenter la solution ainsi que les rôles et responsabilités et le processus de production. - Support technique et aux utilisateurs (analystes, data scientists, etc.)
Technologies de l'Information et de la Communication* Concevoir des architectures Data Cloud scalables et sécurisées sur Microsoft Azure * Définir et cadrer les choix d'architecture technique (batch, temps réel, streaming) * Réaliser et piloter des POC/MVP autour de data platforms (notamment ingestion, transformation, exposition de la donnée) * Encadrer ou soutenir les équipes Data/Dev sur l'implémentation des pipelines, fonctions, jobs, API, etc. * Collaborer avec les équipes DataOps pour l'industrialisation et la mise en production via Azure DevOps * Documenter les choix d'architecture, assurer une veille technologique et proposer des optimisations continues, Dans le cadre de nos projets clients, nous recherchons un Architecte Data autour d'une stack Azure.
Technologies de l'Information et de la CommunicationLa mission en freelance qualifie la collaboration qui lie une entreprise cliente (ou un particulier) à un indépendant offrant une prestation de service dans un domaine donné. Ce terme désigne plus précisément toutes les étapes qui suivent la signature du contrat de prestation et s’achève une fois le travail livré par le freelance et le paiement effectué par l’entreprise ayant fait appel à ses services.
Les conditions d’exécution de ladite mission sont à définir entre les deux parties, à travers le contrat de prestation cité plus haut. Ce dernier doit notamment inclure une description claire de la prestation, son prix, ainsi que la date de livraison.
Chez InFreelancing l’expertise de chaque freelance trouve sa place au sein d’entreprises (petites ou grandes) évoluant dans des secteurs variés.
De nombreuses missions freelance t’attendent, chacune correspondant à des compétences spécifiques, avec un accès simplifié et une recherche fluide. Grâce à une large variété de missions mises à jour quotidiennement, tu trouveras forcément ton bonheur.
Encore mieux : la prospection chronophage ne sera plus un souci pour toi. Toutes les missions freelance, en France comme ailleurs, disponibles sur le web, sont désormais regroupées en un seul et même endroit : InFreelancing.