Total des offres : 17 | Page 3 sur 3
Ce document constitue la description des besoins pour une mission d'assistance à Maitrise d'Ouvrage sur le Projet IFRS9 - RISQUES sur le sujet IHM RiskConfidence création d'écrans d'administration: * Analyse des besoins * Rédaction de spécifications : écrans d'administration dans le progiciel Risk Confidence [RCO] de Moody's Analytics, éventuels traitements automatiques associés * Recettes et Tests de non-régression * Qualification avec les équipes de support/fonctionnement, agissant comme métier * Pilotage du chantier et de son déroulé, suivi des 2 développeurs différents Dans le cadre de la mise en place de la norme IFRS 9, il s'est doté d'un outil de provisionnement des créances mutualisé groupe (OMP). Celui-ci est fondé sur le progiciel Risk Confidence [RCO] de Moody's Analytics. Le dispositif est complété par des briques applicatives qui assurent l'interface avec les SI des entités du groupe et le reste du SI Indépendamment de l'implémentation technique de l'outillage du nouveau dispositif, le calcul des provisions est placé sous la responsabilité de chaque entité. En dehors des évolutions régulières de l'application et des actualisations semestrielles de paramétrages, les projets majeurs pour 2024 et 2025 consistent en la gestion des impacts de la nouvelle réglementation Bale 4, et en des évolutions majeures de type réglementaires de calculs et d'interfaces utilisateurs. OMP calcule les provisions pour les encours sains sur la base de la norme IFRS9, mensuellement. Pour cela il collecte des encours retail et corporate qu'il classe en bucket selon un profil de risque et calcule la provision associée (à 1 an ou à maturité de l'encours). Le calcul repose sur des paramètres IFRS9 qui projettent l'évolution des PD, LGD, CCF et RA (remboursement anticipé) à partir de scénarios macro-économiques. A l'issue de ce calcul, les utilisateurs de chaque pôle bancaire peuvent modifier les paramètres PD et LGD de portefeuille d'encours afin de simuler d'éventuels chocs escomptés. Ceci se fait à travers l'IHM d'OMP. En fin d'arrêté mensuel, OMP collecte des données événementielles pour mettre à niveau son stock d'encours afin qu'il corresponde à l'état du stock de l'arrêté mensuel. Puis il produit des flux à destination des systèmes comptables des pôles bancaires. Trimestriellement il produit un flux dit « Annexe1 » qui donne les causes de variations des provisions entre l'arrêté trimestriel et l'arrêté annuel précédent. Pour ce faire, OMP collecte les provisions pour les encours en défaut (i.e. douteux). OMP doit aussi assurer une piste d'audit de ses traitements et permettre aux utilisateurs de faire des analyses comparatives entre plusieurs arrêtés., Liste des activités et livrables principaux : - Ateliers avec les équipes de support/fonctionnement de l'OMP, et éventuellement avec les métiers de la Direction des Risques Groupe - Cadrage des sujets - Estimation des charges de maitrise d'ouvrage - Création de maquettes d'écrans - Rédaction de spécifications fonctionnelles détaillées / User Stories - Assistance fonctionnelle aux développeurs - Rédaction des plans de tests et PV de recette - Tests fonctionnels unitaires - Recettes fonctionnelles (y compris grosse volumétrie) - Recettes de non-régression (y compris grosse volumétrie) - Rédaction des guides utilisateur - Suivi des tickets d'anomalie et d'évolution via Jira - Gestion des demandes auprès de l'éditeur Moody's Analytics et suivi de leurs travaux - Gestion des demandes auprès de notre centre de service et suivi de leurs travaux - Réponse aux audits internes ou externes, démarche de charte RFAR : Relations Fournisseurs et Achats Responsables, sous conseil de nos propres clients, qui font cette démarche avec nous. Nous le faisons naturellement, mais nous souhaitons professionnaliser notre relation avec nos fournisseurs, afin d'augmenter la confiance qu'ils nous témoignent au quotidien, et pour les nouveaux fournisseurs, de savoir qui nous sommes vraiment. https://www.innovandco.net
Technologies de l'Information et de la CommunicationEn tant que Développeur Front-End Angular, vous serez intégré(e) à une équipe Agile (Scrum ou Kanban) et aurez pour responsabilités de : * Participer à la conception technique des interfaces utilisateurs en collaboration avec les UX/UI designers et les architectes ; * Développer et maintenir des composants Angular performants, maintenables et réutilisables ; * Intégrer les services REST et interagir avec les back-ends en coordination avec les développeurs back-end ; * Garantir la qualité du code (tests unitaires, revues de code, respect des bonnes pratiques Angular) ; * Participer à l'amélioration continue des outils, méthodes et processus de développement.
Technologies de l'Information et de la CommunicationPérimètre de la consultation : Prestations attendues Activités principales du data scientist : * Comprendre les cas d'usage * Participer aux réunions de cadrage des besoins avec le chef de projet DPIT * Apporter une expertise et évaluer la pertinence de l'IA pour le besoin * Réaliser une première estimation de l'effort nécessaire au développement d'une solution * Développer des POC (Proof of Concept) pour démontrer la faisabilité et la performance, Collecte de données : * Identifier les sources de données (internes et externes) * Extraire les données depuis des bases de données, des API, des fichiers texte, des documents Word/PDF, via du web scraping, des données semi-structurées, etc. Préparation et nettoyage des données : * Nettoyer les données : corriger ou supprimer les données corrompues/incorrectes, gérer les valeurs manquantes, supprimer les doublons * Transformer les données : normaliser les formats, mettre à l'échelle, encoder les variables catégorielles Ingénierie des caractéristiques (Feature Engineering) : * Extraire, créer et sélectionner les caractéristiques pertinentes à partir des données brutes Traitement du langage naturel (NLP) : * Extraire, nettoyer et transformer le texte issu de documents non structurés Exploration et visualisation des données : * Réaliser une analyse exploratoire des données (EDA) * Détecter des motifs et tendances pour formuler des hypothèses et identifier des relations causales potentielles Modélisation et développement : * Utiliser Python pour développer des applications et des interfaces utilisateur de base * Sélectionner les algorithmes de ML/DL appropriés * Entraîner les modèles et ajuster les paramètres * Valider les modèles via la validation croisée pour éviter le surapprentissage (overfitting) * Instancier des modèles de langage pré-entraînés (LLMs, embeddings, rerankers, etc.) et les intégrer dans des solutions complexes comme le RAG (Retrieval-Augmented Generation) Maîtrise des bibliothèques Python clés : * Manipulation de données : Pandas, Polars, Dask, PySpark * NLP : NLTK, SpaCy * Machine Learning : Scikit-Learn, XGBoost, LightGBM * Deep Learning : PyTorch * IA Générative : Ollama, Transformers, SentenceTransformers, Langchain, LlamaIndex Évaluation des modèles : * Utiliser des métriques de performance : précision, rappel, F1 score, AUC-ROC, Matthews, RMSE, MAE, R², MAPE, Silhouette, etc. * Analyser les erreurs de prédiction pour identifier les faiblesses et les axes d'amélioration Déploiement des modèles : * Collaborer avec les équipes d'ingénierie pour intégrer les modèles en production * Automatiser les pipelines de données du stockage à l'inférence * Développer des API pour permettre l'accès aux modèles par d'autres systèmes ou utilisateurs Surveillance et maintenance : * Surveiller les performances des modèles en production et détecter toute dégradation * Mettre à jour et réentraîner régulièrement les modèles pour maintenir leur performance face aux nouvelles données et aux évolutions Documentation et communication : * Documenter les processus, méthodologies, choix de conception et résultats des modèles * Présenter les analyses et résultats aux parties prenantes avec des visualisations claires et un langage accessible * Rédiger des rapports et préparer des présentations pour partager les conclusions et recommandations Recherche et développement : * Se tenir informé des dernières avancées en algorithmes, techniques de ML et outils * Prototyper et expérimenter de nouveaux modèles et approches pour résoudre des problèmes complexes ou améliorer les performances Collaboration : * Travailler avec des experts métier, des analystes business et d'autres parties prenantes pour comprendre les besoins et contraintes spécifiques
Technologies de l'Information et de la CommunicationAu sein de l'équipe Transversal Development rattachée au pôle « Core », vous interviendrez sur le développement et la validation de deux logiciels critiques pour les activités de marché : * Le Market Data Provider, qui collecte les données de marché (prix, statuts d'instruments) depuis des marchés externes, pour les instruments tels que les dérivés, warrants et certaines actions. * Les Viewers, des outils d'analyse des flux d'ordres et de données de marché, utilisés au quotidien par les équipes QA, développement et métier pour investiguer les comportements du système. Vous serez responsable de la qualité et de la performance de ces composants applicatifs, en étroite collaboration avec les équipes de développement, d'intégration et de déploiement. Votre rôle inclut la création, l'exécution et l'automatisation des tests fonctionnels et techniques, en veillant à leur intégration continue via Jenkins.
Ingénierie· Migration de la base de données Oracle du système legacy Cobol vers la nouvelle base de données PostGreSQL sur l'infrastructure SG Cloud · Développement de la couche d'acquisition des données avec les market data provider externes et internes · Développement des nouvelles interfaces utilisateurs sur l'ensemble des produits adressés (via SGMarket) · Replug de l'ensemble des consommateurs à la nouvelle application (API, Batch) · Mise en place d'un monitoring de production Livrables attendus : · Définition de l'architecture applicative · Définition des normes et standard de développement et de production · Développements (Fullstack) · Garantie de la qualité des livrables de développement · Suivi du développement des composants techniques · Définition et mise en place de la stratégie de tests technique, et contrôle leur exécution : tests unitaires, tests d'intégration, tests de performance / non-régression · Suivi du support technique « expertise » de 3ème niveau, analyse et correction des incidents de production (post livraison projet) · Recherche des « root cause » incidents de production, proposition et mise en oeuvre des plan d'actions de correction et de prévention. Expertises : · Java · Spring boot · Databases (Oracle, Postgre), SQL - API + REST - TDD (even BDD) · Continuous integration practices (usage of Maven, Jenkins, XL-Deploy or similar) · Front end (any modern JS framework like React or Angular, Le projet se décompose en plusieurs lots : · Migration de la base de données Oracle du système legacy Cobol vers la nouvelle base de données PostGreSQL sur l'infrastructure SG Cloud · Développement de la couche d'acquisition des données avec les market data provider externes et internes · Développement des nouvelles interfaces utilisateurs sur l'ensemble des produits adressés (via SGMarket) · Replug de l'ensemble des consommateurs à la nouvelle application (API, Batch) · Mise en place d'un monitoring de production Livrables attendus : · Définition de l'architecture applicative · Définition des normes et standard de développement et de production · Développements (Fullstack) · Garantie de la qualité des livrables de développement · Suivi du développement des composants techniques · Définition et mise en place de la stratégie de tests technique, et contrôle leur exécution : tests unitaires, tests d'intégration, tests de performance / non-régression · Suivi du support technique « expertise » de 3ème niveau, analyse et correction des incidents de production (post livraison projet) · Recherche des « root cause » incidents de production, proposition et mise en oeuvre des plan d'actions de correction et de prévention. Expertises : · Java · Spring boot · Databases (Oracle, Postgre), SQL - API + REST - TDD (even BDD) · Continuous integration practices (usage of Maven, Jenkins, XL-Deploy or similar) · Front end (any modern JS framework like React or Angular Environnement de travail Le projet se décompose en plusieurs lots : · Migration de la base de données Oracle du système legacy Cobol vers la nouvelle base de données PostGreSQL sur l'infrastructure SG Cloud · Développement de la couche d'acquisition des données avec les market data provider externes et internes · Développement des nouvelles interfaces utilisateurs sur l'ensemble des produits adressés (via SGMarket) · Replug de l'ensemble des consommateurs à la nouvelle application (API, Batch) · Mise en place d'un monitoring de production Livrables attendus : · Définition de l'architecture applicative · Définition des normes et standard de développement et de production · Développements (Fullstack) · Garantie de la qualité des livrables de développement · Suivi du développement des composants techniques · Définition et mise en place de la stratégie de tests technique, et contrôle leur exécution : tests unitaires, tests d'intégration, tests de performance / non-régression · Suivi du support technique « expertise » de 3ème niveau, analyse et correction des incidents de production (post livraison projet) · Recherche des « root cause » incidents de production, proposition et mise en oeuvre des plan d'actions de correction et de prévention. Expertises
Technologies de l'Information et de la CommunicationLa mission en freelance qualifie la collaboration qui lie une entreprise cliente (ou un particulier) à un indépendant offrant une prestation de service dans un domaine donné. Ce terme désigne plus précisément toutes les étapes qui suivent la signature du contrat de prestation et s’achève une fois le travail livré par le freelance et le paiement effectué par l’entreprise ayant fait appel à ses services.
Les conditions d’exécution de ladite mission sont à définir entre les deux parties, à travers le contrat de prestation cité plus haut. Ce dernier doit notamment inclure une description claire de la prestation, son prix, ainsi que la date de livraison.
Chez InFreelancing l’expertise de chaque freelance trouve sa place au sein d’entreprises (petites ou grandes) évoluant dans des secteurs variés.
De nombreuses missions freelance t’attendent, chacune correspondant à des compétences spécifiques, avec un accès simplifié et une recherche fluide. Grâce à une large variété de missions mises à jour quotidiennement, tu trouveras forcément ton bonheur.
Encore mieux : la prospection chronophage ne sera plus un souci pour toi. Toutes les missions freelance, en France comme ailleurs, disponibles sur le web, sont désormais regroupées en un seul et même endroit : InFreelancing.