Total des offres : 10 | Page 2 sur 2
Afin de mener à bien cette mission, le client souhaite préciser le niveau d'expertise nécessaire dans les domaines suivants : -Connaissance en modélisation et restitutions de données -Certification MS PL-300 -Connaissance en datamart/data lake, ETL et Power BI -Anglais souhaité, mais non obligatoire -Connaissance du produit Generix et ou ERP (SAP) serait un plus Prestation attendue du prestataire Console Monitoring -Analyse de l'expression du besoin de notre client interne. -Analyse de l'architecture data fournie par notre architecte -Définition de la spécification technique -Création d'une maquette / visuel non dynamique (type Figma) de la console -Coordination avec les équipes techniques pour la réalisation du Datamart/datalake -Modélisation des données / rapport sur Power BI Livrables : Le Prestataire sera tenu de fournir les livrables suivants : -Si besoin, à déterminer avec le client, dossier d'avant-projet ; -Note de cadrage du projet ; -Compte-rendu et présentation des Kick-Off, COPROJ et COPILs ; -Compte-rendu clôture projet. -Tout type de document technique (ex : mode opératoire / SFD / Blueprint, cahiers de recette …), Analyse de l'expression du besoin de notre client interne. -Analyse de l'architecture data fournie par notre architecte -Définition de la spécification technique -Création d'une maquette / visuel non dynamique (type Figma) de la console -Coordination avec les équipes techniques pour la réalisation du Datamart/datalake -Modélisation des données / rapport sur Power BI Livrables : Le Prestataire sera tenu de fournir les livrables suivants : -Si besoin, à déterminer avec le client, dossier d'avant-projet ; -Note de cadrage du projet ; -Compte-rendu et présentation des Kick-Off, COPROJ et COPILs ; -Compte-rendu clôture projet. -Tout type de document technique (ex : mode opératoire / SFD / Blueprint, cahiers de recette …)
Technologies de l'Information et de la CommunicationAu sein de notre client bancaire, vous interviendrez en tant que Consultant(e) MOA pour faire évoluer le progiciel Front-to-Back MX3 de l'éditeur Murex. Cette solution couvre les activités : obligations, actions, dérivés, émissions obligataires et référentiels valeurs. Vous interviendrez au sein du stream Comptabilité, sur un ensemble d'initiatives structurantes, notamment : * Gestion du collatéral en titres * Migration fonds de cuve GPO vers MX.3 * Refonte usine à CRE Vos interventions seront de : * Participer aux rituels Agile et à la gestion du cycle de vie produit * Analyser et spécifier les besoins métiers jusqu'à la génération des CRE vers le SI comptable * Rédiger les spécifications fonctionnelles générales et détaillées * Contribuer à la réalisation, la validation, et la recette des évolutions avec les équipes IT * Fournir un support analytique, fonctionnel et stratégique * Documenter les solutions mises en œuvre dans la base de connaissances * Collaborer avec les équipes SI pour garantir l'alignement fonctionnel et technique * Participer à l'homologation des patchs éditeur et suivre les mises en production * Suivre les différentes mises en production et le post production, En rejoignant ACCELITE, vous intégrerez une structure à taille humaine, où la proximité, l'excellence, et l'engagement sont au cœur de nos valeurs. Vous participerez à des missions à fort enjeu, tout en évoluant dans un cadre propice au développement de vos compétences. Rejoignez-nous !
Direction des Secteurs Privé et PubliqueNous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction, à l'évolution et à la fiabilité d'un Data Lake stratégique, au cœur des projets liés à l'analyse de l'expérience utilisateur. Vous interviendrez sur l'ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d'un environnement AWS moderne, dans une logique d'industrialisation, de performance et de qualité de service. Vos principales missions : * Maintenir et faire évoluer une architecture data scalable sur AWS, adaptée à des volumes importants de données hétérogènes (logs, fichiers, API…). * Concevoir et structurer les différentes couches du Data Lake (Landing, Bronze, Silver) en lien avec les besoins métiers et les bonnes pratiques data. * Développer des pipelines de traitement de données robustes et automatisés (ETL/ELT), en batch ou quasi temps réel, via des services AWS : Glue, Lambda, EMR, Redshift, S3… * Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. * Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. * Intégrer de nouvelles sources de données aux formats variés (API REST, fichiers plats, logs applicatifs…) tout en assurant sécurité et performance. * Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. * Participer à l'amélioration continue de la plateforme (veille, refonte, optimisation), dans une logique DataOps (CI/CD, qualité, tests, versioning). * Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus. * Documenter l'architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
Technologies de l'Information et de la CommunicationVous contribuerez à la construction des solutions sous technologie Teradata, en étroite collaboration avec les autres membres de l'équipe. Vous aurez en charge le développement des solutions de collecte des données, de leur stockage, traitement et usages, mise à disposition : une expérience des environnements Unix, du SQL et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. Concrètement cela consiste en : Mesurer de nouveaux indicateurs internes, donc les collecter et les stocker en DATAHUB puis constituer le livrable attendu selon différentes périodicités Collecter et stocker les retours pour traitement interne (3 flux identifiés) Adapter des outils de pilotage existants (Rapport SSRS, flux pour applications aval, extractions?) et en créer de nouveaux (Marché ENT et PRO?). Concrètement, les principaux travaux porteront sur : Conception, modélisation et développement de collecte de flux et de traitements Entrepôt/DATALAB Une fois les résultats validés, industrialisation du DATALAB en DATAMART
Technologies de l'Information et de la CommunicationLa mission en freelance qualifie la collaboration qui lie une entreprise cliente (ou un particulier) à un indépendant offrant une prestation de service dans un domaine donné. Ce terme désigne plus précisément toutes les étapes qui suivent la signature du contrat de prestation et s’achève une fois le travail livré par le freelance et le paiement effectué par l’entreprise ayant fait appel à ses services.
Les conditions d’exécution de ladite mission sont à définir entre les deux parties, à travers le contrat de prestation cité plus haut. Ce dernier doit notamment inclure une description claire de la prestation, son prix, ainsi que la date de livraison.
Chez InFreelancing l’expertise de chaque freelance trouve sa place au sein d’entreprises (petites ou grandes) évoluant dans des secteurs variés.
De nombreuses missions freelance t’attendent, chacune correspondant à des compétences spécifiques, avec un accès simplifié et une recherche fluide. Grâce à une large variété de missions mises à jour quotidiennement, tu trouveras forcément ton bonheur.
Encore mieux : la prospection chronophage ne sera plus un souci pour toi. Toutes les missions freelance, en France comme ailleurs, disponibles sur le web, sont désormais regroupées en un seul et même endroit : InFreelancing.