Total des offres : 29 | Page 2 sur 5
Le rôle consiste à piloter des projets d'intégration temps réel et de data (big data & insights), en assurant la conception et le déploiement de pipelines de données robustes pour les data scientists et data analysts. Il implique de proposer des solutions techniques adaptées, d'apporter une expertise sur les architectures Cloud, de garantir la qualité et la gouvernance des données (préparation, traçabilité, conformité) et d'optimiser les processus internes. Le poste demande également une collaboration internationale pour partager les bonnes pratiques et améliorer le data-sharing et la protection des données.
Technologies de l'Information et de la Communication* Développer et maintenir des pipelines de données robustes à l'aide de Python, Spark et SQL. * Collaborer avec les data scientists, les analystes et les équipes d'ingénierie pour fournir des solutions de données de haute qualité. * Optimiser les flux de données pour la performance, l'évolutivité et la fiabilité. * Intégrer et gérer les données sur les plateformes cloud, en garantissant la sécurité et la conformité. * Participer aux décisions architecturales et contribuer à l'évolution de l'infrastructure de données.
Technologies de l'Information et de la CommunicationLe PO sera intégré aux équipes IA Client, Conseiller CRC/Opérations et pilotera la démarche avec l'ensemble des équipes : Métier, IT, Data Scientists, ainsi qu'avec des partenaires éditeurs. Ses missions incluront : * Interaction forte avec le Top Management : restitution claire et synthétique des avancées, mise en avant de la valeur business générée. * Orientation Business : traduire les besoins métier en cas d'usage IA Agentic concrets et mesurables, démontrer la valeur ajoutée attendue et définir comment l'IA Agentic sera déployée. * Compréhension de l'Asset et de la techno : maîtrise des concepts IA Agentic pour dialoguer avec les équipes techniques, tout en s'appuyant sur le PO Asset pour la mise en œuvre technique détaillée. * Travail avec des éditeurs : cadrer, suivre et évaluer les contributions des partenaires dans le cadre des pilotes IA Agentic. * Analyse de la réalité opérationnelle et de la performance : mettre en place des indicateurs de suivi (KPI), analyser les résultats, proposer des ajustements. * Pilotage complet : gestion du projet de bout en bout, de l'idéation à l'évaluation des pilotes, avec une autonomie totale.
Ingénierie? Conception et architecture des systèmes de données ? Collecte et intégration des données ? Nettoyage et transformation des données ? Optimisation des performances ? Suivi des traitements , analyse des erreurs et correction de bugs, lancement de traitements de reprises ? Maintenance des systèmes de données et support technique en cas de problèmes en concertation avec l?ingénieur Devops de l?équipe. ? Collaboration avec les data scientist, analystes de données et autres parties prenantes pour comprendre leurs besoins et fournir des solutions adaptées. ? Documentation des travaux réalisés Une période de recouvrement d?activité aura lieu en début de prestation. Elle permettra d?examiner les pratiques actuelles et de proposer des actions d?amélioration à mettre en oeuvre dans la suite de l a mission.
Technologies de l'Information et de la CommunicationDans ce cadre, nous recherchons un Data Engineer pour concevoir, construire et optimiser une nouvelle architecture data robuste et évolutive, capable d'alimenter l'ensemble de l'écosystème analytique de l'organisation., * Développer une architecture data évolutive, performante et sécurisée, adaptée aux besoins analytiques et business en s'appuyant sur les concepts des architectures Medaillon. * Collaborer avec les data scientists, analystes et autres équipes pour comprendre les besoins métiers et techniques. * Participer à la sélection et à l'intégration des technologies et outils les plus appropriés (bases de données, outils ETL, plateformes cloud). * Apporter support et expertise pour la conception, la mise en œuvre et la cohérence des bases de données et des flux inter-systèmes. * Créer et maintenir des pipelines de données pour l'ingestion, le nettoyage, la transformation et le stockage de données issues de sources variées. * Optimiser les bases de données et les processus de traitement pour garantir des performances optimales, automatiser les flux de données et assurer la résilience des systèmes. * Monitorer les coûts liés au traitement des données dans le cloud. * Garantir l'intégrité, la qualité et la confidentialité des données en conformité avec les réglementations (notamment RGPD) et l'accès à la donnée personnalisée d'après le modèle RBAC.
Technologies de l'Information et de la CommunicationLe bénéficiaire souhaite une prestation d'accompagnement pour le pipeline de traitement des données de l'équipe (suivi de la production des données, maintenance du pipeline, améliorations, intégration des nouveaux besoins). Les activités type seront celles d'un Data Engineer : * Conception et architecture des systèmes de données * Collecte et intégration des données * Nettoyage et transformation des données * Optimisation des performances * Suivi des traitements , analyse des erreurs et correction de bugs, lancement de traitements de reprises * Maintenance des systèmes de données et support technique en cas de problèmes en concertation avec l'ingénieur Devops de l'équipe. * Collaboration avec les data scientist, analystes de données et autres parties prenantes pour comprendre leurs besoins et fournir des solutions adaptées. * Documentation des travaux réalisés Une période de recouvrement d'activité aura lieu en début de prestation. Elle permettra d'examiner les pratiques actuelles et de proposer des actions d'amélioration à mettre en oeuvre dans la suite de l a mission., L'équipe ITG A3I - Data produit des tableaux de bord sur l'usage des outils de la toolchain DevSecOps du Groupe. Les traitements sont organisés autour d'un pipeline de production : scripts Python pour la collecte, des données via API, bases postgreSQL et COS pour le stockage des données, pipelines Dataiku + SQL pour la préparation / enrichissement des données, Tableau pour la production de tableaux de bord Un pipeline CICD, permet d'automatiser les déploiements. Il s'appuie sur Gitlab pour la gestion du code, Jenkins et Gitlab CI (cible) pour l'étape de build, Argo CD pour le déploiement, Un suivi du bon déroulement des jobs, et de leur relance éventuelle est opéré par l'équipe.
AutresLa mission en freelance qualifie la collaboration qui lie une entreprise cliente (ou un particulier) à un indépendant offrant une prestation de service dans un domaine donné. Ce terme désigne plus précisément toutes les étapes qui suivent la signature du contrat de prestation et s’achève une fois le travail livré par le freelance et le paiement effectué par l’entreprise ayant fait appel à ses services.
Les conditions d’exécution de ladite mission sont à définir entre les deux parties, à travers le contrat de prestation cité plus haut. Ce dernier doit notamment inclure une description claire de la prestation, son prix, ainsi que la date de livraison.
Chez InFreelancing l’expertise de chaque freelance trouve sa place au sein d’entreprises (petites ou grandes) évoluant dans des secteurs variés.
De nombreuses missions freelance t’attendent, chacune correspondant à des compétences spécifiques, avec un accès simplifié et une recherche fluide. Grâce à une large variété de missions mises à jour quotidiennement, tu trouveras forcément ton bonheur.
Encore mieux : la prospection chronophage ne sera plus un souci pour toi. Toutes les missions freelance, en France comme ailleurs, disponibles sur le web, sont désormais regroupées en un seul et même endroit : InFreelancing.