Total des offres : 11 | Page 1 sur 2
Dans le cadre du développement de la plateforme de données et intelligence artificielle servant les usages internes et externes, hébergeant des données internes et externes et exploitée par des employés, nous cherchons un Product Owner pour la plateforme donnée data et IA. La ressource intégrera une équipe organisé en feature teams avec des équipes plateforme, devops, dataops, AI et tech lead squad. La ressource s'interfacera avec le product manager de la plateforme de données gérant la plateforme, les équipes d'intégration et d'exposition (ETL, APIM, ESB), le tech lead, le scrum master, les features teams, les PO des équipes d'intégrations et enfin la celle de gouvernance. 1. Gestion du Backlog Produit 2. Exécution de la Vision et Roadmap produit 3. Collaboration avec les Équipes Techniques 4. Interface avec les Parties Prenantes 5. Analyse de Données et Mesure de Performance 6. Veille Technologique et Innovation
Technologies de l'Information et de la CommunicationAu sein d'une équipe transverse dédiée à la mise en place de services numériques, vous intégrerez une structure en charge de l'Observabilité, de l'Automatisation et de la DataOps. L'objectif est de fournir des plateformes modernes et performantes, en constante amélioration, tout en facilitant l'onboarding de nouveaux utilisateurs., En tant qu'Expert DevOps Senior, vous : * Concevez et gérez des services pour le provisionnement d'infrastructure et le déploiement applicatif (Ansible, Terraform, Jenkins, etc.). * Développez des solutions en self-service pour les outils d'observabilité (Dynatrace, alerting, logs, monitoring...). * Automatisez les processus récurrents pour améliorer l'efficacité des équipes. * Participez à des projets techniques d'envergure : revue d'architecture, migration, montée de version. * Apportez un soutien à la résolution d'incidents et à l'analyse des performances. * Documentez les architectures, conceptions et réunions projet.
Communication, Marketing et Relations PubliquesNous recherchons un profil type architecte DataOps, MLOps, AI pour participer au design technique, à l'implémentation en production, à l'industrialisation, et au support et à l'amélioration continue des produits et services d'IA pour les métiers et fonctions du groupe Vous travaillerez avec le front sur : * L'élaboration, la mise en production, l'amélioration continue et le support opérationnel des fonctionnalités à valeur ajoutée autour des produits et services du Datalab : APIs, workflows MLOps, pipelines, dashboards, etc. You build it, you run it! * Participer au maintien en conditions opérationnelles, à la supervision et à la fiabilisation des 15+ plateformes de Data Science de Production du Groupe * Mettre en place les outils et bonnes pratiques, et accompagner les clients dans les démarches MLOps / LLMOps autour de ces outils. * Accompagner les utilisateurs dans l'utilisation de frameworks de calcul distribué et/ou d'accélérateurs de calcul hardware (GPU). * Renforcer les équipes de Support et d'accompagnement N3 du DataLab sur les plateformes et outils d'IA du groupe (best practices, mentoring, etc). Environnement technique de l'équipe Front * Docker / Kubernetes / OpenShift * Frameworks de calculs distribues (Spark, Ray, Dask, OpenMPI) * GPU Computing (CUDA, Rapids, NIMs, Nemo) * Environnements de Data Science Python, Conda, R (opt.) * Programmation en python * Shell scipting * MLFlow / KubeFlow * Outils de CI/CD DevSecOps/GitOps : Hashicorp Vault, Gitlab, Gitlab-CI, Artifactory, ArgoCD, Argo Workflow, Notre équipe est passée de 4 à 15 personnes en 2ans et nous passons à 20 cette année. Elle est séparée en 3 « mini-équipes » : * Front / AI Competency Center : Assurent le développement des solutions à offrir as-as-service et l'accompagnement des utilisateurs. * Automation : Pratiques DevSecOps / GitOps. / MLOps / LLMOps * GPU Grid System : Assurent l'administration des systèmes et un grid de GPU on premises … Et un PO Nous travaillons de pair avec : * Une équipe de DevOps pour les outils de plateformes (Vault, SSO etc...) * Une équipe de SRE pour les plateformes d'infra * Une équipe qui supporte le Datalake (Trino, Spark, et Minio) Environnement de travail
Technologies de l'Information et de la CommunicationDans le cadre des missions de l'équipe Log Analytics, nous souhaitons une prestation d'expertise technique de RUN et de Build sur les produits Kafka et de la stack Elastic (Data Architecture + OPS + Data Engineering + notions Data Analyse). Les missions sont : - Intégration dans une équipe d'experts techniques pour maintenir en conditions opérationnelles des plateformes de données très ambitieuses - Participation aux évolutions des plateformes, des services rendus, améliorer la fiabilité et les performances des clusters mis en place (setup, configuration, optimisation, troubleshooting) - Accompagnement nos clients dans leurs usages, les guider dans les meilleurs usages des produits - Force de proposition pour automatiser, industrialiser et rendre plus efficientes nos implémentations et nos interactions clients - Prise en charge le monitoring de nos plateformes afin de permettre et garantir le respect de nos SLAs - Prise en charge le RUN niveau 1/2/3 de nos platformes, En déposant votre mission, vous bénéficiez d'un matching efficace pour trouver le freelance correspondant à votre besoin. Je dépose une mission Bénéficiez d'une sécurité financière Ainsi que des avantages d'un salarié, soyez déchargé des tâches administratives grâce au portage salarial.
Technologies de l'Information et de la CommunicationVous rejoindrez une équipe data bien établie, travaillant selon un modèle de cohorte collaborative, avec un ingénieur data senior gérant les workflows et les opérations de la plateforme. L'environnement est dynamique mais bien structuré, la plateforme Fabric ayant récemment été déployée et étant désormais activement utilisée.
Technologies de l'Information et de la CommunicationNous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction, à l'évolution et à la fiabilité d'un Data Lake stratégique, au cœur des projets liés à l'analyse de l'expérience utilisateur. Vous interviendrez sur l'ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d'un environnement AWS moderne, dans une logique d'industrialisation, de performance et de qualité de service. Vos principales missions : * Maintenir et faire évoluer une architecture data scalable sur AWS, adaptée à des volumes importants de données hétérogènes (logs, fichiers, API…). * Concevoir et structurer les différentes couches du Data Lake (Landing, Bronze, Silver) en lien avec les besoins métiers et les bonnes pratiques data. * Développer des pipelines de traitement de données robustes et automatisés (ETL/ELT), en batch ou quasi temps réel, via des services AWS : Glue, Lambda, EMR, Redshift, S3… * Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. * Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. * Intégrer de nouvelles sources de données aux formats variés (API REST, fichiers plats, logs applicatifs…) tout en assurant sécurité et performance. * Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. * Participer à l'amélioration continue de la plateforme (veille, refonte, optimisation), dans une logique DataOps (CI/CD, qualité, tests, versioning). * Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus. * Documenter l'architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
Technologies de l'Information et de la CommunicationLa mission en freelance qualifie la collaboration qui lie une entreprise cliente (ou un particulier) à un indépendant offrant une prestation de service dans un domaine donné. Ce terme désigne plus précisément toutes les étapes qui suivent la signature du contrat de prestation et s’achève une fois le travail livré par le freelance et le paiement effectué par l’entreprise ayant fait appel à ses services.
Les conditions d’exécution de ladite mission sont à définir entre les deux parties, à travers le contrat de prestation cité plus haut. Ce dernier doit notamment inclure une description claire de la prestation, son prix, ainsi que la date de livraison.
Chez InFreelancing l’expertise de chaque freelance trouve sa place au sein d’entreprises (petites ou grandes) évoluant dans des secteurs variés.
De nombreuses missions freelance t’attendent, chacune correspondant à des compétences spécifiques, avec un accès simplifié et une recherche fluide. Grâce à une large variété de missions mises à jour quotidiennement, tu trouveras forcément ton bonheur.
Encore mieux : la prospection chronophage ne sera plus un souci pour toi. Toutes les missions freelance, en France comme ailleurs, disponibles sur le web, sont désormais regroupées en un seul et même endroit : InFreelancing.