MATCHING | INSCRIPTION

Dataops - Rouen - Temps partiel (≤ 32 heures)

REDLAB

New! Démarquez-vous en passant des tests de personnalité gamifiés. Lancez-vous dès maintenant, en découvrant les trois tests disponibles gratuitement!

MISSION

Cassandra ETL (Extract-transform-load) Informatica MySQL Nosql SAS SQL, Vous participerez à la mise en œuvre des plateformes data du Client et apporter votre expertise aux équipes d'exploitation. Descriptions des missions et activités : - Apporter une expertise sur la manipulation des données. - Conception des plateformes datas. - Mise en place des bases de données. - Veiller à la qualité des pipelines déployés.

PROFIL RECHERCHÉ

De formation Bac+3, vous disposez d'une expérience d'au moins 5 an dans l'ingénierie Data. Vous disposez de réelles capacités organisationnelles, relationnelles et rédactionnelles. Vous faites preuve de rigueur et appréciez le travail en équipe., Maitrise des langages structurés. - Maitrise de divers systèmes d'exploitation : Windows, Linux. - Expertise ETL et bonnes connaissances d'Informatica et/ou SAS BI - Connaissances des solutions SQL (SQL Server, MySQL, PostgreSQL, etc) et NoSQL (Elasticsearch, Cassandra, MongoDB, etc) Environnement de travail, Maitrise des langages structurés. - Maitrise de divers systèmes d'exploitation : Windows, Linux. - Expertise ETL et bonnes connaissances d'Informatica et/ou SAS BI - Connaissances des solutions SQL (SQL Server, MySQL, PostgreSQL, etc) et NoSQL (Elasticsearch, Cassandra, MongoDB, etc) Le poste DataOps

NOS DERNIÈRES MISSIONS
FREELANCE

Notre plateforme gratuite rassemble des milliers de missions freelance mises à jour régulièrement.

Mission Freelance Devops / Dataops

Nous recherchons un profil DevOps / DataOps polyvalent et débrouillard, capable de s'adapter rapidement et d'évoluer dans un environnement technique varié. Il ou elle jouera un rôle clé dans l'automatisation, l'industrialisation et la fiabilisation des flux de données, tout en collaborant étroitement avec les équipes Data, BI et métier. Missions principales : * Automatiser les workflows de traitement et de visualisation de données. * Maintenir et faire évoluer les pipelines de données (CI/CD, scripts, APIs). * Assurer le déploiement, la supervision et la fiabilité des environnements Data/BI. * Interfacer les outils BI (ex. Power BI) avec les systèmes sources via APIs ou connecteurs. * Participer à l'industrialisation des livrables Data en production. * Travailler en proximité avec les équipes Data Engineers, Data Analysts et Devs.

Technologies de l'Information et de la Communication

Dataops

Cassandra ETL (Extract-transform-load) Informatica MySQL Nosql SAS SQL, Vous participerez à la mise en œuvre des plateformes data du Client et apporter votre expertise aux équipes d'exploitation. Descriptions des missions et activités : - Apporter une expertise sur la manipulation des données. - Conception des plateformes datas. - Mise en place des bases de données. - Veiller à la qualité des pipelines déployés.

Technologies de l'Information et de la Communication

Ingénieur Dataops / Data Platform

Dans le cadre de la structuration et de l'industrialisation des données opérationnelles d'un grand groupe bancaire, nous recherchons un Ingénieur DataOps / Data Platform. Vous interviendrez au sein d'une équipe dédiée à la valorisation de la donnée (Data4Ops) dans un environnement complexe et multi-technologies, orienté Data Mesh. Vos missions * Participer à la conception de la Data Platform et à son évolution continue. * Gérer des pipelines de données issus d'environnements hétérogènes (socles techniques, microservices, outils d'observabilité). * Assurer la collecte, transformation, stockage et mise à disposition des données. * Industrialiser les pipelines via des outils d'automatisation CI/CD (batch et temps réel). * Mettre en place des mécanismes de contrôle qualité et d'intégrité des données. * Travailler en proximité avec les équipes métiers, techniques et opérationnelles.

Technologies de l'Information et de la Communication

Mission Freelance Dataops / Mlops / Ia

Nous recherchons un profil type architecte DataOps, MLOps, AI pour participer au design technique, à l'implémentation en production, à l'industrialisation, et au support et à l'amélioration continue des produits et services d'IA pour les métiers et fonctions du groupe Vous travaillerez avec le front sur : * L'élaboration, la mise en production, l'amélioration continue et le support opérationnel des fonctionnalités à valeur ajoutée autour des produits et services du Datalab : APIs, workflows MLOps, pipelines, dashboards, etc. You build it, you run it! * Participer au maintien en conditions opérationnelles, à la supervision et à la fiabilisation des 15+ plateformes de Data Science de Production du Groupe * Mettre en place les outils et bonnes pratiques, et accompagner les clients dans les démarches MLOps / LLMOps autour de ces outils. * Accompagner les utilisateurs dans l'utilisation de frameworks de calcul distribué et/ou d'accélérateurs de calcul hardware (GPU). * Renforcer les équipes de Support et d'accompagnement N3 du DataLab sur les plateformes et outils d'IA du groupe (best practices, mentoring, etc). Environnement technique de l'équipe Front * Docker / Kubernetes / OpenShift * Frameworks de calculs distribues (Spark, Ray, Dask, OpenMPI) * GPU Computing (CUDA, Rapids, NIMs, Nemo) * Environnements de Data Science Python, Conda, R (opt.) * Programmation en python * Shell scipting * MLFlow / KubeFlow * Outils de CI/CD DevSecOps/GitOps : Hashicorp Vault, Gitlab, Gitlab-CI, Artifactory, ArgoCD, Argo Workflow, Notre équipe est passée de 4 à 15 personnes en 2ans et nous passons à 20 cette année. Elle est séparée en 3 « mini-équipes » : * Front / AI Competency Center : Assurent le développement des solutions à offrir as-as-service et l'accompagnement des utilisateurs. * Automation : Pratiques DevSecOps / GitOps. / MLOps / LLMOps * GPU Grid System : Assurent l'administration des systèmes et un grid de GPU on premises … Et un PO Nous travaillons de pair avec : * Une équipe de DevOps pour les outils de plateformes (Vault, SSO etc...) * Une équipe de SRE pour les plateformes d'infra * Une équipe qui supporte le Datalake (Trino, Spark, et Minio) Environnement de travail

Technologies de l'Information et de la Communication