Total des offres : 28 | Page 1 sur 5
Nous recherchons un(e) consultant(e) freelance expérimenté(e) pour administrer et faire évoluer une plateforme Dataiku (DSS) dans un environnement de production exigeant. Vous interviendrez au sein d'une équipe Data Science & IA dynamique, sur des sujets à la croisée de la data, de l'infrastructure et de la gouvernance technique. Vos missions * Assurer l'administration, la maintenance et l'évolution de la plateforme Dataiku DSS * Automatiser les opérations récurrentes (upgrades, monitoring, gestion utilisateurs) via Python * Accompagner les utilisateurs (data scientists, analystes, métiers) sur les bonnes pratiques * Collaborer avec les équipes infrastructure sur les sujets OpenShift / Kubernetes * Développer des composants réutilisables dans Dataiku (plugins, recettes, indicateurs) * Rédiger et maintenir la documentation technique * Participer à des projets transverses : DevOps, MLOps, LLMOps
Autres* Développement et maintenance des pipelines de données * Traitement, transformation et valorisation des données à grande échelle * Contribution à l'architecture et à la structuration des flux Big Data * Collaboration avec les équipes Data Science, BI et produit * Participation à l'amélioration continue des plateformes et outils
Technologies de l'Information et de la CommunicationNous recherchons un profil type architecte DataOps, MLOps, AI pour participer au design technique, à l'implémentation en production, à l'industrialisation, et au support et à l'amélioration continue des produits et services d'IA pour les métiers et fonctions du groupe Vous travaillerez avec le front sur : * L'élaboration, la mise en production, l'amélioration continue et le support opérationnel des fonctionnalités à valeur ajoutée autour des produits et services du Datalab : APIs, workflows MLOps, pipelines, dashboards, etc. You build it, you run it! * Participer au maintien en conditions opérationnelles, à la supervision et à la fiabilisation des 15+ plateformes de Data Science de Production du Groupe * Mettre en place les outils et bonnes pratiques, et accompagner les clients dans les démarches MLOps / LLMOps autour de ces outils. * Accompagner les utilisateurs dans l'utilisation de frameworks de calcul distribué et/ou d'accélérateurs de calcul hardware (GPU). * Renforcer les équipes de Support et d'accompagnement N3 du DataLab sur les plateformes et outils d'IA du groupe (best practices, mentoring, etc). Environnement technique de l'équipe Front * Docker / Kubernetes / OpenShift * Frameworks de calculs distribues (Spark, Ray, Dask, OpenMPI) * GPU Computing (CUDA, Rapids, NIMs, Nemo) * Environnements de Data Science Python, Conda, R (opt.) * Programmation en python * Shell scipting * MLFlow / KubeFlow * Outils de CI/CD DevSecOps/GitOps : Hashicorp Vault, Gitlab, Gitlab-CI, Artifactory, ArgoCD, Argo Workflow, Notre équipe est passée de 4 à 15 personnes en 2ans et nous passons à 20 cette année. Elle est séparée en 3 « mini-équipes » : * Front / AI Competency Center : Assurent le développement des solutions à offrir as-as-service et l'accompagnement des utilisateurs. * Automation : Pratiques DevSecOps / GitOps. / MLOps / LLMOps * GPU Grid System : Assurent l'administration des systèmes et un grid de GPU on premises … Et un PO Nous travaillons de pair avec : * Une équipe de DevOps pour les outils de plateformes (Vault, SSO etc...) * Une équipe de SRE pour les plateformes d'infra * Une équipe qui supporte le Datalake (Trino, Spark, et Minio) Environnement de travail
Technologies de l'Information et de la CommunicationIntégration au sein d?une équipe SRE chargée d?assurer la fiabilité et l?optimisation d?un environnement technique exigeant, composé de 4 datacenters, environ 100 applications et 2 800 machines virtuelles, reposant entièrement sur Linux Debian/Ubuntu. L?équipe actuelle compte 3 personnes et est à renforcer. Le poste est situé à la croisée des équipes applicatives et des ingénieurs infrastructure, avec pour objectif de déployer, maintenir et industrialiser un parc applicatif interne et externe. Objectifs et livrables Missions principales : Participer à l?installation et à la configuration des briques applicatives Administrer et maintenir les applications, en assurant notamment le support de niveau 2 Traiter l?obsolescence logicielle et réaliser les actions de patching non automatisées sur les systèmes critiques Automatiser les tâches récurrentes de support ou d?exploitation Documenter et mettre à jour les procédures d?exploitation et les documentations techniques Répartition des activités : Environ 75 % du temps dédié au maintien en conditions opérationnelles (supervision, support niveau 2, patching, gestion de l?obsolescence) Et 25 % consacré à la mise en place et au déploiement d?applications
Technologies de l'Information et de la CommunicationContribuer à la maintenance et aux évolutions des projets data du domaine réseau. Participer au traitement Big Data et aux calculs SQL dans un environnement structuré. Travailler au sein d?une équipe de 3 développeurs, intégrée dans un collectif plus large. Participer aux développements : 70 % Java/Spark, 20 % SQL, 5 % scripting Shell, 5 % DataViz (Power BI, Spotfire, BO). Fonctionnement agile avec rituels et interactions régulières., Missions principales : Contribuer à la maintenance et aux évolutions des projets data du domaine réseau. Participer au traitement Big Data et aux calculs SQL dans un environnement structuré. Travailler au sein d?une équipe de 3 développeurs, intégrée dans un collectif plus large. Participer aux développements : 70 % Java/Spark, 20 % SQL, 5 % scripting Shell, 5 % DataViz (Power BI, Spotfire, BO). Fonctionnement agile avec rituels et interactions régulières.
Technologies de l'Information et de la CommunicationDans le cadre d'un projet stratégique à fort enjeu autour de la valorisation de la donnée, pour notre client, nous recherchons un Data Engineer confirmé (H/F) pour intégrer une équipe Big Data dynamique et participer à toutes les étapes de la chaîne de traitement de la donnée. Vous interviendrez sur : * La collecte, transformation et mise à disposition des données à grande échelle * Le développement de pipelines de données performants et scalables * L'optimisation des traitements existants (batch/stream) * L'industrialisation des workflows data * L'automatisation de l'infrastructure via des outils d'IaC
Technologies de l'Information et de la CommunicationLa mission en freelance qualifie la collaboration qui lie une entreprise cliente (ou un particulier) à un indépendant offrant une prestation de service dans un domaine donné. Ce terme désigne plus précisément toutes les étapes qui suivent la signature du contrat de prestation et s’achève une fois le travail livré par le freelance et le paiement effectué par l’entreprise ayant fait appel à ses services.
Les conditions d’exécution de ladite mission sont à définir entre les deux parties, à travers le contrat de prestation cité plus haut. Ce dernier doit notamment inclure une description claire de la prestation, son prix, ainsi que la date de livraison.
Chez InFreelancing l’expertise de chaque freelance trouve sa place au sein d’entreprises (petites ou grandes) évoluant dans des secteurs variés.
De nombreuses missions freelance t’attendent, chacune correspondant à des compétences spécifiques, avec un accès simplifié et une recherche fluide. Grâce à une large variété de missions mises à jour quotidiennement, tu trouveras forcément ton bonheur.
Encore mieux : la prospection chronophage ne sera plus un souci pour toi. Toutes les missions freelance, en France comme ailleurs, disponibles sur le web, sont désormais regroupées en un seul et même endroit : InFreelancing.