Total des offres : 7 | Page 1 sur 2
Le poste requiert un profil expérimenté, capable d'allier expertise technique, bonnes pratiques de développement logiciel et accompagnement des équipes. Concevoir, développer et optimiser des pipelines de données robustes, performants et scalables. Encadrer et apporter une expertise technique sur les choix d'architecture et de stack. Déployer et orchestrer des traitements distribués (PySpark, Glue). Concevoir et exposer des APIs de données. Industrialiser et automatiser les environnements via Terraform et des pipelines CI/CD. Garantir la fiabilité, la performance et la sécurité des flux et services de données en production. Collaborer avec les équipes Produit, Data et Développement pour intégrer les besoins métiers dans les solutions. Partager les bonnes pratiques et contribuer à la montée en compétences de l'équipe., * Contribution dans les assets des différentes équipes produits pour interconnecter et collecter les données. * Mise à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données). * Connaître et respecter dans nos propositions de valeur les exigences et problématiques liées aux réglementations en vigueur (RGPD, Data privacy, etc.) et aux standards et tendances du secteur (éco-conception, etc.) * Garant de la production (mise en place de monitoring et alerting et intervention si nécessaire). * Développement et maintien du continuous delivery (participer à l'intégration continue et à l'usine logicielle, déploiements et tests automatisés). * Présentation et explication des réalisations à des publics métiers et techniques.
Technologies de l'Information et de la CommunicationLe rôle implique la conception et la mise en œuvre de composants de la plateforme data, incluant : L'ingestion et le traitement des données * La construction et l'amélioration d'un cadre technique commun : * Monitoring CI/CD * Tests automatisés * Performance * Résilience * Qualité du code * Bonnes pratiques de développement * Activités principales * Recueillir, analyser et challenger les besoins métiers * Concevoir des solutions en accord avec les architectures définies * Contribuer au développement en tant qu'expert / lead technique * Écrire un code propre, réutilisable, fiable et conforme aux standards qualité * Identifier et résoudre les problèmes (bugs, goulots d'étranglement, etc.) * Fournir des solutions robustes et prêtes pour la production * Mettre en place des outils de monitoring et d'alerte pour assurer la fiabilité des services en production * Documenter les développements en anglais et partager les connaissances avec l'équipe * Communiquer efficacement avec les différentes équipes projet
Technologies de l'Information et de la CommunicationData Engineer avec compétence sur la stack technique Hadoop, Python, Spark/PySpark, Cloudera Expérimenté 3 à 5 années d'expérience sur des activités similaires
Technologies de l'Information et de la Communication* Concevoir, développer et optimiser des pipelines de données robustes, performants et scalables. * Encadrer et apporter une expertise technique sur les choix d'architecture et de stack. * Déployer et orchestrer des traitements distribués (PySpark, Glue). * Concevoir et exposer des APIs de données. * Industrialiser et automatiser les environnements via Terraform et des pipelines CI/CD. * Garantir la fiabilité, la performance et la sécurité des flux et services de données en production. * Collaborer avec les équipes Produit, Data et Développement pour intégrer les besoins métiers dans les solutions. * Partager les bonnes pratiques et contribuer à la montée en compétences de l'équipe. Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature.
Technologies de l'Information et de la CommunicationGestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python
Technologies de l'Information et de la CommunicationMettre en place la collecte et la mise à disposition des données au sein de l'entreprise * Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : * Acheminement de la donnée * Mise à disposition de la donnée aux équipes utilisatrices * Mise en production de modèles statistiques * Suivi de projet de développement * Développement job spark * Traitement et ingestion de plusieurs formats des données * Développement des scripts * Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données * Développement des moyens de restitution via génération de fichier et ou API & Dashboarding * Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers * Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) * Développer des API génériques d'ingestion et de traitement de données dans un environnement HDP * Participer à la conception, mise en place et administration de solutions Big Data * Participation à l'installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka * Normalisation et agrégation des données afin de produire les rapports sous forme de Business View, La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad CCO qui aujourd'hui gére l'Entrepôt des données client de la CIB à travers l'application interne utilisée par les équipes IT et métiers. L'objectif de la mission est de renforcer l'équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein de la Squad : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python )
Technologies de l'Information et de la CommunicationLa mission en freelance qualifie la collaboration qui lie une entreprise cliente (ou un particulier) à un indépendant offrant une prestation de service dans un domaine donné. Ce terme désigne plus précisément toutes les étapes qui suivent la signature du contrat de prestation et s’achève une fois le travail livré par le freelance et le paiement effectué par l’entreprise ayant fait appel à ses services.
Les conditions d’exécution de ladite mission sont à définir entre les deux parties, à travers le contrat de prestation cité plus haut. Ce dernier doit notamment inclure une description claire de la prestation, son prix, ainsi que la date de livraison.
Chez InFreelancing l’expertise de chaque freelance trouve sa place au sein d’entreprises (petites ou grandes) évoluant dans des secteurs variés.
De nombreuses missions freelance t’attendent, chacune correspondant à des compétences spécifiques, avec un accès simplifié et une recherche fluide. Grâce à une large variété de missions mises à jour quotidiennement, tu trouveras forcément ton bonheur.
Encore mieux : la prospection chronophage ne sera plus un souci pour toi. Toutes les missions freelance, en France comme ailleurs, disponibles sur le web, sont désormais regroupées en un seul et même endroit : InFreelancing.