Notre client a lancé un large programme de transformation autour des données et de l'Intelligence Artificielle dans un contexte de transformation globale de la DSI., ARDEMIS PARTNERS est une ESN fondée en 2006 à Marseille. Partenaire des plus grands noms de l'industrie des services financiers et des grands groupes en France entière, nous accompagnons la transformation digitale de nos clients depuis plus de 15 ans. Nos consultants sont experts dans les domaines de l'Agilité, du décisionnel / BI, Data, Cloud et cybersécurité.Nous intervenons aussi autour des sujets liés aux infrastructures systèmes et réseaux et le Devops., New! Démarquez-vous en passant des tests de personnalité gamifiés. Lancez-vous dès maintenant, en découvrant les trois tests disponibles gratuitement!
Le programme, comporte plusieurs objectifs, dont celui de la mise en place de la plateforme Data & IA, qui a vocation à devenir le coeur du SI.
La Domaine DataHub, au sein de la Direction Data a la responsabilité de la réalisation de « Comptoirs de Données » et référentiels pour les différents métiers.
Depuis juin 2020, notre client a lancé une transformation agile à l'échelle en passant tous les projets de la DSI sur le framework SAFe. Les équipes agiles sont maintenant embarquées dans des
trains, qui sont cadencés par des Programme Increment (PI)., Etre en mesure de leader plusieurs Data Engineers afin de livrer le maximum de valeurs, tout en respectant les principes d'architecture
Participer avec les TLs & Dev Seniors des autres comptoirs des données, à l'harmonisation du socle comptoirs des données, ainsi que le déroulement de la roadmap des décommissionnements
des applications legacy du socle., * Bonne connaissance de la gestion des droits et habilitation sur des supports de données variés (SGBDR, AWS, IAM, AWS KMS, Apache Ranger, Sentry) ;
* Gouvernance de la donnée (datalineage, cataloging, Apache Atlas…)
* Machine learning (Spark, services ML AWS, ElasticSearch)
Certifications requires : * au moins une
* AWS Solution Architect ;
* AWS Database ;
* AWS Developer ;
* AWS Data Analytics, * data transfo (AWS Glue, AWS Lambda, EMR…)
* data streaming (AWS Kinesis, Kafka…)
* Bases analytiques et bases NoSQL (Redshift, ElasticSearch, AWS Athena, AWS RDS)
* Langage SQL ;
* Stockage objet (AWS S3) ;
* Bonnes pratiques DevOps ;
* Manipulation des technologies et des ressources as-a-service par programmation (*-as-code)
* Utilisation collaborative d'un même code source
* Une expérience significative dans le développement en environnement Cloud, de préférence AWS
* Bonnes pratiques DevOps ;
* Manipulation des technologies (connaissances et pas maitrise) et des ressources as-a-service via (*-as-code) ;
* Utilisation collaborative d'un même code source ;
* Manipulation des outils DevOps (Git, Jenkins, Gitlab-CI, Docker, Kubernetes, Ansible, Terraform, Helm…) ;
* Très bonne connaissance du Langage SQL ;
* Connaissance sur les environnements et les problématiques DATA (chaines DataOps, qualité de données, ETL, etc.) :
* Bonne connaissances autour de l'orchestration et scheduling de tâches (Control/M, Apache Airflow, Ooozie, Kubeflow, EMR) ;
* Bonne connaissance des problématiques API (OpenAPI swagger, Jason web token, API management ;
* Maitrise des processus et des outils d'ingestion, transformation et chargement de données (AWS Glue, AWS Lambda, EMR…) ;
* Maitrise des outils data streaming (AWS Kinesis, Kafka…) ;
* Maitrise des bases analytiques et bases NoSQL (Redshift, ElasticSearch, AWS Athena, AWS RDS) ;
* Maitrise du Stockage objet (AWS S3), * Outils DevOps (Git, Jenkins, Gitlab-CI, Docker, Kubernetes, Ansible, Terraform, Helm…)
* Connaissance sur les environnements et les problématiques DATA (chaines DataOps, qualité de données, ETL, etc.) :
* Orchestration et scheduling de tâches (Control/M, Apache Airflow, Ooozie, Kubeflow, EMR)
* API (OpenAPI swagger, Jason web token, API management) ;
* Gestion des droits et habilitation sur des supports de données variés (SGBDR, AWS IAM, AWS
KMS, Apache Ranger, Sentry)
* Gouvernance de la donnée (datalineage, cataloging, Apache Atlas…)
* Machine learning (Spark, services ML AWS, ElasticSearch)