MATCHING | INSCRIPTION

Mission Freelance Quant Spécialisé En Asset & Liabilities Management (Alm) Paris - Paris - Temps partiel (≤ 32 heures)

Cogniwave dynamics

Dans le cadre d'une mission de 6 mois renouvelable, nous recherchons deux profils quantitatifs expérimentés sur Paris., COGNIWAVE DYNAMICS est une société de consulting multi secteurs mais avec une expertise sur les nouvelles technologies et l'intelligence artificielle. * Sur notre activité de consulting : Nous intervenons donc de façon transversale sur différents secteurs d'activités (Banque, Assurance, industrie, administrations publiques, éducation, ....) : Nous avons développé un outil d'aide à la décision pour les ressources humaines et les managers. Il facilite la sélection et l'évaluation des profils grâce à l'intelligence artificielle., Cabinet de conseil COGNIWAVE DYNAMICS est une société de consulting multi secteurs mais avec une expertise sur les nouvelles technologies et l'intelligence artificielle. * Sur notre activité de consulting : Nous intervenons donc de façon transversale sur différents secteurs d'activités (Banque, Assurance, industrie, administrations publiques, éducation, ....) : Nous avons développé un outil d'aide à la décision pour les ressources humaines et les managers. Il facilite la sélection et l'évaluation des profils grâce à l'intelligence artificielle. * Sur notre Activité IA/Data : COGNIWAVE DYNAMICS propose aussi et développe des applications d'intelligence artificielle sur - mesure et adaptable à vos propres architectures et besoins. COGNIWAVE DYNAMICS n'est pas qu'un simple intégrateur de solution. Il intervient sur toute la chaîne technique de développement d'outils d'intelligence artificielle. La mission de Cogniwave Dynamics est de créer des systèmes d'IA fiables, interprétables et contrôlables. Nous souhaitons que l'IA soit sûre et bénéfique pour nos utilisateurs et pour la société dans son ensemble. Notre équipe, en pleine croissance, regroupe des chercheurs, des ingénieurs, des experts en politiques publiques et des leaders d'entreprise engagés, travaillant ensemble pour développer des systèmes d'IA utiles et responsables. Nous travaillons avec des universités sur la partie R & D. La plateforme www.cogniwavedynamics.com Nous offrons : * L'opportunité de rejoindre une équipe diversifiée, multinationale et dynamique composée de personnes talentueuses et passionnées possédant un large éventail de compétences analytiques et techniques. * Des programmes de formation étendus et adaptés à vos besoins personnels, * Coaching et mentorat par des collègues plus expérimentés. * Rémunération attrayante et avantages extralégaux (programme de mobilité, mutuelle, etc.), New! Démarquez-vous en passant des tests de personnalité gamifiés. Lancez-vous dès maintenant, en découvrant les trois tests disponibles gratuitement!

MISSION

* Sur notre Activité IA/Data : COGNIWAVE DYNAMICS propose aussi et développe des applications d'intelligence artificielle sur - mesure et adaptable à vos propres architectures et besoins. COGNIWAVE DYNAMICS n'est pas qu'un simple intégrateur de solution. Il intervient sur toute la chaîne technique de développement d'outils d'intelligence artificielle. La mission de Cogniwave Dynamics est de créer des systèmes d'IA fiables, interprétables et contrôlables. Nous souhaitons que l'IA soit sûre et bénéfique pour nos utilisateurs et pour la société dans son ensemble. Notre équipe, en pleine croissance, regroupe des chercheurs, des ingénieurs, des experts en politiques publiques et des leaders d'entreprise engagés, travaillant ensemble pour développer des systèmes d'IA utiles et responsables. Nous travaillons avec des universités sur la partie R & D., * L'opportunité de rejoindre une équipe diversifiée, multinationale et dynamique composée de personnes talentueuses et passionnées possédant un large éventail de compétences analytiques et techniques. * Des programmes de formation étendus et adaptés à vos besoins personnels, * Coaching et mentorat par des collègues plus expérimentés.

PROFIL RECHERCHÉ

* Quant spécialisé en Asset & Liabilities Management (ALM) + Expérience confirmée en modélisation ALM, gestion du bilan, scénarios de taux et liquidité. + Maîtrise des outils quantitatifs et des environnements bancaires., * Formation supérieure (Bac+5/PhD) en mathématiques financières, statistiques ou équivalent. * Bonne connaissance en assets and liabilities management * Excellente maîtrise des outils de programmation (Python, SAS, R, Matlab, VBA…). * Esprit d'analyse, autonomie, rigueur et capacité à travailler en équipe. Environnement de travail, Le poste Quant spécialisé en Asset & Liabilities Management (ALM) Paris

MISSIONS SIMILAIRES
POUR VOUS

Mission Freelance Chef De Projet Transverse

* Réalisation d'études amont, * Accompagnement des phases de transition (Move to Run), * Pilotage de la réalisation des projets, * Audits de situation et diagnostics de projets en difficulté, * Élaboration de plans d'action et de recommandations pour débloquer ou accélérer les projets. Exemple de sujets pouvant être assignés à court terme * Migration applicative dans le cadre de l'obsolescence sur la France et la Belgique * Sécurisation du processus de recette Projet * Move to Cloud des applications SOX * Etude de convergence applicative sur le MKT entre FR & BE * Remédiation application (revue de l'authentification) * Move to Cloud Espace Client, * Migration applicative dans le cadre de l'obsolescence sur la France et la Belgique * Sécurisation du processus de recette Projet * Move to Cloud des applications SOX * Etude de convergence applicative sur le MKT entre FR & BE * Remédiation application (revue de l'authentification) * Move to Cloud Espace Client

Direction des Secteurs Privé et Publique

Mission Freelance Consultant Bigdata Spark Kafka Python - Stack Hadoop

Spark - Expert - Impératif Kafka - Confirmé - Impératif Stack HADOOP - Expert - Impératif Description détaillée. 1 Compétences Techniques - Langages de programmation : Python (maîtrise avancée, développement de pipelines de données, optimisation de code, savoir mettre en place une campagne de tests) - Orchestration de workflow : Apache Airflow (création, gestion et optimisation de DAGs, intégration avec divers services) - Big Data & Traitement Distribués : o Apache Spark (Dév et optimisations) o Spark Streaming avec dépendances Kafka o Cloudera CDP (tuning des traitements) - Stockage et Bases de Données : o Hive, HDFS, (+ Impala et Iceberg dans un futur proche) - Sécurité & Chiffrement : o Chiffrement des flux de données et des bases (TLS, SSL, Kerberos, Hashicorp Vault, PGP) o Ranger KMS (chiffrement du stockage sur le cluster) - DevOps & CI/CD : o Git, GitLab CI/CD, Importance de la qualité de code (Sonar, XRay), Jenkins, XL Deploy o Monitoring (Open Search Dashboard, Grafana, ELK Stack) 3. Méthode de travail - Méthodologies Agile (Scrum, Kanban) 4. Soft Skills - Capacité à prendre des décisions stratégiques sur les choix technologiques - Adaptabilité et réactivité face aux évolutions technologiques - Esprit analytique et résolution de problèmes complexes

Technologies de l'Information et de la Communication

Mission Freelance Concepteur/ Développeur

1. Suivi de production et amélioration continue - Analyser les incidents et mettre en œuvre des correctifs durables. - Assurer le suivi des traitements récurrents. * Mettre en œuvre des actions d'améliorations continue (robustesse, supervision, industrialisation). * Rendre compte des activités et communiquer sur l'état d'avancement des traitements. Gestion du processus de gestion des changements pour le périmetre concerné 2. Coordination technique * Coordonner les actions avec l'équipe plateforme Data sur tous les sujets techniques. * Collaborer avec les intégrateurs du Centre de Solutions Métier pour assurer la bonne orchestration des processus. * Participer aux ateliers avec le métier pour analyser la fiabilité technique et assurer le suivi des évolutions. * Être force de proposition sur l'évolution de la chaîne technique et la mise en place de bonnes pratiques. 3. Analyse, conception et développement * Participer à la conception technique et à l'architecture des traitements data. * Rédiger les spécifications techniques à partir des besoins fonctionnels. * Développer et tester les flux de données (notamment dans Matillion) en SQL et Python. * Contribuer à la mise en production des évolutions, en assurant la qualité, la performance et la maintenabilité.

Technologies de l'Information et de la Communication

Mission Freelance Ingénieur Big Data

Objectif global : Accompagner Plateforme BigData Les livrables sont: * Big Data & Traitement Distribués * Orchestration de workflow Compétences techniques: * Spark - Expert - Impératif * Kafka - Confirmé - Impératif * Stack HADOOP - Expert - Impératif Description détaillée: - Langages de programmation : Python (maîtrise avancée, développement de pipelines de données, optimisation de code, savoir mettre en place une campagne de tests) - Orchestration de workflow : Apache Airflow (création, gestion et optimisation de DAGs, intégration avec divers services) - Big Data & Traitement Distribués : o Apache Spark (Dév et optimisations) o Spark Streaming avec dépendances Kafka o Cloudera CDP (tuning des traitements) - Stockage et Bases de Données : o Hive, HDFS, (+ Impala et Iceberg dans un futur proche) - Sécurité & Chiffrement : o Chiffrement des flux de données et des bases (TLS, SSL, Kerberos, Hashicorp Vault, PGP) o Ranger KMS (chiffrement du stockage sur le cluster) - DevOps & CI/CD : o Git, GitLab CI/CD, Importance de la qualité de code (Sonar, XRay), Jenkins, XL Deploy o Monitoring (Open Search Dashboard, Grafana, ELK Stack) 3. Méthode de travail - Méthodologies Agile (Scrum, Kanban) 4. Soft Skills - Capacité à prendre des décisions stratégiques sur les choix technologiques - Adaptabilité et réactivité face aux évolutions technologiques - Esprit analytique et résolution de problèmes complexes

Technologies de l'Information et de la Communication

DÉCOUVREZ CES MISSIONS
POPULAIRES

Mission Freelance Chef De Projet Transverse

* Réalisation d'études amont, * Accompagnement des phases de transition (Move to Run), * Pilotage de la réalisation des projets, * Audits de situation et diagnostics de projets en difficulté, * Élaboration de plans d'action et de recommandations pour débloquer ou accélérer les projets. Exemple de sujets pouvant être assignés à court terme * Migration applicative dans le cadre de l'obsolescence sur la France et la Belgique * Sécurisation du processus de recette Projet * Move to Cloud des applications SOX * Etude de convergence applicative sur le MKT entre FR & BE * Remédiation application (revue de l'authentification) * Move to Cloud Espace Client, * Migration applicative dans le cadre de l'obsolescence sur la France et la Belgique * Sécurisation du processus de recette Projet * Move to Cloud des applications SOX * Etude de convergence applicative sur le MKT entre FR & BE * Remédiation application (revue de l'authentification) * Move to Cloud Espace Client

Direction des Secteurs Privé et Publique

Mission Freelance Consultant Bigdata Spark Kafka Python - Stack Hadoop

Spark - Expert - Impératif Kafka - Confirmé - Impératif Stack HADOOP - Expert - Impératif Description détaillée. 1 Compétences Techniques - Langages de programmation : Python (maîtrise avancée, développement de pipelines de données, optimisation de code, savoir mettre en place une campagne de tests) - Orchestration de workflow : Apache Airflow (création, gestion et optimisation de DAGs, intégration avec divers services) - Big Data & Traitement Distribués : o Apache Spark (Dév et optimisations) o Spark Streaming avec dépendances Kafka o Cloudera CDP (tuning des traitements) - Stockage et Bases de Données : o Hive, HDFS, (+ Impala et Iceberg dans un futur proche) - Sécurité & Chiffrement : o Chiffrement des flux de données et des bases (TLS, SSL, Kerberos, Hashicorp Vault, PGP) o Ranger KMS (chiffrement du stockage sur le cluster) - DevOps & CI/CD : o Git, GitLab CI/CD, Importance de la qualité de code (Sonar, XRay), Jenkins, XL Deploy o Monitoring (Open Search Dashboard, Grafana, ELK Stack) 3. Méthode de travail - Méthodologies Agile (Scrum, Kanban) 4. Soft Skills - Capacité à prendre des décisions stratégiques sur les choix technologiques - Adaptabilité et réactivité face aux évolutions technologiques - Esprit analytique et résolution de problèmes complexes

Technologies de l'Information et de la Communication

Mission Freelance Concepteur/ Développeur

1. Suivi de production et amélioration continue - Analyser les incidents et mettre en œuvre des correctifs durables. - Assurer le suivi des traitements récurrents. * Mettre en œuvre des actions d'améliorations continue (robustesse, supervision, industrialisation). * Rendre compte des activités et communiquer sur l'état d'avancement des traitements. Gestion du processus de gestion des changements pour le périmetre concerné 2. Coordination technique * Coordonner les actions avec l'équipe plateforme Data sur tous les sujets techniques. * Collaborer avec les intégrateurs du Centre de Solutions Métier pour assurer la bonne orchestration des processus. * Participer aux ateliers avec le métier pour analyser la fiabilité technique et assurer le suivi des évolutions. * Être force de proposition sur l'évolution de la chaîne technique et la mise en place de bonnes pratiques. 3. Analyse, conception et développement * Participer à la conception technique et à l'architecture des traitements data. * Rédiger les spécifications techniques à partir des besoins fonctionnels. * Développer et tester les flux de données (notamment dans Matillion) en SQL et Python. * Contribuer à la mise en production des évolutions, en assurant la qualité, la performance et la maintenabilité.

Technologies de l'Information et de la Communication

Mission Freelance Ingénieur Big Data

Objectif global : Accompagner Plateforme BigData Les livrables sont: * Big Data & Traitement Distribués * Orchestration de workflow Compétences techniques: * Spark - Expert - Impératif * Kafka - Confirmé - Impératif * Stack HADOOP - Expert - Impératif Description détaillée: - Langages de programmation : Python (maîtrise avancée, développement de pipelines de données, optimisation de code, savoir mettre en place une campagne de tests) - Orchestration de workflow : Apache Airflow (création, gestion et optimisation de DAGs, intégration avec divers services) - Big Data & Traitement Distribués : o Apache Spark (Dév et optimisations) o Spark Streaming avec dépendances Kafka o Cloudera CDP (tuning des traitements) - Stockage et Bases de Données : o Hive, HDFS, (+ Impala et Iceberg dans un futur proche) - Sécurité & Chiffrement : o Chiffrement des flux de données et des bases (TLS, SSL, Kerberos, Hashicorp Vault, PGP) o Ranger KMS (chiffrement du stockage sur le cluster) - DevOps & CI/CD : o Git, GitLab CI/CD, Importance de la qualité de code (Sonar, XRay), Jenkins, XL Deploy o Monitoring (Open Search Dashboard, Grafana, ELK Stack) 3. Méthode de travail - Méthodologies Agile (Scrum, Kanban) 4. Soft Skills - Capacité à prendre des décisions stratégiques sur les choix technologiques - Adaptabilité et réactivité face aux évolutions technologiques - Esprit analytique et résolution de problèmes complexes

Technologies de l'Information et de la Communication