Total des offres : 719 | Page 1 sur 120
Vous serez responsable de la mise en œuvre et de la gestion des stratégies et des cadres de cybersécurité, en assurant la conformité réglementaire et la gestion proactive des risques. Missions principales : * Gouvernance de la sécurité : * Élaborer, maintenir et mettre en œuvre des politiques, normes et procédures de sécurité. * Sensibiliser et former les équipes internes sur les bonnes pratiques et exigences de sécurité. * Gestion des risques : * Identifier, évaluer et traiter les risques liés à la cybersécurité à travers des analyses régulières. * Maintenir et améliorer le processus de gestion des risques en lien avec les parties prenantes. * Effectuer des audits internes et externes pour évaluer la conformité des systèmes. * Conformité réglementaire : * Garantir le respect des réglementations et standards en vigueur (RGPD, ISO 27001, NIS2, etc.). * Assurer la documentation et le reporting des mesures de conformité pour les audits et inspections. * Collaborer avec les équipes juridiques et IT pour adapter les politiques aux nouvelles exigences légales. * Gestion des incidents : * Contribuer à la définition et à la mise à jour des plans de réponse aux incidents de sécurité. * Réaliser des exercices de simulation pour tester la robustesse des dispositifs en place.
Technologies de l'Information et de la Communication* Traiter tous les tickets SAP relatifs à la finance et au contrôle de gestion. * Proposer les améliorations nécessaires, assurer une gestion efficace des problèmes et des évolutions liées à la maintenance du domaine FI-CO. * Accompagner le métier au quotidien dans l'utilisation de l'outil SAP. * Rédiger et maintenir les modes opératoires et former les utilisateurs. * Définir la stratégie de recette de non-régression. * Apporter son savoir et son expertise sur les aspects métiers, applicatifs et interfaces. * Conseiller les différentes sollicitations métiers et experts applicatifs de la DSI (chefs de projets, product owner, autres consultants SAP...). * Participer aux projets de déploiement SAP en réalisant le paramétrage nécessaire (ex. facturation électronique, implémentation de nouvelles filiales). * Définir la stratégie de recette de non-régression. * Migrer les transactions historiques du SAPGUI vers les nouvelles tuiles FIORI. * Concevoir fonctionnellement des tuiles spécifiques pour les processus non traités en standard. * Assurer l'accompagnement au changement. * Être force de proposition sur l'optimisation des process métiers en lien avec l'outil SAP. Périmètre d'intervention Vous serez rattaché à l'équipe SAP et travaillerez en collaboration avec un autre consultant FI-CO senior, 3 développeurs expérimentés ABAP/FIORI et 2 consultants SD-MM (senior et junior). Vous interviendrez également en coordination avec les autres équipes de la DSI et les équipes métiers (finance, achats, contrôle de gestion, ADV).
Technologies de l'Information et de la CommunicationL'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage. Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse, La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte.
Technologies de l'Information et de la CommunicationVous serez responsable de la mise en œuvre et de la gestion des stratégies et des cadres de cybersécurité, en assurant la conformité réglementaire et la gestion proactive des risques., Gouvernance de la sécurité : - Élaborer, maintenir et mettre en œuvre des politiques, normes et procédures de sécurité. - Sensibiliser et former les équipes internes sur les bonnes pratiques et exigences de sécurité. Gestion des risques : - Identifier, évaluer et traiter les risques liés à la cybersécurité à travers des analyses régulières. - Maintenir et améliorer le processus de gestion des risques en lien avec les parties prenantes. - Effectuer des audits internes et externes pour évaluer la conformité des systèmes. Conformité réglementaire : - Garantir le respect des réglementations et standards en vigueur (RGPD, ISO 27001, NIS2, etc.). - Assurer la documentation et le reporting des mesures de conformité pour les audits et inspections. - Collaborer avec les équipes juridiques et IT pour adapter les politiques aux nouvelles exigences légales. Gestion des incidents : - Contribuer à la définition et à la mise à jour des plans de réponse aux incidents de sécurité. - Réaliser des exercices de simulation pour tester la robustesse des dispositifs en place., Nous recherchons un Ingénieur Cybersécurité spécialisé en Gouvernance, Risques et Conformité (GRC). Vous serez responsable de la mise en œuvre et de la gestion des stratégies et des cadres de cybersécurité, en assurant la conformité réglementaire et la gestion proactive des risques. Missions principales : Gouvernance de la sécurité : - Élaborer, maintenir et mettre en œuvre des politiques, normes et procédures de sécurité. - Sensibiliser et former les équipes internes sur les bonnes pratiques et exigences de sécurité. Gestion des risques : - Identifier, évaluer et traiter les risques liés à la cybersécurité à travers des analyses régulières. - Maintenir et améliorer le processus de gestion des risques en lien avec les parties prenantes. - Effectuer des audits internes et externes pour évaluer la conformité des systèmes. Conformité réglementaire : - Garantir le respect des réglementations et standards en vigueur (RGPD, ISO 27001, NIS2, etc.). - Assurer la documentation et le reporting des mesures de conformité pour les audits et inspections. - Collaborer avec les équipes juridiques et IT pour adapter les politiques aux nouvelles exigences légales. Gestion des incidents : - Contribuer à la définition et à la mise à jour des plans de réponse aux incidents de sécurité. - Réaliser des exercices de simulation pour tester la robustesse des dispositifs en place.
Technologies de l'Information et de la Communicationévénementielles, innovations) Coordination & logistique événementielle: - Planifier les prestations, affecter les ressources (équipes, matériel) et gérer les plannings. - Préparer les événements : packaging, matériel, étiquetage, briefs et rétroplannings. - Suivre les stocks et gérer les commandes fournisseurs. - Être présent-e sur site pour superviser les prestations et garantir la qualité de service. - Anticiper et résoudre les imprévus logistiques et humains en temps réel. Supervision & management terrain : - Encadrer les équipes internes et freelances (livreurs, serveurs, régisseurs). - Animer les briefings quotidiens ou hebdomadaires. - Garantir le respect des standards de qualité, sécurité, posture et image Maison Salomon. - Pilotage & amélioration continue - Suivre les KPI (qualité de service, satisfaction client, visibilité des événements). - Identifier les points d'amélioration et optimiser les process logistiques et communicationnels. - Participer aux réflexions stratégiques pour renforcer l'expérience client et l'efficacité opérationnelle. Profil recherché : Compétences clés - Formation Bac+5 en communication, événementiel ou gestion de projet. - Expérience indispensable en communication événementielle, idéalement dans un environnement premium. - Une expérience confirmée chez un traiteur ou dans l'événementiel haut de gamme est un vrai plus. - Maîtrise des outils de planification et de communication digitale (Google Suite, Notion, Canva, CRM). - Compétences rédactionnelles solides et sens du storytelling. - Permis B indispensable (conduite du véhicule intégrée au poste). Savoir-être : - Créativité, leadership naturel et sens de l'organisation. - Rigueur, réactivité et autonomie. - Excellentes qualités relationnelles avec clients, prestataires et équipes terrain. - Goût du challenge et envie de contribuer à une entreprise à impact positif. Ce que nous offrons : - Un rôle clé dans une entreprise en pleine croissance. - Un poste transversal combinant communication et opérations événementielles. - Des responsabilités variées et des perspectives d'évolution rapides. - Une équipe soudée, agile et bienveillante. Salaire : 2 700 € brut / mois Processus de recrutement 1) Entretien téléphonique ou en visioconférence 1) Entretien physique, * Développer et piloter un réseau d'organisations partenairesCette compétence est indispensable * Organiser et superviser l'approvisionnement, la logistique d'un événementCette compétence est indispensable * Concevoir une animation événementielle * Recueillir et analyser les besoins client
Communication, Marketing et Relations PubliquesFormateur - Les arrêts maladies et le bulletin de paie - Freelance - Gençay, À l'issue de la formation, le participant sera capable de mettre en oeuvre les compétences suivantes : Savoir établir une paye complexe avec l'incidence des arrêts de travail pour maladie et accident du travail Traiter des paies complexes Comprendre les régimes de retraite, prévoyance et frais de santé : mécanisme des cotisations et prestations Programme de la formation : AVANT LA FORMATION Entretien téléphonique avec le formateur afin de personnaliser votre formation. Le programme de formation ci-dessous pourra donc être modifié gratuitement en fonction de vos attentes. JOUR 1 Matin Gérer les absences Le décompte des absences Les congés maladie et accidents du travail Le complément maladie, accident du travail et maternité modes de calcul légaux et conventionnels position des tribunaux, de l'administration du travail et de l'ACOSS Calculer et rémunérer les congés payés absences ouvrant droit ou non à congés payés report des congés en cas de maladie ou d'accident calcul de l'indemnité de congés : maintien du salaire et méthode du 1/10 Effets de la maladie sur les congés payés, la durée du travail, les droits à la retraite Après-midi Gérer les arrêts maladie Déclarer les absences médicales dans le cadre des DSN événementielles. Calculer les IJSS. Verser le complément Employeur. Comprendre le principe de subrogation. Maîtriser le calcul de la garantie sur le net indemnisation légale ou conventionnelle comment valoriser la retenue sur salaire ? quel salaire maintenir ? quid des primes et indemnités à prendre en compte ? JOUR 2 Matin Gérer des cas complexes de paie Calculer la paie d'un salarié en temps partiel thérapeutique et gérer les cas d'inaptitude Calculer la CSG/CRDS au plus juste mise en oeuvre de la subrogation calcul de la garantie du net : quel montant d'IJSS ? suppression ou réduction d'IJSS intervention d'un régime de prévoyance complémentaire Le délai de carence et la durée d'indemnisation Le remplissage de l'attestation de salaire L'indemnisation légale et/ou conventionnelle Le paiement par la prévoyance sur la paye Réintégration sociale et fiscale des cotisations de prévoyance et de retraite supplémentaire Cas particuliers : cure, temps partiel thérapeutique Surveiller le taux accident du travail Après-midi IJSS : modes de calcul IJSS maladie, maternité, paternité, accident du travail : ce qu'il faut savoir salaire de référence et calcul du gain journalier de base : quel plafond ? arrêts de travail : modalités de contrôle régime social et fiscal des IJSS impact du prélèvement à la source sur les IJSS calcul de la garantie du net : quel montant d'IJSS ? suppression ou réduction d'IJSS FIN DE LA FORMATION Débrief de la formation avec le formateur pour consolider vos connaissances.
Accueil, Administration et Service ClientèleLa mission en freelance qualifie la collaboration qui lie une entreprise cliente (ou un particulier) à un indépendant offrant une prestation de service dans un domaine donné. Ce terme désigne plus précisément toutes les étapes qui suivent la signature du contrat de prestation et s’achève une fois le travail livré par le freelance et le paiement effectué par l’entreprise ayant fait appel à ses services.
Les conditions d’exécution de ladite mission sont à définir entre les deux parties, à travers le contrat de prestation cité plus haut. Ce dernier doit notamment inclure une description claire de la prestation, son prix, ainsi que la date de livraison.
Chez InFreelancing l’expertise de chaque freelance trouve sa place au sein d’entreprises (petites ou grandes) évoluant dans des secteurs variés.
De nombreuses missions freelance t’attendent, chacune correspondant à des compétences spécifiques, avec un accès simplifié et une recherche fluide. Grâce à une large variété de missions mises à jour quotidiennement, tu trouveras forcément ton bonheur.
Encore mieux : la prospection chronophage ne sera plus un souci pour toi. Toutes les missions freelance, en France comme ailleurs, disponibles sur le web, sont désormais regroupées en un seul et même endroit : InFreelancing.