✔️ Diagnostiquer les besoins « Data » des directions métiers de l’organisation
✔️ Concevoir une architecture hybride de collecte et de restitution des données
✔️ Concevoir des modèles de données, en identifiant les entités et leurs relations, en définissant les attributs et les types de données, et en appliquant les règles de normalisation
✔️ Concevoir un Data Lake en intégrant des solutions de stockage évolutives, responsables, éco-responsables et sécurisées
✔️ Elaborer des plans de migration de données
✔️ Superviser les dispositifs de sécurité des données conformément aux orientations définies par le RSSI
✔️ Élaborer une stratégie de sauvegarde et de récupération des données
✔️ Concevoir des modèles prédictifs et des algorithmes de machine learning en mobilisant des techniques avancées de traitement des données et des outils d'analyse statistique
✔️ Structurer un dispositif de veille technique, réglementaire et technologique centré sur les innovations liées à la gestion et à l’exploitation des données
✔️ Implémenter un pipeline de traitement de données
✔️ Optimiser les performances des pipelines de données
✔️ Développer des tests de surveillance des pipelines de données
✔️ Configurer des pipelines MLOps en intégrant des outils d'automatisation et en paramétrant les environnements de déploiement
✔️ Concevoir une architecture de migration inter-systèmes et multi-environnements
✔️ Elaborer des architectures de traitement des données en temps réel, en intégrant des technologies de streaming* et en configurant des pipelines de données
✔️ Développer des pipelines de traitement de données
✔️ Organiser les sources de données, en utilisant des outils adaptés de data visualisation, en sélectionnant les indicateurs clés (KPI) et en structurant les informations de manière concise
✔️ Documenter les sources de données et les processus d'intégration
✔️ Concevoir une architecture de stockage intégrant des systèmes de gestion de bases de données optimisés au regard des besoins du projet
✔️ Déployer une architecture de stockage distribuée, en configurant et en administrant des clusters de nœuds et en optimisant les ressources matérielles et logicielles
✔️ Optimiser la configuration de la plateforme de stockage de données
✔️ Mettre en place un système d'auto scaling des ressources en configurant des outils de surveillance et des algorithmes d'optimisation
✔️ Assurer la maintenance et la mise à jour des infrastructures de stockage et de traitement des données
✔️ Analyser les coûts et les performances de stockage des données
✔️ Développer des scripts d'automatisation des tâches répétitives en utilisant des langages de programmation adaptés et des outils de gestion des flux de travail
✔️ Effectuer des audits des systèmes de gestion des données en recourant à des outils d’analyse et des indicateurs de performance
✔️ Évaluer l’empreinte environnementale des processus de traitement des données à l’aide d’outils de mesure et d’indicateurs
✔️ Planifier le projet de développement de plateforme Big Data
✔️ Gérer un projet, en utilisant les méthodes agiles et outils adaptés
✔️ Réaliser le reporting du projet auprès du commanditaire, en élaborant des tableaux de bord de suivi des performances
✔️ Piloter les prestataires extérieurs gérant les ressources informatiques du SI existant
✔️ Conduire l’équipe projet, en favorisant l’inclusion des personnes en situation de handicap et en adaptant les conditions de travail face aux contraintes de temps et aux incertitudes
✔️ Mettre en œuvre un processus de communication inclusif régulier au sein de l’équipe
✔️ Proposer des solutions innovantes, en organisant des séances de brainstorming
✔️ Établir un processus de partage d’information, en identifiant les besoins des parties prenantes, en sélectionnant l’outil adapté et en établissant des protocoles et procédures de partage
✔️ Analyser la stratégie de gouvernance des données de l’organisation et son fonctionnement interne
✔️ Analyser les sources de données et les traitements associés, en mobilisant des outils de profilage, de nettoyage, de data science et de visualisation
✔️ Cartographier les flux, les sources, les zones critiques et les données sensibles, à l’aide d’outils de data visualisation et d’analyse des risques liés à la gestion et à l’exploitation des données
✔️ Élaborer un cadre de gouvernance durable des infrastructures de données, en définissant les règles de gestion des données de référence et en mettant en place des processus de validation et de contrôle de qualité
✔️ Élaborer des indicateurs de performance Green IT
✔️ Élaborer une stratégie Big Data alignée sur les objectifs de l’organisation, en collaboration avec la DSI et en définissant les orientations en matière de gouvernance des données, d’intégration des analyses dans les processus décisionnels et de pilotage de la performance
✔️ Organiser la mise à disposition des données auprès des directions métiers
✔️ Animer des sessions de formation sur les outils d'analyse des données, de Data Literacy, et les pratiques Green IT associées, en élaborant des supports pédagogiques accessibles et en utilisant des méthodes interactives