EPSI demain c’était vous l’expert.e en ingénierie de données?
Certification
RNCP Niv.7
Durée
2 an(s) après un Bac+3
École
EPSI - l'école d'ingénierie informatique
Campus
Angers Arras Bordeaux Grenoble Lille Lyon Montpellier - Odysseum Paris Rennes Saint-Étienne Toulouse
Prochaines rentrées
Septembre 2024
Etudier en France
Nos formations
EPSI demain c’était vous l’expert.e en ingénierie de données?
École
EPSI - l'école d'ingénierie informatique
Campus
Angers
Arras
Bordeaux
Grenoble
Lille
Lyon
Montpellier
Paris
Rennes
Saint-Étienne
Toulouse
Dans la cadre de votre Mastère SIN, le parcours en Ingénierie de Données vous amène à un niveau BAC+5, vous préparant à devenir un spécialiste dans la gestion et l'analyse des données.
Concevez, développez et déployez des solutions avancées d'ingénierie de données pour gérer et analyser de vastes ensembles de données. Pilotez des projets de données pour fournir des informations précieuses et exploitables aux entreprises.
EPSI demain c’était vous l’expert.e en ingénierie de données?
Certification
RNCP Niv.7
Durée
2 an(s) après un Bac+3
École
EPSI - l'école d'ingénierie informatique
Campus
Angers Arras Bordeaux Grenoble Lille Lyon Montpellier - Odysseum Paris Rennes Saint-Étienne Toulouse
Prochaines rentrées
Septembre 2024
Objectifs
Pour répondre un besoin croissant en compétences dans le domaine de la « data centric » et satisfaire les besoins métiers, le candidat doit être capable de :
Collecter les besoins Data des directions métiers de l’entreprise afin de bâtir ou faire évoluer la/les plateformes de données dans le respect des besoins et attentes des directions métiers et de vérifier l’alignement stratégique.
+
Concevoir les cahiers des charges technique et fonctionnel d’un projet de développement d’une plateforme Big Data à l’aide des besoins utilisateurs collectés afin de cadrer le développement.
+
Conduire une équipe projet en diffusant les fondamentaux de l’agilité :
+
adaptation, flexibilité et amélioration continue au sein de l’équipe afin d’être en mesure d’absorber les changements de priorité qui peuvent intervenir dans un contexte de forte contrainte de temps et d’incertitudes
Concevoir une architecture de collecte et de restitution de données robuste, évolutive, sécurisée
+
et utilisant l’intelligence artificielle (machine learning) afin d’améliorer en continu sa capacité à prédire les besoins Data des experts métiers utilisateurs.
Concevoir une architecture de stockage de données (data warehouse, data lake…) permettant de répondre aux besoins Data des experts métiers et respectant la politique de sécurité des données définie par le/la RSS.
+
Mettre en place un système d’ingestion de données structurées et non structurées afin de permettre la manipulation et l’accès aux données ainsi que l’authentification des utilisateurs.
+
Développer un pipeline de données et/ou un pipeline ETL prenant en compte l’environnement technologique déployé (infrastructure, services, applications…) dans le respect du cahier des charges de la solution proposée.
+
Automatiser des opérations de déploiement, de tests et de maintenance curative et préventive afin de s’assurer de la fiabilité de la solution tout au long de son cycle de vie.
+
Votre parcours
Construction d’une plateforme Big Data permettant la collecte, l’assemblage, le traitement et le stockage des données générées par les systèmes d’une entreprise (209 heures)
+
- Concevoir une architecture de collecte et de restitution de données robuste, évolutive, sécurisée et utilisant l’intelligence artificielle (machine learning) afin d’améliorer en continu sa capacité à prédire les besoins Data des experts métiers utilisateurs.
- Concevoir une architecture de stockage de données (data warehouse, data lake…) permettant de répondre aux besoins Data des experts métiers et respectant la politique de sécurité des données définie par le/la RSSI.
- Mettre en place un système d'ingestion de données structurées et non structurées afin de permettre la manipulation et l’accès aux données ainsi que l’authentification des utilisateurs.
- Développer un pipeline de données et/ou un pipeline ETL prenant en compte l'environnement technologique déployé (infrastructure, services, applications...) dans le respect du cahier des charges de la solution proposée.
- Créer un lac de données (data lake) afin de collecter des données brutes dans le respect de l’architecture de collecte des données définie dans la solution proposée.
- Déployer un processus de collecte, stockage et traitement de données selon une approche ETL (Extract-Transform-Load) ou une approche ELT afin de permettre l’extraction, le stockage et le traitement des données de manière optimale et adaptée aux besoins utilisateurs métiers.
Administration et supervision d’une plateforme Big Data (186 heures)
+
- Déployer une plateforme de stockage de données, dans un environnement distribué à travers des clusters de noeuds (serveurs machine) afin d’y stocker les données de façon distribuée et de les traiter selon le principe du calcul parallèle.
- Automatiser des opérations de déploiement, de tests et de maintenance curative et préventive afin de s'assurer de la fiabilité de la solution tout au long de son cycle de vie.
- Concevoir un ensemble de tests de surveillance des pipelines afin d’anticiper et d’organiser l'évaluation et le dépannage des représentations de données.
- Dimensionner en temps réel les besoins en consommation de ressources en mettant en place l'autoscaling des ressources afin d'anticiper les montées en charge et assurer la fiabilité de la solution.
- Contrôler la bonne application de la politique des données en analysant, traitant et reportant les coûts et les performances de stockage selon les différents critères (licences, supports, évolutivité, performance...) afin de s'assurer de la pérennité de la solution.
Préparation et Mise à disposition des données d’une plateforme Big Data aux équipes utilisatrices (data scientist, équipe BI, décideurs et experts métiers) (110 heures)
+
Data et IA
Innovation & Développement professionnel (83 heures)
+
Analyse et définition de la stratégie Big Data alignée avec la stratégie "business" de l'entreprise en collaboration avec le DSI et les experts métiers (154 heures)
+
- Collecter les besoins Data des directions métiers de l’entreprise afin de bâtir ou faire évoluer la/les plateformes de données dans le respect des besoins et attentes des directions métiers et de vérifier l’alignement stratégique.
- Analyser la stratégie de l’entreprise en étudiant son environnement et son fonctionnement afin de pouvoir établir un diagnostic de son système de gouvernance de données.
- Identifier les informations sensibles, les risques, les zones critiques et les chemins d’attaque possibles du système de gouvernance de données existant à l’aide de la cartographie afin de contribuer à définir une politique de sécurité S.I. avec le/la RSSI.
- Élaborer la stratégie Big Data en collaboration avec la DSI en analysant les objectifs et la stratégie générale afin de proposer un projet de création ou des projets d’évolution, d’adaptation ou de migration du système de gouvernance de données en accord avec le développement de l’entreprise.
- Définir des indicateurs clés de performance opérationnelle selon une approche Lean afin d’élaborer des propositions d’amélioration continue du système de gouvernance de données en termes de coûts informatiques et de satisfaction utilisateurs.
- Définir des indicateurs clés Green IT et liés à l’Informatique responsable afin d’évaluer les impacts RSE des ressources informatiques du système de gouvernance de données et d’élaborer des propositions d’amélioration continue du système.
Pilotage d’un projet de développement d’une plateforme Big Data (architecture et infrastructure) dans un environnement agile (119 heures)
+
- Identifier l’ensemble des étapes de réalisation du système d’information pour organiser le projet en tâches et livrables en répartissant les activités en fonction des ressources humaines, techniques et financières à mobiliser.
- Piloter les prestataires extérieurs éventuels gérant les ressources informatiques d’un système d’information existant listées dans la cartographie établie afin de sécuriser la mise en œuvre technique.
- Établir des tableaux de bord de suivi de performance (qualitative et quantitative) de l’ensemble des ressources allouées à chaque étape-projet pour anticiper, visualiser et corriger les écarts en temps réel afin de limiter les contraintes de ressources et les retards.
- Conduire une équipe projet en diffusant les fondamentaux de l’agilité : adaptation, flexibilité et amélioration continue au sein de l’équipe afin d’être en mesure d’absorber les changements de priorité qui peuvent intervenir dans un contexte de forte contrainte de temps et d’incertitudes.
- Concevoir un processus de communication inclusif régulier au sein de l’équipe afin de synchroniser les activités quotidiennes et mettre en place un fil de discussion à l’aide d’outils numériques.
- Concevoir un processus de partage d’information afin de faciliter la collaboration entre les membres (tous profils confondus) en télétravail et/ou à distance en utilisant des outils numériques.
- Animer des réunions à distance afin de maintenir une dynamique de groupe et renforcer l’esprit d’équipe des membres en télétravail et/ou à distance.
Innovation & Développement professionnel (85 heures)
+
- Favoriser l'innovation en explorant des solutions créatives pour développer des projets d'intelligence artificielle.
- Renforcer le développement professionnel en acquérant continuellement de nouvelles compétences en gestion de projets IA.
Parcours Professionnel (5 heures)
+
Préparer et soutenir son dossier professionnel d’alternance.
D'autres formations disponibles à EPSI - l'école d'ingénierie informatique