DATA ENGINEER

CFD : 16X32684
RNCP : RNCP37422
Certifinfo : 114781


Informations générales

Diplôme : TH DE NIV 1 ORGANISMES GESTIONNAIRES DIVERS
Niveau : 7 (Master, titre ingénieur...)
Période : 01/10/2025
Dates : 13/10/2025 – 18/12/2026

Fiche Onisep : https://www.onisep.fr/http/redirection/formation/slug/FOR.10901


Métiers associés (Codes ROME)


Objectif

Les technologies Big Data sont en plein essor et les emplois, qui en découlent, croissent également. Les entreprises ont besoin d'une structure informatique solide pour stocker leurs données. Dans ce cadre le Data Engineer ou l'Ingénieur Data occupe un rôle substantiel, et ce quelque soit le secteur d'activité ou la taille de l'organisation. De fait, le Data Engineer conçoit et développe les infrastructures et outils nécessaires au traitement des données massives et au déploiement de solutions d'Intelligence Artificielle. Le Data Engineer a pour mission de mettre en place la collecte et la mise à disposition des données au sein de l'entreprise. Il est également en charge d'industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bord, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent.


Contenu

Analyser les besoins en matière d'infrastructures de données adaptés au projet d'intelligence artificielle : - Introduction à l'intelligence artificielle et au traitement des données - Collecte et analyse des exigences du projet en matière d'infrastructure de données - Identification et évaluation des solutions de stockage de données (Hadoop, Spark, Cassandra, MongoDB, etc.) - Évaluation des technologies de traitement de données en temps réel et des techniques d'analyse de données (Apache Storm, Apache Flink, Apache Kafka, etc.) - Développement de plans de projet pour la mise en place de l'infrastructure de données Piloter le projet de développement de l'infrastructure de données massives : Élaboration de plans de projet pour la mise en place de l'infrastructure de données - Évaluation et sélection de technologies de traitement et de stockage de données (Hadoop, Spark, Cassandra, MongoDB, etc.) - Conception des architectures Big Data valorisant les données - Pilotage de la maintenance de l'architecture de données massives - Utilisation d'outils de gestion de projet et de collaboration Concevoir les architectures Big Data valorisant les données : - Techniques avancées de traitement de données en temps réel (Apache Storm, Apache Flink, Apache Kafka, etc.) - Introduction à Python et à l'écosystème Big Data - Traitement de données en utilisant des bibliothèques Python telles que Pandas et NumPy - Mise en oeuvre de la transformation de données à grande échelle à l'aide de PySpark - Création d'API Web pour l'interaction avec les données Piloter la maintenance de l'architecture de données massives : - Sécurité et confidentialité des données - Gestion de la qualité des données - Formation continue sur les technologies émergentes - Utilisation de bibliothèques d'apprentissage automatique telles que scikit-learn pour l'analyse et la prédiction de données - Stage pratique en entreprise pour appliquer les compétences acquises


Conditions spécifiques

Avoir un titre de niveau 6(EU) ou de niveau équivalent
Ou avoir une eAucunpérience professionnelle de 2 ans dans le secteur

Les admissions se font après étude du dossier de candidature, tests d'admission et entretien. La réception des dossiers se fait toute l'année.


Détails RNCP

date_fin_validite_enregistrement
2026-03-26T23:00:00.000Z
active_inactive
ACTIVE
etat_fiche_rncp
Publiée
demande
0
certificateurs
certificateur: INSTITUT EUROPEEN F 2I
siret_certificateur: 41904518200054

certificateur: INSTITUT EUROPEEN F 2I
siret_certificateur: 41904518200013
nsf_code
326
romes
rome: M1806
libelle: Conseil et maîtrise d'ouvrage en systèmes d'information

rome: M1802
libelle: Expertise et support en systèmes d'information

rome: M1805
libelle: Études et développement informatique

rome: M1810
libelle: Production et exploitation de systèmes d'information

rome: M1801
libelle: Administration de systèmes d'information
blocs_competences
intitule: Analyser les besoins en matière d'infrastructures de données adaptés au projet d'intelligence artificielle
liste_competences: Mettre en place un processus de veilles technologique et réglementaire en matière d’intelligence artificielle en s’appuyant sur des sources dédiées afin d’anticiper l’évolution des normes et règlements applicables à la certificabilité des systèmes intégrant des intelligences artificielles ou des traitements de données massives. Exercer une veille technologique et réglementaire à l’aide de sources dédiées, en collectant, classifiant et en analysant l’information afin de mettre en place de nouvelles technologies issues de la recherche en intelligence artificielle et en Science des données les mieux adaptées au projet de développement des infrastructures de données. Analyser les cas d'usage en data et en intelligence artificielle déjà implémentés, en s’appuyant sur la réalisation d’une cartographie des exigences normatives et règlementaires de l’entreprise, pour les évaluer, les enrichir et en créer de nouveaux en capitalisant sur l’expérience acquise. Définir le projet de développement d’infrastructures de données massives à réaliser en interaction avec les parties prenantes, en procédant par itérations successives, en vue d’établir une liste exhaustive de ses attentes et prenant en compte les situations de handicap. Identifier les outils de data science applicables selon le contexte et les objectifs attendus afin de présenter des préconisation et d’intégrer des outils inclusifs IA/Data science adaptés à la problématique métier ainsi qu’à la politique RSE de la structure. Evaluer toutes les compétences nécessaires à la réalisation du projet d’intelligence artificielle, s’appuyant sur la cartographie des profils nécessaires au projet et prenant en compte les situations de handicap, en vue de constituer une équipe inclusive de développement spécialisée en intelligence artificielle. Intégrer les profils recrutés en favorisant l’inclusion des personnes en situation de handicap, en collaborant avec le référent handicap de l’entreprise et en identifiant les besoins en formation, afin de permettre leur pleine intégration au sein de l’équipe projet.
modalites_evaluation: EPREUVE N°1 (C1 à C7) : Etude de cas (production et soutenance) « Analyse des besoins en matière d’infrastructures de données adaptés au projet d’intelligence artificielle » EPREUVE N°2 (C6 à C7) : Mise en situation professionnelle (production) « Evaluation des compétences nécessaires adaptées au projet de développement d’intelligence artificielle »

intitule: Piloter le projet de développement de l'infrastructure de données massives
liste_competences: Superviser la rédaction du cahier des charges fonctionnels et techniques, en justifiant les choix opérés, et spécifier les livrables afin de déterminer les budgets et les ressources alloués pour la réalisation du projet. Vérifier l’adéquation du cahier des charges avec les besoins de l’entreprise, en s’appuyant sur des échanges avec celle-ci et en prenant en compte les spécificités techniques et fonctionnelles (sécurisation des données, handicap), en vue de prévenir tout risque d’écarts en cours de réalisation. Définir la structure générale d’une base de données en ayant recours à la méthodologie de conception et en respectant les cahiers des charges afin de mettre en place une solution d’intelligence artificielle. Définir un format des données stockées adapté à la structure de la base de données, en utilisant les méthodologies de conception et d’exploitation des données adaptés, en vue de faciliter la saisie et la recherche d’informations. Vérifier la cohérence de la base de données définie et des formats en s’appuyant sur la méthodologie de conception des bases de données dans le but de les rendre exploitables par une solution d’intelligence artificielle. Définir et mettre en place des indicateurs de mesure de la performance à partir opérations des tests et des processus de maintenance curative/préventive dans le but de monitorer le retour sur investissement des projets applicatifs. Gérer les données historiques en utilisant des indicateurs de performance afin de garantir la disponibilité, la qualité et l’amélioration continue de la fiabilité des données. Etablir un plan d’investissement pluriannuel et mobiliser les financements en se basant sur les plans d’évolution du système d’information afin de réaliser un plan global d’intelligence artificielle et de valorisation des données. Mobiliser les techniques et outils de conduite de projets inclusifs en mobilisant la culture DevOps et mettant en place des indicateurs de suivi afin de produire les livrables du projet dans le temps imparti, au niveau de qualité attendu. Maîtriser les méthodes de management de projet en utilisant les outils et les techniques de résolution de problèmes s’inscrivant dans la culture DevOps afin de surmonter les difficultés techniques et humaines rencontrées lors d’un projet. Motiver et fédérer les équipes projet d’intelligence artificielle en les sensibilisant au processus d’amélioration continue et en construisant les objectifs individuels ou collectifs à travers le dialogue et le consensus prenant en compte les situations de handicap et le développement durable.
modalites_evaluation: EPREUVE N°3 (C8 à C18) : Mise en situation professionnelle (production et soutenance) « Pilotage du projet de développement de l’infrastructure de données massives »

intitule: Concevoir les architectures big data valorisant les données
liste_competences: Concevoir une architecture d’entrepôt de données massives en mobilisant une expertise des solutions de manipulation des données (ETL/ELT) pour optimiser le stockage et la protection de données structurées ou non structurées provenant de sources multivariées. Communiquer la stratégie de mise en œuvre de l’architecture d’entrepôt de données massives et ses résultats aux parties prenantes en respectant le cahier des charges ainsi que la réglementation en matière de sécurité informatique afin de dégager un avantage stratégique et commercial pour l’entreprise. Collecter des ensembles volumineux de données structurées et non structurées issues de sources internes et externes de l’entreprise à l’aide de solutions adaptées de manipulation de données afin d’en dégager des résultats visualisables sur des interfaces de visualisation et/ou modélisation. Développer les composants de l’intelligence artificielle en langage de programmation approprié en respectant les normes du domaine et les principes déontologiques établis afin de respecter la démarche d’assurance qualité du code produit. Développer des algorithmes tels que les forêts aléatoires, les arbres de décision, l’algorithme K-Nearest Neighbors, la régression linéaire, l’algorithme de Naïve Bayes, la machine à vecteurs de support (SVM), régression logistique et boosting de gradient, reposant sur des modèles statistiques en vue de mettre en œuvre les processus d’apprentissage automatique (« Machine learning »). Mettre en œuvre les technologies reposant sur les réseaux de neurones et prenant en compte les principes éthiques selon les normes en vigueur en vue d’intégrer les processus d’apprentissage profond (« Deep learning »). Evaluer différentes solutions de formatage et de stockage en se basant sur les solutions de chiffrements et de pare-feux ainsi qu’en prenant en compte les contraintes éthiques et légales en vue de favoriser leur traitement, leur centralisation et leur sécurisation. Créer ou identifier les différents algorithmes d’optimisation du traitement et de la visualisation des données pour évaluer leur capacité à résoudre des problèmes spécifiques. Mettre en œuvre un algorithme répondant au besoin d’optimisation du traitement des données répondant aux besoins des parties prenantes afin de résoudre un problème de décision séquentiel simple. Présenter les résultats d’analyses de données massives sous la forme d’infographies en mettant en la configuration des requêtes de manière à faciliter la prise de décision managériale ou opérationnelle. Etablir le schéma général des accès à l’application développée prenant en compte le référentiel d’accessibilité (RGAA), en vue d’assurer leur cohérence avec l’organisation de l’entreprise utilisatrice et les différentes parties prenantes.
modalites_evaluation: EPREUVE N°4 (C19 à C29) : Mise en situation professionnelle (production) « Conception d’une architecture d’entrepôt de données massives »

intitule: Piloter la maintenance de l'architecture de données massives
liste_competences: Valider régulièrement la production de la solution d’intelligence artificielle en s’appuyant sur le retour d’expérience des utilisateurs en interne et en externe afin d’adapter les fonctionnalités et les caractéristiques techniques du projet d’intelligence artificielle. Assurer la pérennité de la solution informatique en surveillant l’évolution des données de travail afin d’éviter la dégradation des performances des modèles d’intelligence artificielle mis en production et assurer un niveau de sécurisation des données optimal défini par la DSI. Rédiger les protocoles de maintenance et les procédures techniques/technologiques d'exploitation à destination des entités utilisatrices, en configurant les éléments nécessaires garantissant la sécurisation des données et des systèmes afin de mener à bien tout projet de développement et anticiper les risques du système de gouvernance des données. Identifier le cycle de vie des cas d’usage de l’intelligence artificielle en monitorant le modèle en production afin d’assurer la maintenance de l’infrastructure et d’en anticiper les évolutions. Concevoir un ensemble de tests de surveillance des pipelines pipelines d’intégration continue et de déploiement continu (CI/CD) en se basant sur un traitement des données par flux et par lot afin d’anticiper les montées en charge et optimiser la fiabilité globale de l’infrastructure de données massives. Reproduire une chaîne de modélisation à partir du versionnage des différents types d’application (modèles prédictifs) afin de gérer le déploiement sur un serveur ou un cloud. Mesurer et détecter la dérive des données en se basant sur des indicateurs-clés afin d’appliquer des correctifs dans le cadre de la résolution de bugs techniques et/ou fonctionnels.
modalites_evaluation: EPREUVE N°5 (C30 à C36) : Mise en situation professionnelle (production et soutenance) « Pilotage de la maintenance de l’infrastructure de données massives »
partenaires
Nom_Partenaire: INSTITUT EUROPEEN F 2I
Siret_Partenaire: 41904518200054
Habilitation_Partenaire: HABILITATION_ORGA_FORM
rncp_outdated
Non

Établissement gestionnaire

INSTITUT EUROPEEN F 2I
INSTITUT EUROPEEN F 2I INSTITUT EUROPEEN FORMATION-21 TEAM FORM 10 COURS LOUIS LUMIERE 94300 VINCENNES FRANCE
94300 VINCENNES


Localisation de la formation


Fiche mise à jour le 03/03/2026 - Données Open data issues du réseau des Carif-Oref Carif-Oref
Select your color
Light/dark Layout