EXPERT INGIE SCIENCES DES DONNEES

CFD : 16X32641
RNCP : RNCP39775
Certifinfo : 117869


Informations générales

Diplôme : TH DE NIV 1 ORGANISMES GESTIONNAIRES DIVERS
Niveau : 7 (Master, titre ingénieur...)
Période : 01/01/2026
Dates : 01/01/2026 – 27/03/2028


Métiers associés (Codes ROME)


Objectif

Se former pas à pas au métier de Expert en ingénierie et science des données. À la fin de cette formation, vous serez capable de : Manager et piloter un projet Data et le développement d'une solution. Concevoir et déployer une infrastructure complète de gestion des données (collecte, traitement et stockage). Créer et/ou adapter un modèle d'apprentissage. Option Data Science : Optimiser des modèles d'apprentissage. Quelles sont vos opportunités de carrières et perspectives d'emploi à la suite de cette formation diplômante ? En suivant notre formation en ligne, vous pourrez exercer de nombreux métiers dont celui de : Ingénieur d'étude IA, Ingénieur NLP, Data Analytics Engineer, Data Scientist, Data Analyst, Data Manager, IA Engineer, Machine Learning Engineer... Liste non exhaustive


Contenu

La certification vous permet d'accéder au métier de Expert en ingénierie et science des données. Ce parcours de formation vous permet de vous spécialiser au métier de AI Engineer : En tant que AI Engineer, vous serez en mesure d'apporter des solutions concrètes aux défis métiers tels que la création de modèles de prédiction, la classification, la gestion de données structurées et non structurées, et la gestion d'environnement cloud pour le déploiement des modèles. 15 projets professionnalisants vous permettront d'acquérir les compétences citées ci-dessus par la pratique. Chaque livrable de projet enrichira votre portfolio que vous pourrez valoriser auprès de recruteurs. Vous réaliserez les projets suivants : P1 - Découvrez votre formation de AI Engineer P2 - Requêtez des services IA P3 - Anticipez les besoins en consommation de bâtiments P4 - Classifiez automatiquement des informations P5 - Déployez un modèle de Machine Learning P6 - Initiez-vous au MLOps P7 - Concevez et déployez un système RAG P8 - Confirmation des compétences en MLOps P9 - Évaluez les performances d'un LLM P10 - Labélisez et utilisez des approches Semi-Supervisées en Traitement d'Images P11 - Entraînez votre agent RL P12 - Extrayez des données multimodales de sites web P13 - Mettez en place des Agents IA P14 - Finetunez votre propre LLM P15 - Réalisez le portfolio Ingénieur IA Pour mener à bien votre formation, vous disposerez de nombreuses aides et ressources : Des rendez-vous hebdomadaires individuels avec votre mentor (en visioconférence) pour vous soutenir jusqu'au diplôme. Des centaines de cours vidéos à suivre à tout moment sur votre ordinateur ou depuis votre mobile. Un accès à une communauté d'étudiants pour échanger sur votre formation, partager vos bons plans ou vous motiver !


Conditions spécifiques

Pour accéder à la formation, les candidats doivent obligatoirement justifier des prérequis suivants :
Titulaire d'une certification professionnelle de niveau 6 (bac+3 ou équivalent) en mathématiques, économie, informatique Aucun systèmes d'information et numérique, langages informatiques ;
ou
Titulaire d'une certification professionnelle de niveau 5 (ou équivalent) avec une eAucunpérience professionnelle d'au moins 2 ans en gestion et
ou en eAucunploitation des données.
Tout autre profil fera l'objet d'une procédure dérogatoire.
Matériel: Les candidats doivent avoir l'accès à un ordinateur (PC ou Mac), muni d'un microphone, une webcam et une bonne conneAucunion internet (3.2 Mbps en envoi et 1.8 Mbps en réception de données).


Détails RNCP

date_fin_validite_enregistrement
2028-10-30T23:00:00.000Z
active_inactive
ACTIVE
etat_fiche_rncp
Publiée
ancienne_fiche
RNCP37431
demande
0
certificateurs
certificateur: OPENCLASSROOMS
siret_certificateur: 49386136300098

certificateur: OPENCLASSROOMS
siret_certificateur: 49386136300080
nsf_code
326
romes
rome: M1403
libelle: Études et prospectives socio-économiques

rome: M1802
libelle: Expertise et support en systèmes d'information

rome: M1805
libelle: Études et développement informatique

rome: M1806
libelle: Conseil et maîtrise d'ouvrage en systèmes d'information

rome: M1803
libelle: Direction des systèmes d'information
blocs_competences
intitule: Manager et piloter un projet Data et le développement d’une solution
liste_competences: Collecter les besoins métiers et analyser le contexte de l'organisation afin d’identifier et de formaliser les objectifs / les attendus en matière de data et les éventuelles contraintes associées (organisationnelles, techniques, budgétaires, réglementaires) Définir les modalités de réalisation et de suivi du projet data et le planifier afin de s’assurer de sa bonne mise en œuvre et de sa conformité avec les objectifs visés : planifier les étapes de réalisation ; élaborer le calendrier prévisionnel et définir les modalités de suivi du projet avec des indicateurs appropriés Rechercher, collecter, compiler et analyser des informations clés Identifier de nouvelles opportunités, solutions ou pratiques, afin de bénéficier de connaissances techniques, juridiques ou réglementaires actualisées dans le champ de la data et de les diffuser en vue de leur partage Conduire les actions et les échanges (ex : réunion, état d’avancement) entre les différentes parties prenantes (y compris avec les PSH) du projet data afin de s’assurer de sa bonne mise en œuvre et de créer une synergie optimale Suivre, contrôler et analyser le projet data en termes de délais, de coûts, de livrables et de performance, afin de s'assurer que le projet est conforme aux critères et indicateurs définis, de l'ajuster si nécessaire et d'en rendre compte aux différentes parties prenantes, y compris le public en situation de handicap Conseiller et apporter un appui stratégique et méthodologique en matière de data tout au long du projet, en accompagnant les parties prenantes pour faciliter la prise de décision, notamment en intégrant les problématiques liées au handicap Auditer la solution data en analysant la donnée, tant sur son historique que sur sa qualité, afin d’évaluer sa disponibilité et son adéquation par rapport aux besoins identifiés : évaluer l’historique de la donnée ; vérifier la qualité et la disponibilité des données et comparer leur adéquation avec les besoins identifiés Identifier et évaluer les risques de la solution data en matière d’accessibilité, de sécurité et de développement durable afin de répondre aux normes / règlementation en vigueur Identifier une solution technique (interne ou de marché) compatible aux contraintes éventuelles (métiers / techniques dont SI) afin de répondre aux besoins identifiés : lister et évaluer la faisabilité technique, financière et opérationnelle des cas d’usage ; formaliser les cas d’usage ; partager et valider les cas d’usage auprès des parties prenantes et tenir en compte les personnes en situation de handicap, dans la conception des supports de présentation Effectuer - en cas de besoin - un prototype de la solution afin d’en confirmer la faisabilité technique Présenter la solution data et expliquer ses choix auprès des parties prenantes (interlocuteurs technique / métier) afin d’en démontrer la pertinence et l’adéquation aux besoins
modalites_evaluation: Mises en situation professionnelle réelles ou reconstituées - Cas pratiques - Soutenance orale

intitule: Concevoir et déployer une infrastructure complète de gestion des données (collecte, traitement et stockage)
liste_competences: Configurer l’environnement de travail (dont ressources : machines physiques ou virtuelles, nécessaires à la gestion des données (collecte - traitement - stockage)) Définir les processus de collecte, de traitement et de stockage des données en cohérence avec les besoins et l’environnement technique afin de proposer un système de gestion des données adapté (aux besoins), fonctionnel, performant et sécurisé Mettre en place un système d'authentification conforme aux procédures internes (en lien avec le RSSI ou la DSI) et à la réglementation en termes de protection des données et de sécurité en vigueur afin de permettre un accès sécurisé aux données Structurer l’architecture des données et concevoir des BDD relationnelles ou non (SQL / noSQL), respectant la politique de sécurité définie par le RSSI, afin de permettre l’exploitation des données par le SGBD : définir / structurer / organiser les données et leurs relations en cohérence avec leurs caractéristiques ; créer des bases de données relationnelles ou non (SQL / noSQL) afin de contenir les données et organiser les données par fichier, distribué ou en réseau, afin de disposer d’un accès direct et unifié au SBD depuis n'importe quel appareil / réseau Installer et paramétrer un système de gestion de base de données et un outil d’extraction (ex : Airbyte, DBT), en collaboration avec la DSI, afin de permettre des opérations sur les fichiers composant les BDD, de diriger l’accès aux données et de fluidifier l’intégration des données dans le système d’échange Établir et exécuter un processus de test afin de s’assurer de l’opérationnalité du SGBD, de la disponibilité et de la qualité des données ainsi que la performance des requêtes Modéliser une infrastructure compatible avec le SI existant, en collaboration avec la DSI, afin de concevoir un support à la gestion des données (stockage, exploitation et partage des données) : définir, structurer et représenter visuellement une infrastructure de gestion des données à l’aide d’un outil de modélisation ; identifier et sélectionner les composants disponibles en interne ou sur le marché (matériels, logiciels, réseaux etc) et nécessaires à la création d’une infrastructure de gestion des données à partir de critères d’évaluation définis (performance, sécurité, compatibilité, et les coûts), et évaluer la compatibilité des composants avec l’environnement SI de l'organisation, en collaboration avec la DSI Installer et tester l’infrastructure de gestion des données afin d’en garantir l’opérationnalité, la disponibilité et l’interopérabilité avec le SI
modalites_evaluation: Mises en situation professionnelle réelles ou reconstituées - Cas pratiques - Soutenance orale.

intitule: Créer et /ou adapter un modèle d’apprentissage
liste_competences: Configurer l’environnement de travail nécessaire à l’exploitation des données (c’est-à-dire pour réaliser des analyses ou des opérations) dans des délais adaptés (temps de calcul) Mettre en place un processus de nettoyage des données automatisée ou non et le lancer afin d’améliorer la qualité des données : appliquer des analyses statistiques descriptives et / ou naviguer visuellement au sein des données afin de détecter des anomalies ; supprimer / corriger les anomalies manuellement et à l’aide d'outils / logiciels de nettoyage des données adaptés ; vérifier / contrôler la qualité des données - en continu - à l’aide d'outils de contrôle qualité adaptés afin de garantir la précision, la complétude et la cohérence, et automatiser le processus de nettoyage à l'aide d'un langage de programmation adapté (ex : python) Identifier un modèle d’apprentissage adapté aux contraintes (notamment techniques) et aux besoins métiers Le cas échéant, créer un modèle d’apprentissage : choisir un algorithme adapté aux objectifs visés (analyse prédictive …), et programmer un algorithme à l’aide des hyperparamètres afin de contrôler le processus d'entraînement Préparer et transformer des données (standardisation, harmonisation, encodage, etc) afin de les adapter au modèle d’apprentissage Entraîner un modèle d’apprentissage (exemples : supervisé, non supervisé, par renforcement) afin de prédire la valeur d’un KPI, classifier la donnée tabulaire, du texte ou des images dans des catégories pré-définies : préparer les jeux de données afin de mettre les variables sous une échelle commune et faciliter l’analyse et l’interprétation des résultats de l’entraînement du modèle ; créer/ choisir et configurer un modèle d’apprentissage à l’aide d’une technique d'entraînement adaptée (ex : régression, classification), et définir la procédure d'entraînement et entraîner le modèle avec les jeux de données adaptés Créer les processus de test (procédures / outils) et les lancer en vue de confirmer / valider la mise en production du modèle d’apprentissage Évaluer le modèle d'apprentissage selon les métriques définies afin d’en déterminer la performance, la capacité prédictive et de raisonnement Identifier et configurer une API compatible et l’intégrer afin de permettre l’accès aux résultats par les utilisateurs finaux Le cas échéant créer une API : définir les flux de données (entrées / sorties de l’API, et les formater si nécessaire) afin de sélectionner une API adaptée aux échanges entre le modèle et l’utilisateur ; installer / configurer l’API, et tester les différentes intéractions entre le modèle/ l’API / l'utilisateur Exposer les résultats aux directions / services métiers (via une API) en vue de leur exploitation : identifier et choisir un système d’exposition des résultats (ex : PowerBI, Looker, Streamlit) ; construire des tableaux de bord interactifs (ex : Tableau, Shiny, etc) et / ou des rapports automatisés (ex : Jupyter Notebooks) afin de visualiser les données / les modèles et les insights générés pour l’utilisateur final, et tenir compte des personnes en situation de handicap dans la construction des tableaux de bord
modalites_evaluation: Mises en situation professionnelle réelles ou reconstituées - Cas pratiques - Soutenance orale.

intitule: Option Data engineering : Développer, déployer et optimiser les pipelines de données
liste_competences: Mettre en place un pipeline de données automatisé adapté aux besoins, en extrayant, transformant et chargeant des données (structurées/non structurées) dans des entrepôts de données : extraire des données structurées / non structurées issues de toutes sources confondues afin de les traiter ou bien de les déplacer dans un emplacement adapté ; transformer (standardisation, déduplication, tri, vérification, etc) des données afin de les adapter à leur utilisation finale, et charger des données afin de les stocker dans un emplacement adapté (magasin de données type data lake, entrepôt de données etc) Mettre en place un système d'ordonnancement des flux de données afin de programmer leur déclenchement Créer les processus de test et les lancer afin de valider la mise en production des pipelines de données Concevoir et mettre en place un système de contrôle / de suivi automatisé des flux de données afin de valider en continu l’intégration des données : surveiller les flux à l’aide des outils de gestion de la qualité des données adaptés (ex : greatexceptation, soda) afin de détecter les anomalies, et suivre les flux à l’aide d’un outil d’observation adapté (ex : openlineage) afin de les tracer Ajuster les requêtes et les paramétrages des pipelines en prenant appui sur différentes approches / méthodes (ex : méthodes de parallélisation) afin d’améliorer les performances du système (ex : réduction des temps d’exécution)
modalites_evaluation: Mises en situation professionnelle réelles ou reconstituées - Cas pratiques - Soutenance orale

intitule: Option Data science : Optimiser des modèles d’apprentissage
liste_competences: Concevoir et mettre en place un système de suivi du cycle de vie du modèle d’apprentissage (et de ses fonctionnalités) afin de détecter des anomalies (dérives de données ou bien dérives conceptuelles), de surveiller la qualité des features ou bien de déterminer le moment et la méthode de ré-entraînement du modèle Évaluer les performances de l’infrastructure sous-jacente au modèle d'apprentissage selon des critères définis afin de réduire les coûts et / ou les temps de calcul Ajuster les paramètres des procédures d'entraînement / de test / validation, à l’aide de techniques adaptées (hyperparamètres, choix des caractéristiques, ajustement d’architecture de neurone, etc.) afin d’optimiser la qualité et les performances des données Automatiser le déploiement afin d’intégrer et de livrer en continu les évolutions apportées au modèle d’apprentissage : déposer le code modifié dans un outil de contrôle de version afin de partager / de fusionner le code ; créer des tests CI /CD afin de contrôler / valider les changements de code, et envoyer le code en production et l’exécuter de manière automatique
modalites_evaluation: Mises en situation professionnelle réelles ou reconstituées - Cas pratiques - Soutenance orale.
partenaires
Nom_Partenaire: LYCEE GENERAL ET TECHNOLOGIQUE CAMILLE JULLIAN
Siret_Partenaire: 19330023300031
Habilitation_Partenaire: HABILITATION_FORMER

Nom_Partenaire: LYCEE TECHNIQUE REGIONAL LES EUCALYPTUS
Siret_Partenaire: 19060075900020
Habilitation_Partenaire: HABILITATION_FORMER

Nom_Partenaire: OPENCLASSROOMS
Siret_Partenaire: 49386136300098
Habilitation_Partenaire: HABILITATION_ORGA_FORM
rncp_outdated
Non

Établissement gestionnaire

Aucun établissement gestionnaire rattaché dans la base.


Localisation de la formation


Données Open data issues du réseau des Carif-Oref Carif-Oref
Select your color
Light/dark Layout