EXPERT INGIE SCIENCES DES DONNEES

CFD : 16X32641
RNCP : RNCP39775
Certifinfo : 117869


Informations générales

Diplôme : TH DE NIV 1 ORGANISMES GESTIONNAIRES DIVERS
Niveau : 7 (Master, titre ingénieur...)
Période : 01/04/2023
Dates : 04/04/2023 – 26/03/2027


Métiers associés (Codes ROME)


Objectif

Collecter et préparer les données avec Python en vue de l'analyse Explorer et analyser les données pour comprendre les tendances et les performances d'une entreprise ou d'un produit. Élaborer des modèles prédictifs pour identifier les nouvelles tendances et opportunités Effectuer des classifications grâce à des algorithmes de deep learning Mettre en oeuvre une démarche MLOps complète, de gestion du cycle de vie des modèles de bout en bout pour automatiser les processus d'entreprise et améliorer leur efficacité Communiquer les résultats à des spécialistes ou des néophytes grâce des visualisations Participer à l'organisation et au pilotage d'un projet de data science / IA


Contenu

Validation des projets professionnalisants qui jalonnent la formation : -Démarrez votre formation de AI Engineer -Participez à un concours sur la Smart City -Préparez des données pour un organisme de santé publique -Construisez un modèle de scoring -Segmentez des clients d'un site e-commerce -Classifiez automatiquement des biens de consommation -Réalisez une analyse de sentiments grâce au Deep Learning -Traitez les images pour le système embarqué d'une voiture autonome -Développez une preuve de concept -Réalisez une application de recommandation de contenu -Réalisez un traitement dans un environnement Big Data sur le Cloud -Réalisez le cadrage d'un projet IA


Conditions spécifiques

Pour accéder directement à la certification, les candidats doivent obligatoirement justifier d'un des prérequis suivants :
être titulaire d'une certification professionnelle de niveau 6 (bac+3 ou équivalent) ;
ou
être titulaire d'une certification professionnelle de niveau 5 (ou équivalent) avec une eAucunpérience professionnelle d'au moins 2 ans en informatique, sciences, économie, finance ou analyse de données ;
et
effectuer un test de positionnement pour valider ses connaissances sur les thématiques suivantes :
bases en mathématiques :
algèbre Aucun des fonctions, un système d'équations simple, une matrice simple ;
probabilités et statistiques Aucun variables aléatoires, la loi de probabilités (par eAucunemple la loi normale), le théorème central limite
bases d'algorithmie Aucun variables et types de variables, conditions, boucles et fonctions ;
des notions de ce qu'est l'intelligence artificielle (par eAucunemple, vous êtes capable de définir des termes clés comme “modélisation”, “machine learning”, “deep learning”).
Ce test vous sera transmis lors du processus d'admission.


Détails RNCP

date_fin_validite_enregistrement
2028-10-30T23:00:00.000Z
active_inactive
ACTIVE
etat_fiche_rncp
Publiée
ancienne_fiche
RNCP37431
demande
0
certificateurs
certificateur: OPENCLASSROOMS
siret_certificateur: 49386136300098

certificateur: OPENCLASSROOMS
siret_certificateur: 49386136300080
nsf_code
326
romes
rome: M1403
libelle: Études et prospectives socio-économiques

rome: M1802
libelle: Expertise et support en systèmes d'information

rome: M1805
libelle: Études et développement informatique

rome: M1806
libelle: Conseil et maîtrise d'ouvrage en systèmes d'information

rome: M1803
libelle: Direction des systèmes d'information
blocs_competences
intitule: Manager et piloter un projet Data et le développement d’une solution
liste_competences: Collecter les besoins métiers et analyser le contexte de l'organisation afin d’identifier et de formaliser les objectifs / les attendus en matière de data et les éventuelles contraintes associées (organisationnelles, techniques, budgétaires, réglementaires) Définir les modalités de réalisation et de suivi du projet data et le planifier afin de s’assurer de sa bonne mise en œuvre et de sa conformité avec les objectifs visés : planifier les étapes de réalisation ; élaborer le calendrier prévisionnel et définir les modalités de suivi du projet avec des indicateurs appropriés Rechercher, collecter, compiler et analyser des informations clés Identifier de nouvelles opportunités, solutions ou pratiques, afin de bénéficier de connaissances techniques, juridiques ou réglementaires actualisées dans le champ de la data et de les diffuser en vue de leur partage Conduire les actions et les échanges (ex : réunion, état d’avancement) entre les différentes parties prenantes (y compris avec les PSH) du projet data afin de s’assurer de sa bonne mise en œuvre et de créer une synergie optimale Suivre, contrôler et analyser le projet data en termes de délais, de coûts, de livrables et de performance, afin de s'assurer que le projet est conforme aux critères et indicateurs définis, de l'ajuster si nécessaire et d'en rendre compte aux différentes parties prenantes, y compris le public en situation de handicap Conseiller et apporter un appui stratégique et méthodologique en matière de data tout au long du projet, en accompagnant les parties prenantes pour faciliter la prise de décision, notamment en intégrant les problématiques liées au handicap Auditer la solution data en analysant la donnée, tant sur son historique que sur sa qualité, afin d’évaluer sa disponibilité et son adéquation par rapport aux besoins identifiés : évaluer l’historique de la donnée ; vérifier la qualité et la disponibilité des données et comparer leur adéquation avec les besoins identifiés Identifier et évaluer les risques de la solution data en matière d’accessibilité, de sécurité et de développement durable afin de répondre aux normes / règlementation en vigueur Identifier une solution technique (interne ou de marché) compatible aux contraintes éventuelles (métiers / techniques dont SI) afin de répondre aux besoins identifiés : lister et évaluer la faisabilité technique, financière et opérationnelle des cas d’usage ; formaliser les cas d’usage ; partager et valider les cas d’usage auprès des parties prenantes et tenir en compte les personnes en situation de handicap, dans la conception des supports de présentation Effectuer - en cas de besoin - un prototype de la solution afin d’en confirmer la faisabilité technique Présenter la solution data et expliquer ses choix auprès des parties prenantes (interlocuteurs technique / métier) afin d’en démontrer la pertinence et l’adéquation aux besoins
modalites_evaluation: Mises en situation professionnelle réelles ou reconstituées - Cas pratiques - Soutenance orale

intitule: Concevoir et déployer une infrastructure complète de gestion des données (collecte, traitement et stockage)
liste_competences: Configurer l’environnement de travail (dont ressources : machines physiques ou virtuelles, nécessaires à la gestion des données (collecte - traitement - stockage)) Définir les processus de collecte, de traitement et de stockage des données en cohérence avec les besoins et l’environnement technique afin de proposer un système de gestion des données adapté (aux besoins), fonctionnel, performant et sécurisé Mettre en place un système d'authentification conforme aux procédures internes (en lien avec le RSSI ou la DSI) et à la réglementation en termes de protection des données et de sécurité en vigueur afin de permettre un accès sécurisé aux données Structurer l’architecture des données et concevoir des BDD relationnelles ou non (SQL / noSQL), respectant la politique de sécurité définie par le RSSI, afin de permettre l’exploitation des données par le SGBD : définir / structurer / organiser les données et leurs relations en cohérence avec leurs caractéristiques ; créer des bases de données relationnelles ou non (SQL / noSQL) afin de contenir les données et organiser les données par fichier, distribué ou en réseau, afin de disposer d’un accès direct et unifié au SBD depuis n'importe quel appareil / réseau Installer et paramétrer un système de gestion de base de données et un outil d’extraction (ex : Airbyte, DBT), en collaboration avec la DSI, afin de permettre des opérations sur les fichiers composant les BDD, de diriger l’accès aux données et de fluidifier l’intégration des données dans le système d’échange Établir et exécuter un processus de test afin de s’assurer de l’opérationnalité du SGBD, de la disponibilité et de la qualité des données ainsi que la performance des requêtes Modéliser une infrastructure compatible avec le SI existant, en collaboration avec la DSI, afin de concevoir un support à la gestion des données (stockage, exploitation et partage des données) : définir, structurer et représenter visuellement une infrastructure de gestion des données à l’aide d’un outil de modélisation ; identifier et sélectionner les composants disponibles en interne ou sur le marché (matériels, logiciels, réseaux etc) et nécessaires à la création d’une infrastructure de gestion des données à partir de critères d’évaluation définis (performance, sécurité, compatibilité, et les coûts), et évaluer la compatibilité des composants avec l’environnement SI de l'organisation, en collaboration avec la DSI Installer et tester l’infrastructure de gestion des données afin d’en garantir l’opérationnalité, la disponibilité et l’interopérabilité avec le SI
modalites_evaluation: Mises en situation professionnelle réelles ou reconstituées - Cas pratiques - Soutenance orale.

intitule: Créer et /ou adapter un modèle d’apprentissage
liste_competences: Configurer l’environnement de travail nécessaire à l’exploitation des données (c’est-à-dire pour réaliser des analyses ou des opérations) dans des délais adaptés (temps de calcul) Mettre en place un processus de nettoyage des données automatisée ou non et le lancer afin d’améliorer la qualité des données : appliquer des analyses statistiques descriptives et / ou naviguer visuellement au sein des données afin de détecter des anomalies ; supprimer / corriger les anomalies manuellement et à l’aide d'outils / logiciels de nettoyage des données adaptés ; vérifier / contrôler la qualité des données - en continu - à l’aide d'outils de contrôle qualité adaptés afin de garantir la précision, la complétude et la cohérence, et automatiser le processus de nettoyage à l'aide d'un langage de programmation adapté (ex : python) Identifier un modèle d’apprentissage adapté aux contraintes (notamment techniques) et aux besoins métiers Le cas échéant, créer un modèle d’apprentissage : choisir un algorithme adapté aux objectifs visés (analyse prédictive …), et programmer un algorithme à l’aide des hyperparamètres afin de contrôler le processus d'entraînement Préparer et transformer des données (standardisation, harmonisation, encodage, etc) afin de les adapter au modèle d’apprentissage Entraîner un modèle d’apprentissage (exemples : supervisé, non supervisé, par renforcement) afin de prédire la valeur d’un KPI, classifier la donnée tabulaire, du texte ou des images dans des catégories pré-définies : préparer les jeux de données afin de mettre les variables sous une échelle commune et faciliter l’analyse et l’interprétation des résultats de l’entraînement du modèle ; créer/ choisir et configurer un modèle d’apprentissage à l’aide d’une technique d'entraînement adaptée (ex : régression, classification), et définir la procédure d'entraînement et entraîner le modèle avec les jeux de données adaptés Créer les processus de test (procédures / outils) et les lancer en vue de confirmer / valider la mise en production du modèle d’apprentissage Évaluer le modèle d'apprentissage selon les métriques définies afin d’en déterminer la performance, la capacité prédictive et de raisonnement Identifier et configurer une API compatible et l’intégrer afin de permettre l’accès aux résultats par les utilisateurs finaux Le cas échéant créer une API : définir les flux de données (entrées / sorties de l’API, et les formater si nécessaire) afin de sélectionner une API adaptée aux échanges entre le modèle et l’utilisateur ; installer / configurer l’API, et tester les différentes intéractions entre le modèle/ l’API / l'utilisateur Exposer les résultats aux directions / services métiers (via une API) en vue de leur exploitation : identifier et choisir un système d’exposition des résultats (ex : PowerBI, Looker, Streamlit) ; construire des tableaux de bord interactifs (ex : Tableau, Shiny, etc) et / ou des rapports automatisés (ex : Jupyter Notebooks) afin de visualiser les données / les modèles et les insights générés pour l’utilisateur final, et tenir compte des personnes en situation de handicap dans la construction des tableaux de bord
modalites_evaluation: Mises en situation professionnelle réelles ou reconstituées - Cas pratiques - Soutenance orale.

intitule: Option Data engineering : Développer, déployer et optimiser les pipelines de données
liste_competences: Mettre en place un pipeline de données automatisé adapté aux besoins, en extrayant, transformant et chargeant des données (structurées/non structurées) dans des entrepôts de données : extraire des données structurées / non structurées issues de toutes sources confondues afin de les traiter ou bien de les déplacer dans un emplacement adapté ; transformer (standardisation, déduplication, tri, vérification, etc) des données afin de les adapter à leur utilisation finale, et charger des données afin de les stocker dans un emplacement adapté (magasin de données type data lake, entrepôt de données etc) Mettre en place un système d'ordonnancement des flux de données afin de programmer leur déclenchement Créer les processus de test et les lancer afin de valider la mise en production des pipelines de données Concevoir et mettre en place un système de contrôle / de suivi automatisé des flux de données afin de valider en continu l’intégration des données : surveiller les flux à l’aide des outils de gestion de la qualité des données adaptés (ex : greatexceptation, soda) afin de détecter les anomalies, et suivre les flux à l’aide d’un outil d’observation adapté (ex : openlineage) afin de les tracer Ajuster les requêtes et les paramétrages des pipelines en prenant appui sur différentes approches / méthodes (ex : méthodes de parallélisation) afin d’améliorer les performances du système (ex : réduction des temps d’exécution)
modalites_evaluation: Mises en situation professionnelle réelles ou reconstituées - Cas pratiques - Soutenance orale

intitule: Option Data science : Optimiser des modèles d’apprentissage
liste_competences: Concevoir et mettre en place un système de suivi du cycle de vie du modèle d’apprentissage (et de ses fonctionnalités) afin de détecter des anomalies (dérives de données ou bien dérives conceptuelles), de surveiller la qualité des features ou bien de déterminer le moment et la méthode de ré-entraînement du modèle Évaluer les performances de l’infrastructure sous-jacente au modèle d'apprentissage selon des critères définis afin de réduire les coûts et / ou les temps de calcul Ajuster les paramètres des procédures d'entraînement / de test / validation, à l’aide de techniques adaptées (hyperparamètres, choix des caractéristiques, ajustement d’architecture de neurone, etc.) afin d’optimiser la qualité et les performances des données Automatiser le déploiement afin d’intégrer et de livrer en continu les évolutions apportées au modèle d’apprentissage : déposer le code modifié dans un outil de contrôle de version afin de partager / de fusionner le code ; créer des tests CI /CD afin de contrôler / valider les changements de code, et envoyer le code en production et l’exécuter de manière automatique
modalites_evaluation: Mises en situation professionnelle réelles ou reconstituées - Cas pratiques - Soutenance orale.
partenaires
Nom_Partenaire: LYCEE GENERAL ET TECHNOLOGIQUE CAMILLE JULLIAN
Siret_Partenaire: 19330023300031
Habilitation_Partenaire: HABILITATION_FORMER

Nom_Partenaire: LYCEE TECHNIQUE REGIONAL LES EUCALYPTUS
Siret_Partenaire: 19060075900020
Habilitation_Partenaire: HABILITATION_FORMER

Nom_Partenaire: OPENCLASSROOMS
Siret_Partenaire: 49386136300098
Habilitation_Partenaire: HABILITATION_ORGA_FORM
rncp_outdated
Non

Établissement gestionnaire

Aucun établissement gestionnaire rattaché dans la base.


Localisation de la formation


Données Open data issues du réseau des Carif-Oref Carif-Oref
Select your color
Light/dark Layout