IA : Théorie et Algorithmes - Réseaux de neurones

Blended learning

À qui s'adresse la formation?

  • Developers
  • Developers IT
  • Développeurs expérimentés
  • Entrepreneur IA
  • IA Developpers
  • IA Engineer
  • Informaticiens
  • Ingénieurs
  • Ingénieurs Systèmes
  • IT consultants
  • IT development
  • Programmeurs
  • Responsables informatiques
  • Software engineer

Durée

2,00 jour(s)

Langues(s) de prestation

EN FR

Prochaine session

11.05.2026
Lieu
En distanciel

Prix

1990,00€

Objectifs

  • Comprendre les concepts de Deep Learning (réseaux de neurones profonds)
  • Maîtriser les bases théoriques et pratiques d'architecture et de convergence de réseaux de neurones
  • Connaître les différentes architectures fondamentales existantes et maîtriser leurs implémentations fondamentales
  • Maîtriser les méthodologies de mise en place de réseaux de neurones, les points forts et les limites de ces outils
  • Connaître les briques de base du Deep Learning: réseaux de neurones simples, convolutifs et récursifs
  • Appréhender les modèles plus avancés: auto-encodeurs, gans, apprentissage par renforcement

Contenu

1. Réseaux de neurones: Concepts fondamentaux d'un réseau de neurones
  • Le réseau de neurones: architecture, fonctions d'activation et de pondération des activations précédentes
  • L'apprentissage d'un réseau de neurones
  • Modélisation d'un réseau de neurones: modélisation des données d'entrée et de sortie selon le type de problème.
  • Structure du réseau
  • Fonction de combinaison
  • Fonction d’activation
  • Propagation de l’information
2. MLP
  • Définition
  • Structure
  • Algorithme de propagation
  • Apprentissage
  • TP: Mise en situation: Analyse d’un algorithme MLP
3. Convolutional Net
  • Blocs de construction
    • Couche de convolution (CONV)
    • Paramétrage
    • Couche de pooling (POOL)
    • Couches de correction (ReLU, sigmoïde, etc.)
    • Couche entièrement connectée (FC)
    • Couche de perte (LOSS)
    • Exemples de modèles de CNN
  • Choix des hyperparamètres
    • Nombre de filtres
    • Forme du filtre
    • Forme du Max Pooling
  • Méthodes de régularisation
    • Empirique
    • Dropout
    • Données artificielles
    • Explicit
    • Taille du réseau
    • Dégradation du poids
    • La limitation du vecteur de poids
4. Recurrent Net: LSTM
  • Architecture
  • Training
  • TP: Application
5. Bayesian Net
  • Définition formelle
    • Loi de probabilité jointe
    • Propriété de Markov globale
  • Inférence
    • Définition et complexité
    • Inférence exacte
    • Inférence approchée
  • Apprentissage automatique
    • Apprentissage des paramètres
    • Apprentissage de la structure
  • Variantes
  • Réseau bayésien dynamique
  • Classifieur bayésien naïf
  • Diagramme causal
  • AutoEncoder
    • Définition
    • Architecture
    • Formalisation générale
    • Word2vect model
    • Glove model
    • TP: Utilisation du Word2vect model Algorithm pour le calcul de similarité sémantique
  • Reinforcement Learning
    • Définition
    • Formulation d’un problème de Reinforcement learning
    • Quelques exemples de cas d’usage
    • Les caractéristiques de l’apprentissage par renforcement
    • Les différents types d’apprentissage par renforcement
    • Les défis de l’apprentissage par renforcement
    • Avantages et inconvénients
  • GAN (Generative Adversarial Networks)
    • Architecture
    • Propriétés mathématiques
    • Training GAN
    • Évaluation GAN
    • TP: Utilisation d’un GAN

Certificat, diplôme

Une attestation de participation sera transmise aux participants

Prochaine session

Date
Ville
Language & prix
11.05.2026
En distanciel
FR 1990,00€
24.09.2026
En distanciel
FR 1990,00€
07.12.2026
En distanciel
FR 1990,00€

Ces formations pourraient vous intéresser

EN
Journée
Informatique et systèmes d'information - Système de gestion de base de données - Logiciel SGBD NoSQL - Logiciel MongoDB