Deep Learning: comprendre et construire des réseaux de neurones

Auteur: Mohamed CHINY Durée necessaire pour le cours de Deep Learning: comprendre et construire des réseaux de neurones Niveau recommandé pour le cours de Deep Learning: comprendre et construire des réseaux de neurones Supports vidéo non disponibles pour ce cours Exercices de renforcement non disponibles pour ce cours Quiz non disponibles pour ce cours
Cours de Deep Learning: comprendre et construire des réseaux de neurones Dernière mise à jour: 19/03/2026
Le Deep Learning (ou apprentissage profond) est une branche de l’intelligence artificielle qui s’appuie sur des réseaux de neurones profonds pour apprendre à partir de grandes quantités de données. Il permet de modéliser des relations complexes grâce à des couches successives qui extraient des représentations de plus en plus abstraites. Les architectures courantes incluent les réseaux convolutifs (CNN) pour les images et les réseaux récurrents (RNN, LSTM) pour les séquences. Le Deep Learning constitue un pilier des applications modernes de l’IA capable d’atteindre des performances à peine imaginables.
COMMENCER

Contenu du cours

Leçon 1
Deep Learning et réseaux de neurones: définition, utilité et histoire d'évolution
Leçon 2
Réseaux de neurones artificiels: la base du Deep Learning
Leçon 3
Feed Forward et Backpropagation: les pilliers de l'apprentissage des réseaux de neurones
Leçon 4
TensorFlow, PyTorch et Keras: les piliers actuels du Deep Learning
Leçon 5
Sequential, Input et Dense: construire un réseau de neurones pour la régression avec Keras
Leçon 6
Construire un réseau de neurones pour des données non linéaires avec Keras
Leçon 7
Training Loss et Validation Loss: détecter l'overfitting dans les réseaux de neurones
Leçon 8
Réseaux de neurones appliqués à la classification binaire
Leçon 9
Application des réseaux de neurones à la classification multiclasse sur Iris
Leçon 10
Prévenir l'overfitting grace à la régularisation: principes et techniques fondamentales
Leçon 11
Régularisation L1, L2, Dropout, Batch Normalization et Early Stopping - Mise en pratique
Leçon 12
Convolutional Neural Networks (CNN): réseaux de neurones dédiés aux images
Leçon 13
CNN et MNIST: reconnaissance et classification des chiffres manuscrits
Leçon 14
CNN et CIFAR-10: reconnaissance et classification d'images en couleur
Leçon 15
Recurrent Neural Networks (RNN): Réseaux de neurones dédiés aux séquences
Leçon 16
Apprendre à construire un RNN simple pour la prédiction séquentielle
Leçon 17
Limites des RNN face au vanishing gradient et aux dépendances longues: apports des LSTM et GRU
Leçon 18
LSTM: Long Short-Term Memory - une mémoire longue durée pour les séquences
Leçon 19
Apprentissage séquentiel avec LSTM pour comprendre la dynamique des températures
Leçon 20
GRU: Gated Recurrent Unit - vers une simplification des architectures récurrentes
Leçon 21
Analyse des séries temporelles de consommation électrique domestique par réseaux GRU