Intelligence artificielle et Machine Learning: méthodes, algorithmes et applications

Auteur: Mohamed CHINY Durée necessaire pour le cours de Intelligence artificielle et Machine Learning: méthodes, algorithmes et applications Niveau recommandé pour le cours de Intelligence artificielle et Machine Learning: méthodes, algorithmes et applications Supports vidéo non disponibles pour ce cours Exercices de renforcement non disponibles pour ce cours Quiz non disponibles pour ce cours

Page 1: Intelligence artificielle: Définition, histoire et évolution

Toutes les pages

Intelligence artificielle et Machine Learning: méthodes, algorithmes et applications

Page 1
Intelligence artificielle: Définition, histoire et évolution
Page 2
Types d'apprentissage: supervisé, non supervisé et par renforcement
Page 3
Qu'est-ce qu'un dataset? Tout commence par les données
Page 4
Analyse exploratoire des données (EDA)
Page 5
Apprentissage supervisé - La régression
Page 6
Apprentissage supervisé - La classification
Page 7
Comment un modèle de Machine Learning apprend-il?
Page 8
Régression linéaire simple avec NumPy, scikit-learn et Matplotlib
Page 9
Régression linéaire multiple avec les DataFrames de Pandas
Page 10
Séparation du jeu de données en ensembles d'entraînement et de test
Page 11
Régression linéaire multiple avec découpage des données en train set et test set
Page 12
Classification supervisée avec la régression logistique
Page 13
Naive Bayes pour la classification: un modèle probabiliste génératif
Page 14
k-Nearest Neighbors (k-NN): Algorithme de classification non paramétrique basé sur les distances
Page 15
L'arbre de décision (decision tree): un outil puissant de classification
Page 16
Classification avec les Support Vector Machines (SVM)
Page 17
L'ensemble learning - Combiner plusieurs modèles pour une performance accrue
Page 18
Le Boosting: principe et mise en pratique avec XGBoost
Page 19
Random Forest, une application du Bagging en Ensemble Learning
Page 20
Le stacking: unir des modèles différents pour plus de performance
Page 21
La validation croisée: découper les données pour un meilleur apprentissage du modèle
Page 22
Recherche par grille avec validation croisée (GridSearchCV)
Page 23
Apprentissage non supervisé: Explorer et regrouper les données sans supervision
Page 24
Clustering avec k-means - Un pilier de l'apprentissage non supervisé
Page 25
Le clustering par densité avec l'algorithme DBSCAN

Intelligence artificielle - Histoire et définition

Histoire de l'intelligence artificielle

L’intelligence artificielle (IA) est née d'une idée ancienne qui consiste à créer des machines capables de penser comme des humains. Dès l’Antiquité, des mythes évoquaient des automates dotés d’intelligence, mais c’est au XXe siècle que l’idée prend forme scientifique. En 1950, le célèbre mathématiciens Alan Turing propose le célèbre test de Turing pour évaluer la capacité d’une machine à imiter l’intelligence humaine. Puis, en 1956, lors de la conférence de Dartmouth, le terme "intelligence artificielle" est officiellement introduit par John McCarthy en marquant la naissance de l’IA comme discipline académique.
Le prix Turing, considéré comme le "prix Nobel de l’informatique", a été créé en hommage à Alan Turing, pionnier de l’intelligence artificielle et de la science informatique.
Dans les années 1960 et 1970, les premiers programmes capables de résoudre des problèmes logiques ou jouer aux échecs ont vu le jour et on réveillé la flame liée à l'IA après des décennies de désengagement. Cependant, les limites technologiques freinent les avancées. En effet, les algorithmes liés à l'IA demandaient des ressources matérielles qui n'étaient pas disponibles à l'époque, sans parler de la quantité astronomique de données qu'il faut avoir à disposition pour entrainer les modèles IA. Un regain d’intérêt survient dans les années 1980 avec les systèmes experts capables de simuler le raisonnement humain dans des domaines spécifiques. Toutefois, leur rigidité conduit à un second hiver de l’IA notamment à la fin des années 80.

Depuis les années 2000, l’IA connaît une renaissance spectaculaire grâce au Big Data, à la puissance de calcul et aux progrès en Machine Learning. Les algorithmes d’apprentissage automatique permettent aux machines d’analyser des données massives, de reconnaître des images, de traduire des langues ou de prédire des comportements. L’émergence du Deep Learning dans les années 2010, avec des réseaux de neurones profonds, propulse l’IA dans des applications grand public comme les assistants vocaux, les voitures autonomes, la médecine prédictive… L’histoire de l’IA est ainsi celle d’une quête continue pour simuler l’intelligence humaine, avec des avancées majeures et des défis éthiques toujours plus complexes.

Des modèles comme AlphaGo (2016) ou GPT (depuis 2018) illustrent cette montée en puissance, capables de battre des champions ou de générer du texte avec une fluidité impressionnante. L’arrivée de ChatGPT en 2022 démocratise l’IA générative, ouvrant la voie à des usages créatifs, éducatifs et professionnels à grande échelle. Cette période marque un tournant. En effet, l’IA devient un outil quotidien tout en soulevant des enjeux éthiques majeurs liés à la transparence, aux biais et à la régulation.

Mais, qu'est ce que l'intelligence artificielle d'abord?

L’intelligence artificielle (IA) désigne l’ensemble des techniques permettant à une machine de simuler des comportements intelligents, c’est-à-dire de percevoir, raisonner, apprendre et agir en fonction d’un objectif.

Contrairement à la programmation classique (nommée aussi parfois programmation explicite ou déterministe) où chaque étape est codée explicitement par un humain, l’IA repose sur des modèles capables de généraliser à partir de données. C'est à dire que le modèle pourra résoudre un problème en apprenant à partir des exemples sur lesquels il a été entrainé. Pour faire simple, on ne dit plus à la machine quoi faire, mais comment apprendre à le faire.

Grâce à des algorithmes d’apprentissage automatique (Machine Learning), elle peut résoudre des problèmes complexes comme la reconnaissance d'une image, la traduction d'un texte ou la prédiction d'une tendance sans que chaque règle ne soit définie à l’avance. Cette approche transforme radicalement notre rapport à la programmation (on entraîne la machine plutôt que de la diriger ligne par ligne).

Rapport entre l'intelligence artificielle, le Machine Learning et le Deep Learning

Machine Learning (apprentissage automatique)

L’intelligence artificielle est un domaine vaste qui regroupe toutes les techniques visant à simuler des comportements intelligents chez les machines. Elle englobe des systèmes capables de percevoir leur environnement, de prendre des décisions, d’apprendre et d’interagir. L’IA peut être basée sur des règles explicites (comme c'est le cas des systèmes experts), mais elle s’appuie de plus en plus sur des approches statistiques comme le Machine Learning.

Le Machine Learning est une branche de l’intelligence artificielle qui consiste à concevoir des algorithmes capables d’apprendre à partir de données, sans être explicitement programmés pour chaque tâche. Plutôt que de coder manuellement des règles pour résoudre un problème, on fournit à la machine un ensemble d’exemples (on parle de données d'entrainement). A partir de ces exemples, elle apprend à généraliser et à faire des prédictions ou des décisions sur des nouvelles données (qu'elle n'a pas forcément vu lors de son entrainement).

L’apprentissage en Machine Learning peut être supervisé, non supervisé ou par renforcement. Je ne vais pas détailler ces concepts pour le moment car on va les voir en détail dans la leçon sur les types d'apprentissages.

Le Machine Learning repose sur des modèles statistiques et mathématiques et son efficacité dépend fortement de la qualité des données et du choix des algorithmes implémentés dans le modèle.

Deep Learning (apprentissage profond)

Le Deep Learning est une sous-branche du Machine Learning qui utilise des réseaux de neurones artificiels profonds (d'où l'expression Deep) pour traiter des données complexes. Le Deep Learning apprend à extraire les représentations pertinentes à partir des données brutes et complexes comme des images ou du texte. Cette approche a permis des avancées majeures dans la reconnaissance vocale, la vision par ordinateur et les modèles de langage comme GPT.

En résumé, l'intelligence artificielle est le cadre général, le Machine Learning est la méthode d’apprentissage et le Deep Learning est une technique avancée de Machine Learning.

Cette illustration montre la relation entre Intelligence Artificielle (IA), Machine Learning (ML) et Deep Learning (DL):
intelligence artificielle, machine learning, deep learning
Dans ce cours, nous nous concentrerons exclusivement sur le Machine Learning. Nous explorerons les principaux types d’apprentissage (supervisé, non supervisé, par renforcement), les algorithmes emblématiques (régression, arbres de décision, SVM, k-means…), ainsi que les étapes clés du pipeline ML (de la préparation des données à l’évaluation des modèles). Un cours dédié au Deep Learning est programmé à part.

Prérequis et outils

Ce qu'il est préférable de maitriser avant de commencer

Pour débuter efficacement en Machine Learning, il est vivement recommandé de maîtriser les points suivants:
  • Les bases en mathématiques: en l'occurrence l'algèbre linéaire (matrices, vecteurs, opérations matricielles...). statistiques et probabilité et calcul différentiel (dérivées et dérivées partielles).
  • Programmation: une bonne maîtrise du langage de programmation Python est vivement recommandé. Sinon, vous pouvez suivre mon cours sur ce langage.

Même si les bases mathématiques ne sont pas encore totalement maîtrisées, cela ne constitue pas un frein pour commencer à apprendre le Machine Learning, car les outils que l'on utilisera plus loin dans ce cours, permettent d'automatiser les calculs.

Outils qu'il faut avoir à disposition

Pour pratiquer le Machine Learning, il faut installer Python, un environnement de développement comme Jupyter Notebook (qui permet de coder de façon interactive, visualiser les étapes et documenter le processus) ou VS Code et quelques bibliothèques clés comme NumPy, pandas et scikit-learn. Cependant, l'outil nommé Anaconda est recommandé. Il s'agit d'une distribution qui installe Python, Jupyter ainsi que bibliothèques utiles en une seule fois.

Si vous optez pour Anaconda, vous bénéficiez d’une installation simplifiée, car les bibliothèques essentielles au machine learning sont automatiquement incluses. Cela comprend notamment:
  • NumPy: Bibliothèque pour le calcul scientifique qui permet de manipuler efficacement des tableaux multidimensionnels (vecteurs et matrices) et d’effectuer des opérations mathématiques rapides.
  • Pandas: Outil de manipulation et d’analyse de données tabulaires (comme celles que l'on trouve en Excel), avec des structures comme les DataFrames pour filtrer, transformer et explorer les données.
  • matplotlib & seaborn: Bibliothèques de visualisation qui permettent de créer des graphiques (courbes, histogrammes, nuages de points...) pour mieux comprendre les données et les modèles.
  • scikit-learn: Bibliothèque de référence qui engobe les modèles de Machine Learning classiques (régression, classification, clustering...) ainsi que les outils du preprocessing, du Feature Engineering et bien plus.

D'autres bibliothèques sont également installées, en l'occurrence TensorFlow et PyTorch, mais nous n'en aurons pas besoin pour le moment car elles sont spécialisées en Deep Learning.
         
         
Page 1
Intelligence artificielle: Définition, histoire et évolution