Depuis le lancement de ChatGPT en novembre 2022, le grand public se trouve confronté à une profusion de termes techniques : machine learning, deep learning, LLM, dont les frontières restent souvent floues. Cette familiarité de façade avec le vocabulaire de l'intelligence artificielle masque, le plus souvent, une méconnaissance réelle des mécanismes qui la sous-tendent. L'intelligence artificielle n'est pourtant pas une invention récente : elle s'inscrit dans une histoire scientifique longue, jalonnée d'avancées décisives et de périodes de désillusion. Parmi ces avancées, le machine learning, ou apprentissage automatique, représente un tournant majeur. Héritier de la statistique, il s'est imposé comme paradigme dominant à partir des années 2000, porté par la conjonction de trois facteurs : l'essor d'Internet, l'explosion des données disponibles et la montée en puissance des capacités de calcul. Gérard Biau, agrégé de mathématiques, spécialiste des statistiques et du machine learning, professeur à Sorbonne Université et membre de l'Académie des sciences, explique comment cette innovation a transformé en profondeur la manière dont les algorithmes sont conçus et entraînés.



