Suite à l’abandon progressif des réseaux de neurones récurrents au profit des transformers, la recherche en traitement du langage naturel se concentre depuis 2018 dans la construction de grands modèles de langue. Capables de tenir des conversations ou de résoudre des tâches complexes telles que la génération de résumé et la traduction, l’entraînement de ces architectures suit deux principes : une phase généraliste sur des corpus gigantesques puis une spécialisation sur des problématiques bien définies. Au coeur de ces modèles, le mécanisme d’attention permet le traitement de séquences de natures diverses (texte, audio, valeurs numériques) en connectant les éléments entre eux grâce à des matrices de scores. Cet article expose la méthode, l’architecture et les tâches réalisables par les transformers en sciences économiques.