Petit lexique de l'Intelligence Artificielle

Mithrandir

Mis à jour le

Petit lexique de l'Intelligence Artificielle

Lexique du vocabulaire technologique du printemps 2026

"01101001 01101100 01110011 00100000 01110110 01101111 01101110 01110100 00100000 01110000 01100001 01110011 00100000 01101101 01100101 00100000 01101100 11100010 01100011 01101000 01100101 01110010 00100000 01100001 01110110 01100101 01100011 00100000 01101100 01100101 01110101 01110010 01110011 00100000 01110001 01110101 01100101 01110011 01110100 01101001 01101111 01101110 01110011 00100000 00100001" - ChatGPT

L'intelligence artificielle fait partie de nos vies quotidiennes depuis quelques années maintenant. Au début simple curiosité, c'est aujourd'hui devenu un réflexe au point que le "Google est ton ami" se fait détrôner par "demandes à ChatGPT" . Que ce soit dans le privé comme dans le domaine professionnel, cette technologie apporte avec elle une collection bigarrée d'expression sibyllines et de sigles cryptiques ; je me propose en ce printemps 2026 d'établir le lexique pratique de l'IA.

Agentique : IA qui se comporte comme un véritable assistant autonome pouvant prendre des décisions et faire appel à des outils afin d'atteindre l'objectif fixé.

API : Application Programming Interface... vous voila bien avancé ! Imaginez. Vous êtes au restaurant, vous passez commande auprès du serveur (notre API) qui l'apporte en cuisine (le logiciel, la base de de données) puis il revient avec un plat directement consommable. Pas besoin d'éplucher les légumes et préchauffer le four !

En résumé l'API est un pont qui permet à deux logiciels de communiquer sans avoir à connaitre leur fonctionnements réciproques.

Auto-encoder : c'est une intelligence artificielle spécialisée dans la simplification extrême de données, accomplissant deux actions, la compression (encodeur) puis la reconstruction (décodeur). Très bien mais ça sert à quoi ?

Imaginez que vous vouliez entrainer un IA à reconnaitre si une photo est une photo de chat. La compression va permettre de ne garder que les caractéristiques essentielles (vibrisses, forme du museau, des pattes, etc..). La reconstruction fait le chemin inverse et essaie de reconstruire la photo de départ le plus fidèlement possible. Si le décodeur réussi c'est que l'IA "a vraiment compris" ce qu'est un chat, à partir de là on peut utiliser cela pour du nettoyage d'image floutée ou abimée, de la compression ou tout simplement de la génération d'image (Nano banana, Stable Diffusion, etc...) .

Chain of Thoughts (CoT) : littéralement la "Chaine de Pensées" . C'est une technique qui force l'IA à décomposer son raisonnement étape par étape avant de donner sa réponse finale. En "réfléchissant" tout haut, l'IA détecte plus facilement ses propres erreurs avant de terminer sa phrase, permet une transparence envers l'utilisateur ET surtout, c'est ce qui permet d'augmenter en complexité sans s’emmêler les pinceaux (développement autonome de projet complexes) .

Epoch : c'est l'unité de mesure du temps d'apprentissage, un cycle complet d'apprentissage. Si l'IA était une étudiante chargé d'apprendre un livre de 500 pages, un epoch (une époque en français) serait quand le manuel aura était lu en entier une fois, deux epoch, deux fois, etc...

Fine-tuning : "l'ajustement fin" est l'étape dans l'entrainement d'une IA généraliste en IA experte. Si vous êtes fan du phrasé de Raphaël Quenard vous pouvez très bien constituer un dataset de toutes les phrases qu'il aurait prononcées en interview. Donner ce dataset à manger à votre LLM préféré et c'est fait ! Vous avez un assistant IA capable des mêmes circonlocutions.

Et ce n'est pas comme entrainer un modèle ? Non, pas vraiment. Un entrainement de LLM comme les derniers modèles de Gemini, OpenAI ou Anthropic demande d'une immense quantité de donnée et des ressources colossales pour former tous les "poids" alors qu'un fine-tuning permet de ne retoucher qu'une fraction des ces poids.

Inférence : l'examen de fin d'année de l'IA, la phase où elle utilise son apprentissage pour produire une réponse (texte, image, traduction, etc...) . L'inférence a un coût de par la puissance de calcul et l'énergie qu'elle demande donc plus une inférence est efficace moins la facture est salée ! Bien la qualité de l'inférence ne repose pas que sur le coût mais aussi sur sa justesse de raisonnement (précision) , son temps de réponse (la latence) et la fraicheur de la donnée (ses connaissance s'arrêtent au jour de constitution du dataset d'entrainement) .

Hallucination : ça c'est le petit moment malhonnêteté (involontaire) de nos modèles. Se trouvant confus, ignorant la réponse ou biaisés par la sur-représentation d'une donné, ils se mettent à improviser, vous vous rappelez de Will Smith mangeant des spaghetti ? Une hallucination !

LoRA : Low-Rank Adaptation. Vous vous rappelez quand je vous parlais de fine-tuning ? Mais si, c'est juste un peu plus haut ! La LoRA est une technique de fine-tuning. De petites couches entrainées sur des données spécifiques (Raphaël Quenard) par lesquelles passeront les réponses lors de l'inférence. Là où un modèle complet pèse parfois des centaines de gigaoctets, un fichier LoRA pèse souvent moins de 100Mo. Un LoRA peut être "clipsé" à un modèle pour qu'il parle comme on le souhaite, permettant de faire des tests sans avoir à faire un entrainement complet.

MCP : le fameux Model Context Protocol qui a permis une petite révolution ces derniers temps. C'est un protocole qui sert de "prise universelle" afin de connecter une IA à des outils (gmail, figma, github, etc...) sans avoir à développer une API spécifique. Plus besoin d'expliquer en détail dans ma demande comment faire une omelette ou couler un bain, le MCP dit "Bienvenu, voici la liste des activités" .

RAG : le Retrieval-Augmented Generation est certainement là technique ayant le plus d’intérêt pour les entreprises, elle permet de faire travailler l'IA directement à partir de nos propres sources de données. Vous mettez à disposition vos données d’entreprise afin que la réponse et donc l'analyse s'appuie sur par exemple vos échanges client/fournisseur, vos bilan internes, etc...

Partager :

chat Commentaires

Votre email est utilisé uniquement pour la modération et ne sera jamais affiché ni transmis à des tiers.