Ce que C-3PO doit à Héphaïstos : si l'IA m'était contée
Mithrandir
Mis à jour le
Article consacré à l'histoire de la création des intelligences artificielles modernes. Partie 1 : un vieux rêve de l'humanité
L'intelligence artificielle et son incarnation dans le monde physique, le robot, ne sont pas des idées neuves. Vous connaissez certainement Isaac Asimov (écrivain et professeur de biochimie) et ses trois lois de la robotique ou encore l'univers de Phillip K. Dick, mais savez vous que l'humanité rêve de ces êtres inorganiques dotés de capacités cognitives comparables aux notre depuis au moins l'antiquité ?
On retrouve dans l’œuvre d'Homère le mythe des "automates dorées" d'Héphaïstos ou encore au moyen-âge des légendes autours d'une alchimie capable d'animer Gollem et homoncules. Bien que tout cela semble aux antipodes de votre LLM préféré ne vous y trompez pas, c'est bien en ces temps reculés que prend racine cette technologie.
Deux servantes l'aident à marcher en le soutenant. Elles sont en or, mais elles ont l'aspect de vierges vivantes. Elles ont la capacité de raisonner, en plus de l'esprit ; elles sont aussi dotées de la voix et de la force physique ; par la grâce des Immortels, elles savent travailler.
D'Aristote à Lovelace
Avant de pouvoir imaginer la moindre machine il a fallu analyser et formaliser les mécanismes de la pensé et du raisonnement. Tout commence au cœur de la cité grecque, où les philosophes antiques poseront les premiers jalons avec notamment l'analyse du syllogisme. Aristote, en théorisant des structures logiques comme « Tous les hommes sont mortels, or Socrate est un homme, donc Socrate est mortel », transforme pour la première fois le discours en un système de règles rigoureuses, presque mécaniques.
Puis, leurs successeurs "modernes" développeront l'idée qu'une pensée rationnelle peut être envisagée comme un calcul mathématique. Au XVIIème siècle, des penseurs comme Thomas Hobbes affirment que « raisonner n'est que calculer », tandis que Gottfried W. Leibniz rêve d'une "Caractéristique Universelle" : un alphabet de la pensée humaine qui permettrait de résoudre n'importe quelle dispute philosophique par un simple calcul. Il imagine même une machine, la calculatrice à crémaillère, capable de manipuler des concepts logiques.
Le véritable basculement s'opère durant l'ère victorienne. Fin du XIXème siècle Georges Boole développe une formulation mathématique du raisonnement, l’algèbre booléenne. En réduisant la logique à deux états binaires (vrai = 1 et faux = 0) , il offre ainsi involontairement à la future informatique son langage universel. À la même époque, Charles Babbage crée la première machine à calculer programmable, un assemblage complexe de rouages et de cartes perforées. C’est dans ce contexte que le génie rencontre la vision : Ada Lovelace écrit le premier programme destiné à cette machine. Plus qu'une simple mathématicienne, elle est la première à comprendre que la machine pourrait manipuler autre chose que des chiffres, comme des notes de musique ou des lettres, prédisant ainsi, avec un siècle d'avance, l'ordinateur moderne.

Au début du siècle suivant le mathématicien David Hilbert pose une question simple mais dont les réponses apportées par les travaux de A. Church et K. Gödel, respectivement sur le lambda-calcul et les théorèmes d'incomplétude, conduiront aux très conceptuelles "machines de Turing".
Attardons-nous quelques instant sur cette dernière notion. Une machine de Turing est un appareil composé de trois éléments simples :
- un ruban infini, divisé en cases vides ou contenant un symbole (par exemple les nombres de 0 à 9) .
- une tête de lecture/écriture pouvant se déplacer d'une case vers la gauche ou la droite et lire ou modifier la case.
- un registre d'état, qui est une liste d'instructions basique (par exemple "si tu lis 3 et que tu es dans l'état A alors remplace le contenu par 7, passe dans l'état B" et déplace-toi à gauche") .
Pourquoi cette notion est importante ? Alan Turing prouve que malgré leur simplicité conceptuelle ces machines sont capables d’exécuter n'importe quel algorithme informatique et donc si un problème peut être résolu par un calcul une telle machine peut le résoudre.
Du symbolisme à l'apprentissage
La Seconde Guerre mondiale et les besoins en calculs et décryptages poussent à la conception des premiers ordinateurs électroniques programmables tels que Colossus (1943) et l'ENIAC (1945). On est encore loin des ordinateurs domestiques tels que nous les connaissons, on parle tout de même de machines pesant une vingtaines de tonnes et nécessitant des surfaces d'installation de l'ordre de la centaine de mètres carrés.
En 1943, Warren S. McCulloch et Walter Pitts publient "A logical calculus of the Ideas Immanent in Nervous activity" , un article complété en 1950 par un second, "What the frog's eye tells the frog's brain" et fondent la première modélisation d'un neurone artificiel : le neurone formel. Un an plus tard, en 1951, Marvin Minsky et Dean Edmonds construisent le tout premier réseaux de neurones artificiels matériel : le SNARC. Ce réseau avait pour but de simuler le comportement d'un rat apprenant à naviguer dans un labyrinthe. Concrètement ce neurone se présente comme une fonction faisant la somme pondérée de ses entrées binaires et donnant en sortie 1 ou 0 selon une fonction d'activation (seuil fixe) mais est bien incapable d'apprendre.
À peine plus de cent ans après le premier programme informatique (A. Lovelace) , Allen Newell, Herbert A. Simon et Cliff Shaw développent en 1955-56 "The Logic Theorist", le premier programme d'intelligence artificiel, qui se révèlera capable de démontrer 38 des 52 premiers théorèmes de "Principia Mathematica" (Russel & Whitehead). Certaines démonstrations inédites feront même montre d'une élégance qu'on nous penserait réservée mais là encore pas d'apprentissage. Toute la force de ce programme réside dans une heuristique complexe programmée à la main par l'humain.
La présentation de ce programme se fera la même année, lors de la conférence de Dartmouth, un atelier d'été réunissant les chercheurs les plus illustres du domaine. C'est ici que John McCarthy (co-organisateur) fera accepter le terme d'Intelligence Artificielle, marquant ainsi la naissance officielle de la discipline.
En 1957, Frank Rosenblatt invente le Perceptron, un neurone se présentant comme une fonction faisant la somme pondérée de ses entrées et donnant en sortie 1 ou 0 selon une fonction d'activation. Je sais, je me répète, est-ce donc la même chose ?
Oui sur le principe mais il y a quelques divergences de tailles ! Contrairement à notre neurone formel de tout à l'heure, le Perceptron peut prendre des entrées continues (n'importe quel nombre) , a des poids ajustables, un biais pour déplacer le seuil de la fonction d'activation et surtout un algorithme d'apprentissage capable d'ajuster les poids pour corriger le modèle. On passe alors d'un programme capable d'opération logique élémentaires à un programme capable de classification (chat vs chien, plante toxique vs médicinale, etc...)
Ça y est, on a une IA moderne ?
Un peu de patience, la suite de l'histoire est pour un prochain article. Je vous prépare d'ailleurs un tutoriel sur "Comment coder son propre Perceptron" afin de comprendre en profondeur la différence avec le neurone formel classique.
En attendant, merci de m'avoir lu et restez curieux !
Reçois ton Noob's Paper directement dans ta boîte mail
Un résumé des articles de la semaine