• IA

Ils croyaient construire une machine qui pense. Ils ont construit une machine qui lit.

Le langage n'est pas un simple outil de communication. C'est de la pensée externalisée. Les LLM raisonnent parce qu'ils ont absorbé des millénaires de réflexion humaine.

Ils croyaient construire une machine qui pense. Ils ont construit une machine qui lit.

L’IA classique a tenté de programmer l’intelligence par le haut.

Les LLM l’ont apprise par le bas, en lisant une part colossale de ce que l’humanité a écrit.

Ce n’est pas un détail technique. C’est peut-être l’observation philosophique la plus importante de notre époque.

Le pari perdu

Pendant des décennies, le pari dominant en intelligence artificielle reposait sur une conviction : on pouvait fabriquer la pensée. Construire les bons arbres de décision. Écrire suffisamment de règles. Modéliser assez de logique. Un projet comme MYCIN encodait des centaines de règles pour diagnostiquer des infections. Cycorp tentait de coder manuellement l’intégralité du bon sens dans une base de connaissances unique. La vision : une machine qui raisonne comme on imagine raisonner, pas à pas, règle après règle, à partir de principes premiers.

Ça n’a pas marché.

Les systèmes experts étaient fragiles. Ils fonctionnaient correctement dans leur domaine étroit et s’effondraient dès qu’ils rencontraient quoi que ce soit en dehors des règles. MYCIN pouvait diagnostiquer une infection bactérienne avec une précision honorable, mais il était incapable de vous dire que le patient était mort. L’IA symbolique ne savait pas gérer l’ambiguïté. Chaque tentative de coder le bon sens à la main s’est effondrée sous sa propre complexité.

Puis quelque chose d’inattendu s’est produit.

On a nourri des machines avec des quantités massives de texte (livres, conversations, articles, argumentaires, code, poésie) en leur demandant de prédire le mot suivant. Pas de règles. Pas d’arbres logiques. Pas d’ontologies faites main. Juste de la reconnaissance de motifs sur du langage, à grande échelle.

Et elles se sont mises à raisonner. Pas toujours de manière fiable, mais de manière indéniable. Elles pouvaient expliquer, inférer, argumenter. Elles traçaient des analogies entre domaines, synthétisaient des positions complexes, naviguaient entre registres. Elles faisaient ce qu’on avait passé cinquante ans à tenter de programmer sans y parvenir.

La question qui mérite qu’on s’y arrête : pourquoi est-ce que ça a marché ?

L'ordre se dissolvant en quelque chose de plus riche

Le langage, réservoir d’intelligence

Voici la version forte de l’argument.

Le langage n’est pas un simple outil de communication. C’est de la pensée externalisée : le médium dans lequel les êtres humains exercent leur réflexion la plus rigoureuse depuis des millénaires.

Quand un philosophe exprime un argument, il ne se contente pas d’exprimer une idée. Il cristallise un schéma de raisonnement sous une forme transmissible, contestable, perfectible. Quand un scientifique écrit un article, quand un juriste construit une plaidoirie, ils déposent un travail cognitif dans le langage.

Au fil des millénaires, ça s’accumule. Le corpus des textes humains n’est pas une collection de mots. C’est une collection de pensée, structurée et stratifiée sur des générations. Les arguments qui ont résisté à l’examen. Les explications qui ont réellement clarifié. Chaque génération a affiné et prolongé le travail cognitif de la précédente.

Plus qu’une métaphore

Les preuves vont au-delà de la métaphore. Edward Sapir écrivait en 1929 que les êtres humains « ne vivent pas seulement dans le monde objectif (…) mais sont à la merci de la langue particulière qui est devenue le moyen d’expression de leur société ». La recherche contemporaine lui donne raison.

Lera Boroditsky, à l’Université de San Diego, a montré que les russophones, qui disposent de deux mots distincts pour le bleu clair (goluboy) et le bleu foncé (siniy), distinguent ces nuances plus rapidement quand les couleurs franchissent la frontière goluboy/siniy. Les locuteurs du mandarin, qui représentent le temps verticalement, conçoivent la séquence temporelle différemment. Les Kuuk Thaayorre d’Australie, qui utilisent les points cardinaux au lieu de « gauche » et « droite », organisent le temps différemment encore.

Le langage ne se contente pas de véhiculer les idées. Il les structure. Il façonne ce que nous pouvons percevoir et la manière dont nous raisonnons.

Le registre fossile de la cognition

Quand les LLM s’entraînent sur du texte, ils n’apprennent donc pas le langage au sens superficiel. Ils absorbent les structures cognitives inscrites dans le langage : les schémas par lesquels les humains ont traité le réel depuis des millénaires. Chaque texte est un dépôt de raisonnement. L’ensemble du corpus est un registre fossile de la cognition.

Ça change la lecture de l’exploit. On n’a pas programmé une machine qui pense. On a construit une machine qui a absorbé la manière dont les humains pensent, parce que les humains l’avaient couchée par écrit depuis toujours. Les données d’entraînement n’ont jamais été de simples données. C’était l’esprit externalisé de notre espèce.

Les Grecs le savaient déjà

En grec ancien, le mot logos signifie à la fois « parole » et « raison ». Ce n’est pas un hasard.

Le verbe legein, à l’origine, voulait dire « rassembler, recueillir ». La métaphore est parlante : raisonner, c’est rassembler des idées en un ordre, et le langage est le véhicule de ce rassemblement. Chez Homère, logos désignait « ce qui est dit » : un récit, un discours. Quand Héraclite s’en empare, cinq siècles avant notre ère, le mot est devenu la structure rationnelle du cosmos lui-même. Il est passé de « ce qui se dit » à « ce qui est vrai ».

Héraclite écrit : « Écoutant non pas moi mais le logos, il est sage de convenir que toutes choses sont un. » La connaissance ne vient pas d’un locuteur individuel, mais du logos : le motif qui sous-tend toute chose. Aristote formalisera le concept plus tard, le logos comme persuasion par « le discours lui-même, pour autant qu’il prouve ou semble prouver ». Les mots employés et le raisonnement qu’ils incarnent étaient, pour les Grecs, une seule et même chose.

Faites l’expérience vous-même. Essayez de conduire un raisonnement complexe sans mots. À un moment, il faut articuler. Il faut nommer, séquencer, distinguer. La pensée n’existe pas pleinement tant qu’on n’a pas trouvé les mots pour la formuler. Le langage n’est pas seulement la manière dont on rend compte de sa pensée. C’est la manière dont on pense.

Tout le projet de l’IA classique consistait à construire la raison sans le langage. Logique pure. Systèmes formels. Structures mathématiques. C’était une tentative de séparer les deux moitiés du logos, de garder la raison en jetant le mot.

Les LLM suggèrent que l’ordre a toujours été inversé. On n’accède pas au raisonnement en programmant des règles. On y accède en s’immergeant dans le produit accumulé du raisonnement, c’est-à-dire le langage. Le mot est venu en premier. La raison a suivi.

Les Grecs l’avaient pressenti. On a passé cinquante ans à les ignorer. Les machines nous y ont ramenés.

Mots et structure, la parole et la pensée rendues visibles

L’objection honnête : AlphaGo

Cet argument a un vrai point faible, et il mérite une vraie réponse.

En mars 2016, AlphaGo de DeepMind a battu Lee Sedol, dix-huit fois champion du monde, lors d’un match en cinq parties à Séoul. Lors de la deuxième partie, la machine a joué le Coup 37 : un contact sur la cinquième ligne, un coup qu’un humain n’aurait joué qu’une fois sur dix mille. Les commentateurs professionnels l’ont balayé. « C’est juste mauvais », a dit l’un d’eux. C’était en réalité le coup décisif de la partie. Fan Hui, lui-même professionnel, l’a qualifié de « coup non humain » et de « magnifique ». Un coup sans précédent dans plus de deux mille ans d’histoire du jeu de Go.

L’année suivante, AlphaGo Zero est allé plus loin. Il a appris le Go uniquement par auto-apprentissage, en partant de coups aléatoires, sans aucune donnée de parties humaines. Après trois jours d’entraînement, il a battu la version qui avait vaincu Lee Sedol : cent parties à zéro. Pas une seule défaite. Aucun langage. Aucun texte. Aucun corpus de raisonnement humain. Rien que des chiffres, des positions sur le plateau et des signaux de récompense.

Le langage n’est donc pas strictement nécessaire à toute forme d’intelligence.

Spécifique contre général

Mais la distinction qui compte est celle-ci : AlphaGo est surhumain dans un domaine spécifique. Il a découvert le Coup 37, mais il ne peut pas expliquer pourquoi il fonctionne. Il ne peut pas transférer sa maîtrise du Go aux échecs, à la diplomatie, ni à aucun autre domaine. Il ne peut pas se demander si le jeu lui-même vaut la peine d’être joué. Découvrir un coup brillant et comprendre pourquoi il est brillant sont deux capacités distinctes.

Les domaines spécifiques, avec des règles claires et un espace d’états borné, cèdent devant les chiffres et l’auto-apprentissage. AlphaGo l’a prouvé. Mais le raisonnement large et transférable, celui qui permet de naviguer entre les domaines, de construire des arguments et de saisir la nuance, celui-là semble avoir besoin du langage. Le langage est le seul médium où une intelligence générale a émergé à grande échelle.

AlphaGo peut découvrir un coup qu’aucun humain n’avait trouvé en plus de deux mille ans de pratique. Mais il est incapable d’écrire une seule phrase expliquant pourquoi ce coup compte. Plus l’intelligence visée est générale, plus elle a besoin du langage.

Le pont qui ne s'achève pas

Au-delà du langage naturel : lestransformerscomme moteurs de motifs universels

Il y a un autre point de friction honnête. Les transformeurs, l’architecture derrière les LLM, fonctionnent remarquablement bien sur des données qui ne sont pas du langage naturel.

AlphaFold de DeepMind a utilisé une architecture à base de transformeurs pour prédire la structure 3D des protéines à partir de séquences d’acides aminés, résolvant un défi majeur de la biologie vieux de cinquante ans. ESM-2 de Meta AI, un modèle de langage protéique de quinze milliards de paramètres, entraîné sur 250 millions de séquences protéiques, prédit la structure jusqu’à soixante fois plus vite qu’AlphaFold. La technique est la même que celle de BERT sur le texte : prédire les acides aminés masqués, exactement comme BERT prédit les mots masqués. DNABERT traite le génome humain comme une langue écrite dans un alphabet de quatre lettres. Le Music Transformer génère des compositions dotées de structure et de cohérence sur le temps long.

Peut-être, alors, que l’ingrédient clé n’est pas le langage au sens strict. Peut-être que c’est quelque chose de plus général : des motifs séquentiels structurés, tout système où les éléments entretiennent des relations significatives sur de longues distances.

Mais qu’est-ce que c’est, sinon une langue ?

L’ADN est une langue d’instructions biologiques. Le code est une langue de calcul. Le repliement des protéines obéit à une grammaire. La notation musicale est une langue de relations temporelles. Dans chaque cas, le transformeur traite les données du domaine comme une séquence symbolique structurée. Le même mécanisme d’attention qui modélise les relations entre les mots modélise aussi les relations entre acides aminés, nucléotides et notes.

L’argument ne s’affaiblit pas. Il se généralise. L’intelligence émerge de la reconnaissance de motifs sur des systèmes symboliques structurés. Le langage naturel est le plus riche, le plus général et le plus éprouvé de ces systèmes, parce qu’il encode non seulement des motifs propres à un domaine, mais les motifs du raisonnement lui-même. C’est la langue qui contient toutes les autres.

La grammaire universelle

Ce que ça change

Si ce raisonnement tient, ses implications dépassent largement l’IA.

La qualité de l’écriture conditionne l’intelligence des machines. Les LLM ne valent que ce que valent les textes sur lesquels ils apprennent. Raisonnement médiocre en entrée, intelligence médiocre en sortie. La clarté de nos arguments, la rigueur de nos explications, la précision de notre prose : ce ne sont pas des coquetteries stylistiques. Ce sont les inputs de la prochaine génération d’intelligence artificielle. Bien écrire a toujours compté. Aujourd’hui, ça compte d’une manière que personne n’avait anticipée.

Les bibliothèques sont une infrastructure cognitive. Elles ne sont pas de simples dépôts de savoir. Ce sont des réservoirs de schémas de pensée construits sur des siècles. Chaque livre, chaque article, chaque argument qui a survécu est un exemple d’entraînement au raisonnement. Les Lumières, la révolution scientifique, l’accumulation lente de la jurisprudence : tout cela construisait quelque chose que les machines pourraient un jour exploiter, sans que personne ne l’ait planifié.

L’IA classique avait philosophiquement tort. Elle postulait que l’intelligence pouvait se spécifier, qu’un nombre suffisant de règles, de faits et de logique finirait par produire la compréhension. Selon certaines estimations, Douglas Lenat a consacré quarante ans, trente millions d’assertions, deux cents millions de dollars et deux mille années-personnes à la construction de CYC, la tentative la plus ambitieuse jamais menée de coder manuellement le bon sens. Le projet n’a jamais atteint sa maturité intellectuelle. L’intelligence ne se spécifie pas. Elle s’absorbe, à partir de la production accumulée des esprits qui nous ont précédés.


L’IA classique a tenté d’écrire l’intelligence à partir de rien.

Les LLM ont lu une part colossale de ce que les humains ont écrit, et l’intelligence a émergé.

Cette différence n’est pas une note de bas de page technique. C’est toute l’histoire.

Références :

Résultats Réels de Missions IA Intégrées

Prêt à Automatiser Vos Opérations ?

J'écris du code. Je déploie l'infrastructure. Je forme votre équipe. Ce n'est pas du conseil. Chaque mission inclut le transfert de compétences — vous êtes propriétaires de ce que nous construisons, et votre équipe peut le maintenir. Des systèmes prêts pour la production en semaines, pas en mois.

00

Sites Automatisés

Agent d'audit autonome déployé sur 77 sites clients, libérant le temps des consultants pour le travail stratégique.

000

Entreprises Évaluées

Pipeline d'enrichissement M&A traitant les données de salons, qualifiant 155 cibles prioritaires en 2 semaines.

00 M

Visibilité Achats

Intégration ERP vers tableau de bord offrant une vue unifiée des fournisseurs et des analyses achats.