Avant de rêver d'IA générale, réglons les limites de l'IA générative

A écouter certains entrepreneurs de la tech, l'intelligence artificielle générale serait sur le point d'émerger. La bataille d'experts n'est certes pas tranchée, mais les enjeux financiers colossaux biaisent leurs prises de position.

Quiconque tente de suivre de près les développements de l'IA ne peut qu'être saisi de vertige face aux déclarations des différents protagonistes. Si l'on en croit certains des entrepreneurs les plus en vue - Demis Hassabis (DeepMind), Sam Altman (OpenAI), Dario Amodei (Anthropic) ou Ilya Sutskever (Safe SuperIntelligence) - l'intelligence artificielle générale (AGI) pourrait émerger dans un délai de quelques mois à quelques trimestres.

Ils observent que les modèles agentiques permettent d'adjoindre mémoire et planification aux grands modèles de langage (LLM), que la multimodalité - c'est-à-dire la capacité des modèles à traiter également des images, des sons, voire des signaux d'action - autorise une appréhension de la complexité à un niveau supérieur, et qu'elle ouvre la voie à une nouvelle classe d'agents capables d'interagir avec leur environnement de manière plus adaptative. Toutes ces avancées les poussent à envisager l'avènement d'une AGI dans un avenir proche.

Un essoufflement des modèles de langage

Il faut cependant concéder que les derniers trimestres ont été marqués par un essoufflement relatif. La sortie de GPT-5 n'a cessé d'être repoussée, tandis que celle de LLaMA 3 a déçu : ce modèle de Meta peine à égaler les performances de GPT-3.5, pourtant bien plus ancien. De nombreuses voix critiques - et non des moindres, comme Gary Marcus, Yann LeCun, François Chollet ou même Noam Chomsky - estiment que l'approche par grands modèles de langage constitue une impasse pour relever les défis futurs de l'intelligence artificielle.

Les limites des LLM sont bien documentées : précision relative, hallucinations fréquentes,coût énergétique élevé, difficulté à généraliser au-delà des contextes d'entraînement. Et surtout, incapacité à véritablement comprendre le contexte, absence d'intentionnalité - ce qui est pourtant indispensable pour des tâches nécessitant un haut niveau d'abstraction et un traitement fortement séquentiel.

L'avènement d'une AGI, si elle doit advenir, ne semble pas imminent.

En mai, des chercheurs d'Apple ont publié « The Illusion of Thinking in LLMs », un article de recherche démontrant que les modèles actuellement privilégiés pour faire émerger l'AGI rencontrent des effondrements logiques lorsqu'ils sont confrontés à une complexité croissante. Ce pavé dans la mare a provoqué un débat intense dans la communauté gravitant autour des LLM et des modèles réactifs (LRM), d'autant que les affirmations d'Apple ont été partiellement corroborées par le collectif 100 x.ai, qui a reproduit certaines expérimentations, observant également une dégradation de performance sur des tâches complexes.

Le retour de « l'IA symbolique »

Face à ces limites, certains laboratoires ont entrepris de remettre l'ouvrage sur le métier. Les « modèles de monde », que défendent des chercheurs comme Yann LeCun, visent à doter les machines de représentations internes facilitant l'appréhension de contextes complexes - une piste explorée dès les débuts de l'intelligence artificielle, notamment par Marvin Minsky il y a près de soixante-dix ans. D'autres approches - comme l'IA symbolique, largement abandonnée dans les années 1990 - suscitent aujourd'hui un regain d'intérêt.

Quelles conclusions tirer de cette bataille d'experts ? D'abord, que l'avènement d'une AGI, si elle doit advenir, ne semble pas imminent - ni dans les mois, ni peut-être dans les prochaines années. Ensuite, qu'il ne faut pas s'attendre à ce qu'un camp « l'emporte » de sitôt. Les montants en jeu sont tels qu'un rétropédalage est difficilement envisageable pour beaucoup d'acteurs. Remettre en question leurs orientations stratégiques compromettrait la trajectoire de leurs entreprises, avec des conséquences majeures pour les salariés, les partenaires technologiques, et les investisseurs. Le débat est donc structurellement biaisé, dans un contexte d'investissements colossaux - ce qui ne facilite en rien la clarté du paysage.

Si l'on ajoute que des acteurs comme Bill Gates, Sam Altman ou Dario Amodei alimentent le discours alarmiste en évoquant un avenir proche où l'IA provoquerait un chômage de masse inévitable, une affirmation largement contredite par les recherches économétriques, on comprend que la confusion s'installe dans les esprits. Il faut se souvenir que, quelques mois avant l'explosion de la bulle Internet dans les années 2000, les figures les plus crédibles du secteur, dont Bill Gates, affirmaient qu'il n'y avait pas de bulle.

Sec Babgi