L'IA ou l'accumulation primaire de la donnée
Fait-on avec l'IA la même erreur qu'avec Cisco pendant la bulle Internet des années 2000 ? La valeur de l'intelligence artificielle n'est peut-être pas là où l'on croit.
En mars 2000, Cisco fut quelques jours durant l'entreprise la plus valorisée au monde devant Microsoft. Aujourd'hui, celle-ci ne compte plus même dans les 40 premières. L'erreur que firent alors les analystes était particulièrement rudimentaire : Cisco produisant les équipements d'infrastructure de l'Internet, cela devait logiquement en faire une société incontournable et indispensable, justifiant ainsi sa valorisation. La faille dans l'analyse consistait à ne pas voir que ces technologies sont aisément substituables et qu'elles n'induisent pas le fort effet de réseau propre à Internet.
Serait-il possible qu'une même erreur d'analyse soit en cours à l'égard des modèles d'IA ? La certitude quasi généralisée que ces modèles fondamentaux sont les facteurs clés de succès à la fois des entreprises et des Etats est bien établie. Chaque pays essaie de disposer de champions pouvant se positionner dans le Top 10 ou 20 des meilleurs larges modèles de langage. La compétition est rude et rares sont les modèles qui restent sur le podium plus de quelques semaines d'affilée.
Même OpenAi, qui s'est maintenu à la première place durant dix-sept mois, vient de se faire reléguer à la seconde place. Consolation toutefois pour son CEO, Sam Altman : son entreprise a récemment été valorisée 300 milliards de dollars, lui ouvrant la perspective de rejoindre le très fermé club des six méta-entreprises technologiques valant plus de 500 milliards.
Pourquoi est-ce important ? Parce que dans le monde des rendements croissants propres à la technologie, la taille, qui se reflète assez généralement dans la valorisation financière, compte immensément : elle traduit la capacité à accumuler des données et des utilisateurs, un facteur plus important encore que celui de la technologie intrinsèque.
Modèles « open source »
Si aujourd'hui cette capacité à accéder aux données et aux utilisateurs est relativement corrélée à la qualité des modèles d'IA, c'est loin d'être exclusivement le cas. De plus en plus, ce sont les outils que ces entreprises mettent à la disposition des différentes pratiques qui font la différence : outils d'analyse d'image, de supervision d'un navigateur Web, de production de code informatique… Au fur et à mesure, ces outils ont de moins en moins à voir avec la partie la plus avancée de l'IA et sa performance brute. D'ailleurs, on peut observer que les modèles « fondationnels » sont de plus en plus fréquemment « open source » et que leur accès générique devient assez bon marché.
C'est pourquoi on peut très bien envisager qu'à moyen terme, les leaders puissent aller jusqu'à utiliser des « moteurs » d'IA qui ne sont plus les leurs, mais ceux qui ont fait le plus leurs preuves. C'est donc bien la capacité à accumuler des utilisateurs qui fera d'ici là la différence et la maxime « winner takes all » est plus vraie encore dans le domaine des plateformes à base d'IA qu'ailleurs.
Enjeu de souveraineté pour l'Europe
A ce petit jeu, les acteurs préétablis ont évidemment plus de chances que d'autres, n'ayant qu'à divertir leurs utilisateurs vers d'autres usages pour réussir. C'est d'ailleurs l'analyse que fait l'antitrust américain au travers des nombreuses actions intentées à Apple, Alphabet, Meta et Microsoft pour ne parler que d'eux : ils bénéficieraient d'avantages indus de marché troublant la juste concurrence.
Pour autant, même en cas de démantèlement, cela ne laisserait que peu de place aux acteurs non américains. Il est d'ailleurs symptomatique qu'à l'évocation d'un découplage de Chrome des autres services de Google, OpenAI se soit immédiatement déclaré intéressé, montrant que le niveau de taille critique qu'envisagent les autorités américaines se situe hors de portée des Européens.
C'est dans l'accumulation de données et de consommateurs plus que dans la maîtrise des technologies fondationnelles d'IA que devrait se situer la valeur.
Il n'en reste pas moins qu'à moyen terme, c'est donc dans l'accumulation de données et de consommateurs plus que dans la maîtrise des technologies fondationnelles d'IA que devrait se situer la valeur. Pour l'Europe cependant, l'enjeu n'est malheureusement pas un sujet d'antitrust, mais de souveraineté : il reste indispensable de disposer de ces technologies fondationnelles « per se ipsum », par elle-même, dans le cas d'un blocus de la part d'un pays comme les Etats-Unis ou la Chine qui dominerait la maîtrise de ces technologies.
Cela met plus douloureusement encore en évidence la nécessité de faire émerger des plateformes européennes, capables de disposer des données et des utilisateurs en taille critique pour garantir leur autonomie à long terme.