La semaine dernière, nous avons eu droit au titre haletant "Les entreprises d'IA perdent 190 milliards de dollars de capitalisation boursière après le rapport d'Alphabet et de Microsoft", qui, comme tout ce qui concerne l'IA, était totalement exagéré. Dans ce contexte, les "entreprises d'IA" se résument à Google, dont la capitalisation boursière de 1 800 milliards de dollars peut facilement fluctuer de 200 milliards de dollars. Le contexte est toutefois intéressant : Une poignée d'entreprises publiques actives dans le domaine de l'IA ont publié leurs résultats, qui sont pour la plupart médiocres. Cela n'aurait pas dû être une surprise - il n'existe pas encore d'applications commerciales majeures pour des outils tels que les grands modèles de langage (LLM) qui absorbent tant d'investissements - alors comment étaient-ils censés augmenter les bénéfices d'une grande entreprise comme Google ? Malgré cela, cette nouvelle a choqué les marchés. Cette réaction m'a semblé remarquable, car je pense qu'il faut s'attendre à de nombreux autres titres de ce type à l'avenir - non pas parce que l'IA ne réussira pas, mais parce que la nature de ce succès sera difficile à déceler.
Premièrement : il est très peu probable que les cas d'utilisation de l'IA qui font actuellement l'objet d'un battage médiatique soient ceux qui génèrent le plus de revenus. En avril de l'année dernière, j'ai écrit un article comparant l'avènement de l'IA à celui de l'internet. Les médias numériques ont rendu l'exploitation d'un journal beaucoup moins coûteuse, mais l'effet a été catastrophique : Les marges des journaux se sont effondrées à mesure que les annonces en ligne remplaçaient les colonnes. Des entreprises comme Google ont généré beaucoup de revenus en absorbant ce passage de l'imprimé au numérique, mais le total des dépenses publicitaires est en baisse en tant que fraction de l'économie. Je m'attends à ce qu'il en soit de même pour l'utilisation de l'IA afin de générer du texte et des images pour les médias (comme les films, la télévision et les jeux vidéo), le marketing et les actualités - cela risque d'écraser les revenus des artistes et des créateurs. Des entreprises comme OpenAI et Google pourraient absorber une partie de ces revenus (voire une grande partie), mais le montant total des dépenses dans ce domaine diminuera probablement. Comme pour les publicités, le facteur limitant est la demande totale : La baisse des coûts n'a pas augmenté la demande de publicité, et la demande de contenu est pratiquement à un point de saturation. La réduction des coûts de production de contenu ne va pas créer de nouveaux marchés gigantesques, elle va simplement réduire les marges. Comme pour l'internet, la valeur viendra d'ailleurs.
Deuxièmement : la vague actuelle de battage médiatique s'est concentrée sur l'IA générative, mais ce terme est mal défini et fait l'objet d'abus : Presque tous les systèmes d'IA peuvent être décrits comme génératifs tant qu'ils produisent des données qui ne correspondent pas exactement à celles sur lesquelles ils ont été formés. Il est plus utile de faire la distinction entre les LLM et les modèles d'IA plus petits et spécialisés. Les LLM se distinguent par leur taille (formés sur des trillions de points de données, avec des milliards de paramètres), leur coût (la formation du GPT4 a coûté environ 100 millions de dollars) et leur flexibilité - ChatGPT peut écrire du code aussi facilement qu'il peut écrire une recette de soupe au poulet. Les petits modèles d'IA, en revanche, sont formés sur beaucoup moins de données (des dizaines de millions de points de données, voire moins), sont beaucoup moins chers et, bien qu'il existe une grande diversité de modèles, chacun d'entre eux ne fait qu'une seule chose. Lorsque les gens me posent des questions sur l'IA générative, ils me parlent surtout des LLM, parce que c'est là que se trouve l'engouement ; ils considèrent souvent (à tort) que les autres méthodes d'IA sont dépassées.
Troisièmement : les LLM sont flexibles, mais ils font surtout une chose très utile : réduire la difficulté de l'interface avec les ordinateurs. C'est avec le code que c'est le plus évident : Il est très facile d'exprimer une idée à une autre personne, par exemple "Je veux un site web qui me permette de partager des photos de chats", mais il est très difficile de le faire en code si vous partez de zéro. Mais vous pouvez simplement demander à des étudiants en master de droit de vous créer un site web de partage de chats, et ils peuvent pratiquement le faire sans intervention humaine. La barrière à l'entrée sur PicturesOfCats.com a été considérablement abaissée. Bien sûr, le marché a déjà résolu ce problème (il est aujourd'hui assez facile de créer un site web sans codage), mais il existe une tonne d'autres applications beaucoup plus délicates qui n'ont pas encore été résolues : Par exemple, donner des instructions à des robots en langage naturel ou interpréter et simplifier de grands volumes de données complexes en langage naturel sous une forme lisible par la machine.
Le code est le langage qui se situe entre tous les systèmes numériques et physiques et entre tous les systèmes logiciels et les utilisateurs. La capacité des LLM à faciliter l'interface avec les systèmes numériques pour les non-experts aura un impact considérable sur un large éventail de technologies qui ont eu du mal à être adoptées en raison de ce manque d'expertise. Parmi elles, l'impression 3D, la conception générative, les cobots et d'autres formes de petite robotique, ainsi que l'apprentissage automatique pour une variété de problèmes d'optimisation de base, des ateliers de fabrication aux budgets de marketing. Elle permettra également d'accélérer considérablement toute application pour laquelle l'analyse d'un grand nombre de données en langage naturel constitue un obstacle majeur : Les petites applications d'IA sont particulièrement importantes à cet égard; des applications telles que l'informatique des matériaux et la maintenance prédictive bénéficieront vraiment de cette capacité, en plus d'être plus faciles à utiliser.
Dans l'ensemble, la révolution de l'IA se traduira par un décollage soudain de toutes ces technologies, dont beaucoup existent depuis plus d'une décennie avec une adoption relativement lente. Ces technologies créeront beaucoup de valeur, qui sera principalement captée par les entreprises qui les possèdent : les entreprises de conception générative, les entreprises de maintenance prédictive, les entreprises de cobots. L'utilisation des LLM se développera, mais ces applications ne génèreront pas un volume considérable : La conception générative n'a tout simplement pas autant d'utilisateurs que, par exemple, la recherche sur le web. Les LLM eux-mêmes resteront un service très coûteux et économiquement risqué, fourni par une poignée de grandes entreprises. Les gros titres diront que la révolution de l'IA a échoué et que nous aurions dû nous enthousiasmer pour l'informatique des matériaux, la maintenance prédictive ou les cobots, mais cela n'a pas été le cas : Les LLM auront joué un rôle crucial dans l'adoption d'un large éventail de technologies.
L'invisibilité des succès probables des LLM en coulisses - ainsi que leur grande visibilité pour des applications triviales ou ennuyeuses, comme les chatbots du service client - consolidera la réputation d'échec de l'IA. Mais ne pleurez pas pour les développeurs : Une fois que ces applications commenceront à avoir un impact réel, les grands acteurs du LLM finiront probablement par capturer une grande partie de la valeur créée par ces développeurs d'applications, soit par l'acquisition, soit par une tarification monopolistique de type magasin d'applications. Mais les utilisateurs de ces systèmes auront encore beaucoup de valeur à gagner, en récoltant les bénéfices d'une plus grande mise en œuvre de technologies améliorant l'efficacité et la productivité.