Né au Canada et résidant à Los Angeles, en Californie, Cory Doctorow est un essayiste, activiste, enseignant et auteur (The Internet Con. How to Seize the Means of Computation, Verso, 2023 ; The Bezzle, Tor Books, 240 pages, non traduits). Il chronique le développement du numérique depuis les débuts d’Internet, sur son site Pluralistic et dans différents médias, comme, en février, dans le Financial Times pour critiquer l’évolution des grandes plates-formes et des réseaux sociaux. En décembre 2023, il a évoqué dans une chronique l’intelligence artificielle (IA) comme une « bulle », une thématique qui, ces derniers mois, suscite un débat croissant dans le secteur. M. Doctorow doute de l’équilibre économique entre les coûts des grands modèles d’IA, comme ceux sur lesquels s’appuient les robots conversationnels ChatGPT, et les revenus des différents cas d’usage.
Pourquoi pensez-vous que l’IA est une « bulle » ?
L’intelligence artificielle est une bulle, car elle en porte tous les signes distinctifs. On voit des entrepreneurs qui ajoutent le mot « IA » à leurs produits pour faire monter leur cours de Bourse, sans pour autant savoir vraiment ce que cette technologie va leur apporter. Cela rappelle l’époque où la blockchain [technologie qui permet d’authentifier des actions, comme des transactions en cryptomonnaies] était en vogue.
On voit aussi beaucoup d’investissements affluer chez les fabricants de modèles d’IA, qui, souvent, perdent de l’argent. La promesse est que ces entreprises convaincront des clients désireux de payer suffisamment pour amortir le prix de revient de ces logiciels, mais elles ont du mal à expliquer comment elles vont faire. Enfin, il y a cette impression que tout le monde semble vouloir parler d’IA, à propos de n’importe quel sujet, parfois sans rapport apparent, comme le changement climatique…
Pourquoi doutez-vous du modèle économique des grands modèles d’IA ?
Il y a un décalage entre les coûts, très importants, et les revenus potentiels. Beaucoup des applications de l’IA offrant les plus grandes perspectives de revenus sont sensibles à ce que le secteur appelle les « hallucinations », c’est-à-dire les erreurs [comme une réponse factuellement fausse dans un texte]. Or, personne dans l’IA n’a de théorie convaincante sur la façon dont on pourra éliminer ces erreurs.
Quand on parle de ces cas d’usages sensibles (la santé, la conduite autonome de véhicules…), les entreprises de l’IA proposent généralement comme solution d’ajouter un humain dans la boucle, pour vérifier la décision ou le contenu produit par le logiciel. Mais l’intérêt pratique et financier de ces IA est, selon leurs créateurs, qu’elles sont censées agir beaucoup plus rapidement que les humains. Et si on a besoin de gens pour revoir chacune de leurs actions, cela limite la rentabilité et les éventuels gains en productivité.
Il vous reste 75.87% de cet article à lire. La suite est réservée aux abonnés.