Plusieurs événements remarquables vont sûrement avoir un impact plutôt inattendu sur les travaux du Sommet pour l’action sur l’intelligence artificielle (IA) qui se tient les 10 et 11 février, à Paris.

D’abord l’annonce par Donald Trump du projet Stargate de développement massif de centres de traitement d’IA impliquant de 100 milliards à 500 milliards de dollars [de 96 milliards à 482 milliards d’euros] financés sur quatre ans par trois entreprises mais sans l’Etat.

Puis la Banque de Chine va mobiliser près de 140 milliards de dollars sur cinq ans pour soutenir les entités chinoises de l’IA. Enormes investissements et un défi pour l’Europe de l’IA.

Ensuite, face à ce qui était considéré comme la suprématie américaine en IA, on a vu apparaître par surprise en très peu de temps trois modèles de langage (LLM, pour large language models) d’IA développés par la start-up laboratoire chinoise DeepSeek contrôlée par un fonds spéculatif chinois. Ils sont considérés comme vraiment compétitifs par rapport aux dernières offres d’OpenAI et de Meta.

Lire aussi | La France se dote d’un Institut national pour l’évaluation et la sécurité de l’intelligence artificielle

DeepSeek a su consommer moins de puissance de calcul, moins de données, et n’utiliserait que des puces IA déjà anciennes du fait de l’embargo américain contre la Chine sur les puces IA récentes de Nvidia. La pénurie est la mère de l’invention… DeepSeek montre qu’il est possible de développer des LLM puissants qui coûtent moins cher à l’usage, environ que 2,5 % du modèle o1 d’OpenAI. Ils ne sont pas plus intelligents que les autres LLM mais leur entraînement est aussi moins onéreux : il a été environ onze fois moins cher que pour le modèle LLama 3.1 de Meta.

Censure en temps réel

DeepSeek se répand aussi très rapidement dans le monde (même sur les mobiles) sur une formule de logiciel libre. Et ce malgré des réserves sur la façon dont les contenus des LLM américains auraient été utilisés improprement (processus dit de distillation) pour l’entraînement de DeepSeek et malgré sa capacité à censurer en temps réel des questions « sensibles ». DeepSeek a démontré qu’il est encore possible d’apporter de grandes améliorations aux LLM en termes d’efficacité par une série de trouvailles ingénieuses.

Il vous reste 56.87% de cet article à lire. La suite est réservée aux abonnés.

Partager
Exit mobile version