Hasard du calendrier, à quelques jours seulement du Sommet pour l’action sur l’intelligence artificielle (IA) organisé les 10 et 11 février à Paris, les premières mesures du règlement européen AI Act entrent en application, dimanche 2 février. Si le symbole est fort, ce premier volet ne concerne pour l’heure que certains usages interdits.
La mise en œuvre du texte, le plus ambitieux du monde à ce stade, sera progressive et fait encore l’objet de débats, voire de contestations. Ces questions ne manqueront pas d’être évoquées lors du rassemblement où l’Elysée attend 100 chefs d’Etats, notamment américain et chinois, ainsi que des acteurs de la société civile et des chefs d’entreprise d’IA, dont Elon Musk, Sam Altman (OpenAI) ou Sundar Pichai (Google).
Concrètement, ce dimanche seront interdites certaines utilisations de l’IA jugées inacceptables par l’AI Act : parmi elles, les logiciels de « notation sociale », privés ou publics, comme ceux utilisés par la Chine, et les IA de « police prédictive individuelle » visant à « profiler » des personnes en estimant leur propension à commettre des infractions. Mais aussi la « reconnaissance des émotions » au travail ou à l’école, pour analyser le comportement d’un employé ou d’un élève.
De même sont bannies « l’exploitation des vulnérabilités des personnes, la manipulation ou les techniques subliminales ». Et, enfin, l’identification des personnes par reconnaissance faciale en temps réel dans l’espace public, ainsi que la catégorisation biométrique des personnes pour déduire « leur race, leurs opinions politiques, religieuses, leur orientation sexuelle ou leur appartenance syndicale », énumère le site de la Commission européenne. Certaines exceptions sont toutefois prévues pour les forces de l’ordre.
Obligations de transparence
Cependant, les volets principaux du texte ne seront mis en pratique que plus tard : le 1er août pour les modèles d’IA « à usage général », comme les grands modèles de génération de texte ou d’image qui servent de base aux usages d’entreprises ou aux assistants comme ChatGPT, Gemini (Google) ou Le Chat (Mistral). Ceux-ci seront tenus à des obligations de transparence sur leur documentation technique et leurs données d’entraînement. Et les plus gros de ces modèles seront de plus soumis à des audits de sécurité sur les risques, notamment cyber.
Il vous reste 49.2% de cet article à lire. La suite est réservée aux abonnés.