Il faut une « pause » de deux ans de l’AI Act, ont demandé jeudi 3 juillet, dans une lettre ouverte à la Commission européenne, 45 grands groupes et entreprises de technologie européennes. Les signataires demandent d’appliquer une suspension – ou « clock-stop » sur « les principales obligations du règlement européen sur l’intelligence artificielle (IA) et de repousser son application jusqu’à ce que des standards techniques et des guides de mise en conformité soient en place ». Parmi le collectif, baptisé EU Champions initiative, on trouve les grandes entreprises françaises Axa, Airbus, Total, BNP Paribas, Carrefour ou Publicis, les allemands Lufthansa ou Siemens ou le néerlandais ASML, mais aussi des acteurs de l’IA et du numérique comme Mistral AI, Dassault Systèmes, Pigment, Owkin ou l’association des start-up allemandes.

Lire aussi | Article réservé à nos abonnés IA : à VivaTech, Emmanuel Macron célèbre le partenariat « historique » entre Mistral AI et Nvidia

« L’Europe s’est de longue date distinguée par sa capacité à trouver un équilibre entre la régulation et l’innovation (…) Malheureusement, cet équilibre est mis à mal par des régulations européennes floues et de plus en complexes, qui se chevauchent parfois, écrivent les auteurs de la lettre. Cela met en danger les ambitions de l’UE dans l’IA, en fragilisant sa capacité faire émerger des champions européens mais aussi la possibilité pour tous ses secteurs de déployer l’IA à l’échelle nécessaire pour faire face à la concurrence internationale. »

Lire aussi | Article réservé à nos abonnés « Les éditeurs de sites sont face au spectre d’un Web créé par et pour les IA »

Le collectif demande le report des deux échéances majeures du texte. Le 2 août 2025 doivent entrer en vigueur les obligations des fabricants de modèles d’IA « à usage général », comme les grands modèles de génération de texte ou d’image qui servent de base aux usages d’entreprises ou aux assistants comme ChatGPT (OpenAI), Gemini (Google) ou Le Chat (Mistral). Celles-ci devront mener des évaluations des risques associés à leurs logiciels et aussi fournir une documentation technique et un résumé des données utilisées pour les entraîner. Et à partir de l’été 2026 doivent être appliquées les obligations d’évaluation des risques (erreurs, biais…) des systèmes d’IA « à haut risque », c’est-à-dire dans les infrastructures électriques, d’eau ou les routes, dans l’éducation et la formation, dans l’emploi et dans l’entreprise (management algorithmique…), dans la banque ou l’assurance (octroi de prêts ou de contrats…), dans la justice, la police, la gestion de l’immigration…

Il vous reste 44.02% de cet article à lire. La suite est réservée aux abonnés.

Partager
Exit mobile version