L’Europe aurait-elle finalement trouvé la clé pour protéger les plus jeunes des effets délétères du numérique ? Le 14 juillet, la Commission européenne dévoilait un dispositif technique de vérification de l’âge et publiait ses premières lignes directrices pour appliquer les protections des mineurs du Digital Services Act (DSA). Le lendemain, en France, le Conseil d’Etat rétablissait l’obligation de contrôle d’âge sur les sites pornographiques, suspendue un mois plus tôt sous la pression des plateformes. Deux signaux forts. Deux gestes qui pourraient marquer un tournant prometteur. Mais entre l’annonce et la réalité, le chemin est encore long – et semé d’embûches.
Depuis 2019, la nécessité de remettre de l’ordre dans le chaos juridique du numérique européen est sur la table. Thierry Breton, alors fraîchement nommé commissaire européen au marché intérieur, posait une équation simple et juste : « Ce qui est illégal hors ligne doit l’être aussi en ligne. » Le DSA, adopté fin 2022, découle de ce principe. Il impose aux grandes plateformes numériques un devoir de responsabilité : détecter leurs propres risques, les corriger et répondre aux obligations de protection, sous peine d’amendes colossales.
Contrairement à d’autres textes, le DSA n’ordonne pas une méthode : il exige un résultat. Les nouvelles lignes directrices publiées en juillet précisent ce résultat attendu : comptes privés par défaut, mécanismes de fidélisation désactivés, publicité ciblée interdite, signalements des mineurs traités en moins de quarante-huit heures, algorithmes adaptés pour éviter l’exposition aux contenus inadaptés. Mais tout cela ne tient qu’à une seule condition : la connaissance fiable de l’âge des utilisateurs.
Il vous reste 66.71% de cet article à lire. La suite est réservée aux abonnés.