En février, le Sommet pour l’action sur l’intelligence artificielle (IA), à Paris, a réuni plus d’une centaine de pays autour d’une déclaration pour une « intelligence artificielle inclusive et durable ». Neuf mois plus tard, une question demeure : lorsque l’IA s’implante dans les contextes les plus fragiles (camps de réfugiés, territoires autochtones, zones de catastrophe), qui décide de sa conception, de ses usages, de ses limites ?

La réponse révèle un fossé entre la rhétorique de l’inclusion et la réalité du pouvoir. L’IA, qui touche les populations les plus vulnérables, est souvent conçue ailleurs, par d’autres, pour des objectifs éloignés de leurs besoins.

L’exemple du camp de Bidi Bidi, en Ouganda, illustre cette asymétrie. En 2018, le Programme alimentaire mondial y a déployé Primes, un système biométrique pour la distribution de l’aide. Pour 270 000 réfugiés sud-soudanais, le choix était simple : livrer leurs données biométriques ou renoncer à manger. Certains ont vu leur aide suspendue à cause d’erreurs d’enregistrement, d’autres ont fourni leurs empreintes sans savoir comment leurs données seraient utilisées ni comment contester une décision. Le dispositif fonctionnait en boîte noire : opaque pour ceux qu’il servait, transparent pour ceux qui le contrôlaient.

Aucune consultation locale

Ce n’est pas l’échec technique qui frappe, mais l’absence structurelle de participation. Conçu par des experts du Nord, le système n’a jamais fait l’objet d’une consultation locale. Quand des problèmes sont apparus, ce sont les réfugiés qui en ont subi les conséquences sans avoir eu voix au chapitre.

Cette logique se reproduit ailleurs. Aux Philippines, plus de 15 millions d’autochtones voient se multiplier les usages de l’IA sur leur territoire : surveillance destinée à identifier les « groupes terroristes », exploitation minière automatisée, biométrie pour l’accès aux services publics. Pourtant, la loi de 1997 sur les droits des peuples autochtones impose le consentement libre, préalable et éclairé avant tout projet sur les terres ancestrales. Les systèmes d’IA se déploient comme si ce droit n’existait pas.

Il vous reste 65.95% de cet article à lire. La suite est réservée aux abonnés.

Share.
Exit mobile version