Il faudrait fixer des « lignes rouges » pour l’intelligence artificielle (IA). C’est le sens de « l’appel mondial » lancé lundi 22 septembre à l’occasion de la 80session de l’assemblée générale des Nations unies, jusqu’au 29 septembre, par un groupe d’ONG et de personnalités, dont les pionniers de l’IA Yoshua Bengio et Geoffrey Hinton ou les prix Nobel d’économie Joseph Stiglitz et Daron Acemoglu. Sans prôner de mesures précises, ses signataires exhortent les gouvernements à « conclure un accord politique sur des limites claires et infranchissables pour l’IA avant fin 2026, afin de prévenir les risques les plus catastrophiques liés à cette technologie ».

« Sans règles internationales contraignantes, l’humanité s’expose à des périls imminents : pandémies d’origine artificielle, manipulation de masse, déstabilisation géopolitique ou perte de contrôle sur des systèmes autonomes », assure l’appel. Revendiquant l’inspiration des traités internationaux ayant banni l’usage des armes biologiques ou du clonage humain, ses promoteurs plaident pour l’instauration de « limites “claires et vérifiables” pour certains usages et comportements de l’IA considérés comme universellement inacceptables en raison des risques de dommages extrêmes et irréversibles auxquels ils exposent l’humanité. »

Afin de laisser des marges de manœuvre à une éventuelle négociation internationale, les organisateurs ne précisent pas quelles « lignes rouges » ils exigent de tracer. Mais ils citent des exemples limitant un comportement ou un usage de l’IA : le lancement d’armes nucléaires, les armes autonomes, la surveillance de masse et la notation sociale, la manipulation volontaire en se faisant passer pour des humains, les attaques cyber d’ampleur, le développement d’armes chimiques ou la création d’IA qui pourraient s’autorépliquer ou que les humains ne pourraient désactiver…

« Tous les types de risques sont importants »

Il vous reste 61.69% de cet article à lire. La suite est réservée aux abonnés.

Partager
Exit mobile version