L’Organisation des Nations unies a appelé tout récemment à imposer un moratoire sur certains systèmes d’intelligence artificielle comme la reconnaissance faciale, le temps de mettre en place des garde-fous pour protéger les droits humains.
Pour l’ONU, il urge de mettre en place des garde-fous ou un moratoire sur la vente et l’utilisation des systèmes d’intelligence artificielle (IA), pour éviter le « risque grave d’atteinte aux droits de l’homme ».
En effet, selon Michelle Bachelet, la Haut-commissaire des droits de l’homme de l’ONU, «les technologies d’intelligence artificielle peuvent avoir des effets négatifs, voire catastrophiques, si elles sont utilisées sans prendre en compte suffisamment la manière dont elles affectent les droits humains».
A cet égard, elle a plaidé pour une évaluation des risques liés aux différents systèmes qui s’appuient sur l’intelligence artificielle pour le respect du droit à la vie privée. « Et puisque l’évaluation et la prise en compte des risques peuvent prendre un certain temps, les États devraient imposer des moratoires sur l’utilisation des technologies potentiellement à haut risque », a-t-elle fait savoir , selon le site des Nations unies. L’ancienne présidente chilienne a, lors de la présentation de son rapport, cité en exemple les technologies qui permettent des prises de décision automatiques ou encore celles qui établissent des profils, et d’autres technologies d’apprentissage automatique, affecte le droit de la population à la vie privée et d’autres droits, notamment les droits à la santé, à l’éducation, à la liberté de mouvement, à la liberté de réunion pacifique et d’association, et à la liberté d’expression.
«Nuire à des vies humaines»
Ce rapport, qui avait été demandé par le Conseil des droits de l’homme – la plus haute instance de l’ONU dans ce domaine, vise à évaluer l’impact de l’IA dans les sociétés.
L’enquête révèle que les dysfonctionnements de l’IA ont empêché des gens de toucher des aides sociales, de trouver un emploi ou encore ont mené à des arrestations d’innocents sur la base de systèmes de reconnaissance faciale mal entraînés et incapables de reconnaître correctement des personnes aux traits physiques africains par exemple, précise le rapport.
«Le risque de discrimination lié à des décisions basées sur l’intelligence artificielle des décisions qui peuvent changer, stigmatiser ou nuire à une vie humaine n’est que trop réel», a regretté Michelle Bachelet. Selon le Figaro, le rapport a précisé que ces intelligences artificielles sont entraînées avec l’aide d’énormes bases de données, dont la constitution se fait souvent de manière opaque. Ces bases de données elles-mêmes peuvent être mal faites, dépassées et donc contribuer à des violations des droits humains.
Le rapport soulève en particulier l’usage de plus en plus fréquent de systèmes basés sur l’IA par les forces de l’ordre y compris des méthodes prédictives. Quand l’IA utilise de bases de données biaisées, cela est reflété dans les prédictions et a tendance à affecter des zones identifiées à tort comme à risque élevé. La reconnaissance faciale en temps réel et à distance est aussi de plus en plus utilisée dans le monde entier, ce qui peut mener à une localisation permanente des gens.
«Mais il en va de même de l’habilité de l’IA à nourrir les violations des droits humains à une échelle gigantesque et de façon quasi invisible», a mis en garde la Haut-commissaire de l’ONU. «Il faut agir pour mettre des garde-fous basés sur les droits de l’homme à l’IA pour le bien de tout le monde», a-t-elle souligné.
Lucien DAKISSAGA