La récente décision de Google de supprimer l’interdiction d’utiliser l’intelligence artificielle (IA) pour les armes et la surveillance a suscité de vives critiques de la part d’Amnesty International. Matt Mahmoudi, chercheur et conseiller sur l’IA et les droits humains, a averti que cette décision établit un précédent dangereux et accroît le risque de violations des droits humains.

Inquiétudes concernant l’IA dans la guerre et la surveillance
Amnesty International documente depuis longtemps les menaces posées par les technologies alimentées par l’IA, en particulier lorsqu’elles sont utilisées pour la surveillance de masse, le contrôle social et les systèmes militaires automatisés. Selon Mahmoudi, la révision de la politique de Google pourrait conduire à l’intégration de l’IA dans des armes autonomes létales, des frappes de drones semi-automatisées et des programmes de surveillance de masse, favorisant ainsi de graves atteintes à la vie privée et sapant les normes internationales en matière de droits humains.
« Les technologies basées sur l’IA pourraient alimenter la surveillance et les systèmes d’élimination létale à grande échelle, entraînant potentiellement des violations massives et portant atteinte au droit fondamental à la vie privée, » a déclaré Mahmoudi.
Il a également souligné que l’engagement précédent de Google à limiter l’application de l’IA au développement d’armes était une reconnaissance explicite de ces risques, un engagement désormais abandonné.
Amnesty exhorte Google à rétablir son engagement en faveur d’un développement éthique de l’IA et à s’abstenir de concevoir ou de vendre des systèmes pouvant faciliter des atteintes aux droits humains. L’organisation appelle également les gouvernements à mettre en place des réglementations contraignantes pour encadrer l’utilisation de l’IA dans les domaines militaire et de la surveillance.
« Le simulacre d’autorégulation entretenu par les entreprises technologiques ne doit pas nous détourner de la nécessité urgente d’adopter une législation robuste pour protéger les droits humains, » a ajouté Mahmoudi.
>>>BL-L5K pour Nokia 105+ (2022) TA-1565
Contexte du revirement de Google
Mardi, Google a discrètement supprimé son engagement à éviter le développement de technologies d’IA susceptibles d’« entraîner des dommages globaux », y compris celles utilisées dans les systèmes d’armement et de surveillance. L’entreprise a justifié cette décision en affirmant que les entreprises et les gouvernements doivent collaborer sur l’IA pour garantir la sécurité nationale.
Amnesty International a déjà critiqué le modèle économique basé sur la surveillance de Google, le jugeant incompatible avec le droit à la vie privée. En 2019, l’organisation a publié une étude démontrant comment les systèmes de reconnaissance faciale amplifient la discrimination raciale et menacent les libertés d’expression, de pensée et de protestation.
Avec ce revirement dans l’éthique de l’IA chez Google, les inquiétudes s’accroissent quant à une accélération du développement de technologies militaires et de surveillance basées sur l’IA, soulevant des questions urgentes sur la responsabilité et la réglementation.