L’utilisation de l’IA dans la lutte contre le terrorisme n’est pas intrinsèquement mauvaise, et cet article suggère quelques conditions nécessaires pour une utilisation légitime de l’IA dans le cadre d’une approche prédictive de la lutte contre le terrorisme de la part des États démocratiques libéraux. Officier de l’armée britannique, ancien chercheur invité à Chatham House Sommaire On suppose souvent que l’utilisation de l’intelligence artificielle prédictive (IA) dans la lutte contre le terrorisme a un effet délétère sur les droits de l’homme, générant des spectres de punition et de surveillance des États avant le crime. Cependant, l’utilisation bien réglementée de nouvelles capacités peut renforcer la capacité des États à protéger le droit des citoyens à la vie, tout en améliorant le respect des principes destinés à protéger d’autres droits de l’homme, tels que la transparence, la proportionnalité et l’absence de discrimination injuste. Le même cadre réglementaire pourrait également contribuer à se prémunir contre une utilisation plus large des technologies connexes. La plupart des États se concentrent sur la prévention des attaques terroristes, plutôt que de réagir à celles-ci. En tant que telle, la prédiction est déjà au cœur d’un contre-terrorisme efficace. L’IA permet d’analyser des volumes de données plus élevés et peut percevoir des tendances dans ces données qui, pour des raisons de volume et de dimensionnalité, seraient autrement au-delà de la capacité d’interprétation humaine. L’impact de cela est que les méthodes traditionnelles d’enquête qui fonctionnent à l’extérieur des suspects connus peuvent être complétées par des méthodes qui analysent l’activité d’une large partie d’une population entière pour identifier les menaces jusque-là inconnues. Les développements de l’IA ont amplifié la capacité de mener une surveillance sans être limité par les ressources. La technologie de reconnaissance faciale, par exemple, pourrait permettre l’automatisation complète de la surveillance par vidéosurveillance dans les lieux publics dans un avenir proche. La manière actuelle dont les capacités d’IA prédictive sont utilisées présente un certain nombre de problèmes interdépendants tant du point de vue des droits de l’homme que du point de vue pratique. Lorsque des limitations et des réglementations existent, elles peuvent avoir pour effet de réduire l’utilité des approches qui appliquent l’IA, sans nécessairement protéger les droits de l’homme dans une mesure adéquate. L’atteinte à la vie privée associée à l’analyse automatisée de certains types de données publiques n’est pas erronée en principe, mais l’analyse doit être menée dans un cadre juridique et politique solide qui impose des limites sensibles aux interventions en fonction de ses résultats. À l’avenir, un accès plus large à des aspects moins intrusifs des données publiques, une réglementation directe de la façon dont ces données sont utilisées – y compris la surveillance des activités par des acteurs du secteur privé – et l’imposition de garanties techniques et réglementaires pourraient améliorer à la fois les performances opérationnelles et le respect des législation sur les droits de l’homme. Il est important que toutes ces mesures se déroulent d’une manière qui tienne compte de l’impact sur d’autres droits tels que la liberté d’expression et la liberté d’association et de réunion.
Les commentaires sont clôturés.