Une idée qui semble tout droit sortie d’un roman d’anticipation, mais qui est bel et bien en train de prendre forme. Derrière les murs des institutions britanniques, un programme algorithmique d’un genre inédit soulève autant de promesses que de craintes. Et il ne s’agit pas de science-fiction.
Minority Report en version réelle : l’outil britannique qui prédit les meurtres

Le Royaume-Uni déploie un outil pour prédire le crime : vers une justice préventive sous algorithme ?
Le 8 avril 2025, le Royaume-Uni a confirmé l’existence d’un projet gouvernemental destiné à prédire les meurtres à l’aide d’un algorithme d’analyse de données. Le dispositif, initialement baptisé « homicide prediction project » avant d’être prudemment renommé « sharing data to improve risk assessment », vise à identifier les individus « les plus susceptibles de commettre un homicide ». Un système inspiré, de manière terrifiante, du concept de precog imaginé par Philip K. Dick dans Minority Report, où le crime est anticipé avant même qu’il ne soit commis. Le crime, donc, comme objet de prédiction algorithmique.
Anticiper le crime : une promesse sécuritaire ou un glissement dangereux ?
Le projet est développé sous l’égide du ministère britannique de la Justice. Les autorités assurent que son objectif est purement recherche et limité à l’étude de données concernant des individus déjà condamnés. Selon un porte-parole, il s’agit de « mieux comprendre les risques que peuvent présenter certaines personnes en probation » et d’« améliorer les outils d’évaluation existants » explique The Guardian.
Mais la réalité est nettement plus trouble. Statewatch, organisation spécialisée dans la surveillance des politiques sécuritaires, a révélé l’existence du projet via une demande d’accès à l’information. Selon les documents obtenus, les données exploitées ne se limiteraient pas aux profils judiciairement sanctionnés. Les bases de données incluraient aussi des victimes de violences domestiques, des individus suivis pour troubles mentaux, toxicomanie, automutilation ou encore handicap.
Sofia Lyall, chercheuse à Statewatch, dénonce un dispositif « glaçant et dystopique » et accuse : « Ce modèle, qui s’appuie sur une police et un ministère de l’Intérieur structurellement racistes, va renforcer et amplifier la discrimination structurelle ».
Les données au cœur de la controverse : un outil biaisé dès sa conception ?
Ce qui choque autant qu’il inquiète, c’est la nature même des informations collectées et traitées par le système. Outre les identifiants policiers, les bases croisent des données personnelles : nom, sexe, date de naissance, origine ethnique, et surtout des indicateurs dits « à fort pouvoir prédictif » tels que l’âge du premier contact avec la police, les antécédents psychiatriques, les tentatives de suicide, les problèmes d’addiction, les dossiers médicaux liés à la santé mentale, détaille Le Figaro.
Dans un pays déjà marqué par les dérives des systèmes de surveillance algorithmique, ce type de dispositif exacerbe les tensions. Car l’outil, au-delà de ses prétentions techniques, ne peut qu’hériter des biais systémiques enracinés dans les institutions qui le nourrissent. Et si l'on encode l’iniquité, l’algorithme ne fera que la reproduire à grande échelle.
D’ailleurs, l’intégration de personnes jamais condamnées — victimes comprises — dans les bases de données laisse planer une ombre éthique immense sur la légitimité du projet. Une section du contrat entre le ministère de la Justice et la police de Manchester stipule en effet que seront partagées les données relatives aux victimes et à leur premier contact avec les forces de l’ordre.
Vers une justice prédictive ? Le spectre des precogs n’est plus une fiction
Depuis son annonce, ce programme britannique fait immédiatement écho à l’univers dystopique de Philip K. Dick, où des êtres dotés de précognition – les precogs – permettent l’arrestation d’individus avant qu’ils ne commettent un crime. Si la fiction utilise des mutants, le Royaume-Uni s’en remet désormais à l’intelligence artificielle. Et derrière cette évolution technique, c’est toute une philosophie de la justice qui vacille.
À qui incombe la responsabilité d’un crime qui n’a pas encore eu lieu ? Peut-on assigner un risque à une personne sur la base de son profil psychologique ou socio-économique ? L’erreur judiciaire n’est plus la condamnation d’un innocent, mais l’attribution d’une dangerosité présumée. Le crime devient un événement statistique, et l’individu un vecteur de probabilités.
Le projet, financé dès janvier 2023 sur initiative du cabinet de Rishi Sunak, reste officiellement confiné au cadre de la recherche. Pourtant, la volonté politique de prolonger ce type de programme dans le champ opérationnel n’est guère dissimulée.
Une société sous algorithme : la démocratie peut-elle encadrer la machine ?
Les autorités tentent de rassurer : « Ce projet est conduit à des fins de recherche uniquement. Il vise à vérifier si de nouvelles sources de données peuvent améliorer les outils d’évaluation du risque ». Mais l’histoire récente a montré que ce type de précaution langagière précède souvent des intégrations progressives dans les outils de terrain.
Ce glissement technocratique n’est pas anodin. Il transforme l’exercice judiciaire en gestion des risques, et redéfinit la prévention en contrôle préventif ciblé. Dans ce contexte, ce sont les populations marginalisées — jeunes des quartiers populaires, minorités ethniques, personnes souffrant de troubles psychiques — qui se retrouvent systématiquement surexposées.
À une époque où les scandales de surveillance algorithmique se multiplient, notamment en Chine, aux États-Unis et au sein même de l’Union européenne, la tentation britannique d’aller plus loin pose une question brûlante : jusqu’où une démocratie peut-elle déléguer sa justice à la machine ?