Aux USA, des experts ont pensé et conçu une IA pouvant donner une prédiction fiable et pertinente sur le taux de criminalité sept jours à l’avance dans différentes villes américaines. La précision de cette intelligence artificielle est de près de 90 %. Néanmoins, son but n’est pas de procéder à une identification des criminels avant qu’ils n’agissent (comme le célèbre film de Steven Spielberg Minority Report). Sa finalité majeure est l’identification des biais de la police.
Dans le film Minority Report, les criminels sont stoppés avant qu’ils ne passent à l’acte. Or, cela pourrait tout à fait devenir vrai dans les décennies qui arrivent. Toutefois, ici, c’est bel et bien l’IA qui est utilisée et non la précognition. Dans un écrit apparu dans la célèbre revue scientifique Nature Human Behaviour, des experts travaillant à l’université de Chicago ont conçu une intelligence artificielle pouvant donner une prédiction du taux de criminalité sept jours à l’avance sur une zone de 300 mètres, avec un excellent pourcentage de précision de 90 % donc.
Les spécialistes se sont penchés sur les données dans le domaine de la criminalité des années 2014 à 2016 de la grande ville américaine de Chicago. La ville a été séparée en forme de grille. Dans cette dernière, chaque carré fait à peu près 300 mètres de côté. Par la suite, ils ont effectué une prédiction pertinente des niveaux de criminalité pour chaque carré pour les semaines à venir. Les résultats obtenus ont été plus que prometteurs, justifiant ainsi la réitération de l’opération avec sept autres grandes villes des USA.
Une IA susceptible aux biais raciaux ?
Ce type d’algorithmes est mal vu par beaucoup. La raison ? Les biais raciaux. La police américaine de la ville de Chicago avait effectué le test d’un algorithme afin de dénicher les individus présentant un profil à risque, c’est-à-dire susceptibles d’avoir un rôle dans une fusillade, que cela soit du bon ou du mauvais côté. Problème : Environ 56 % d’hommes noirs âgés de 20 à 29 ans étaient présents dans ce listing.
Les experts affirment que, ici, le cas Minority Report est loin puisque leur algorithme effectue une prédiction sur les endroits des crimes, pas sur les individus eux-mêmes. En outre, selon ces derniers, il est possible de se servir de leur intelligence artificielle dans le but d’étudier les biais de la police. Ainsi, ils ont notamment dévoilé que les crimes effectués dans des quartiers aisés débouchaient sur plus d’arrestations que ceux se produisant dans les quartiers pauvres, ce qui peut paraître surprenant et brise beaucoup de préjugés à ce sujet.
Cette nouvelle IA se contente de prédire les scènes de crime
Par rapport à cette intelligence artificielle révolutionnaire, Chattopadhyay a admis que les informations utilisées par son modèle peuvent aussi intégrer des biais. Néanmoins, il affirme que des efforts ont été effectués dans le but de diminuer l’effet de ces biais.
Parallèlement, cette IA ne peut pas procéder à une quelconque identification de suspects. Sa fonction se limite à la localisation d’éventuelles scènes de crimes. Ainsi, cela n’a rien à voir avec Minority Report.
L’analyse Big Data dévoile des discriminations policières
Les résultats obtenus ont été analysés pour voir sur quels points les biais humains ont un impact sur la police. Ainsi, le nombre d’arrestations à la suite des crimes dans des quartiers de plusieurs niveaux socio-économiques ont été étudiés. Et comme dit un peu plus haut, les résultats sont plutôt surprenants et ils montrent un biais dans la réponse de la police. En effet, les crimes se déroulant dans les quartiers plus riches engendrent des arrestations plus récurrentes en comparaison à ceux des quartiers pauvres.