
Minority Report da vida real? Reino Unido está desenvolvendo IA para prever assassinatos; entenda como funciona
Parece coisa de ficção científica, mas está acontecendo de verdade: o Reino Unido está desenvolvendo uma ferramenta baseada em inteligência artificial para prever possíveis assassinatos antes que eles aconteçam. O projeto usa dados de pessoas já registradas pelas autoridades e promete identificar indivíduos com maior risco de cometer crimes violentos.
Prevendo assassinatos com algoritmos
O projeto é apelidado de “Intercâmbio de dados para melhorar a avaliação de riscos” e ainda está em fase de desenvolvimento. A ideia é usar inteligência artificial para cruzar dados de agências como a polícia britânica e o sistema de liberdade condicional, de modo a antecipar quem pode vir a cometer homicídios no futuro.
Segundo o jornal The Guardian, o algoritmo analisará uma série de fatores — desde histórico criminal até informações pessoais como autolesões e envolvimento em casos de violência doméstica. Os dados são obtidos de diversas fontes oficiais, incluindo a polícia de Manchester, a Scotland Yard e o Ministério do Interior.
O controverso “Projeto de Previsão de Homicídios”
O sistema começou como um projeto interno do governo britânico chamado “Projeto de Previsão de Homicídios”, revelado por meio de solicitações de transparência feitas pelo grupo de direitos civis Statewatch. O objetivo oficial seria ampliar os modelos de avaliação de risco já utilizados para prever reincidência entre criminosos em liberdade condicional.
Mas o projeto vai além: segundo o próprio Ministério da Justiça, a IA vai buscar padrões entre características comuns de criminosos que cometeram homicídios, aplicando métodos alternativos de ciência de dados para melhorar a precisão das avaliações.
Dados usados incluem saúde mental, etnia e vícios
Os algoritmos utilizados vão processar dados como nome, gênero, etnia, data de nascimento, histórico penal, além de marcadores sensíveis como saúde mental, física, presença de vícios, tentativas de suicídio e até deficiências. Os indivíduos analisados recebem um número de identificação no sistema, que anonimiza os dados parcialmente — mas não os elimina das mãos do governo.
Boa parte desses dados vem do sistema britânico de avaliação de criminosos conhecido como OASys, que já é usado para prever taxas de reincidência.
Comparações com Minority Report e críticas à ética do projeto
Críticos comparam o projeto ao enredo do filme Minority Report (2002), onde um departamento de polícia prende criminosos antes que os crimes aconteçam. Grupos de direitos civis, como o próprio Statewatch, chamam o sistema de “distópico e preocupante”, levantando alertas sobre possíveis falsos positivos e reforço de preconceitos estruturais.
Esses grupos destacam que os dados usados já carregam viés — como racismo e homofobia — e alertam que o uso institucional da IA pode amplificar esses problemas. A preocupação é que pessoas inocentes sejam rotuladas como perigosas por causa de características pessoais ou condições de saúde.
Governo afirma que uso será apenas para fins de pesquisa (por enquanto)
O Ministério da Justiça do Reino Unido garante que, por enquanto, o sistema será utilizado exclusivamente em pesquisas internas, com o objetivo de compreender melhor os riscos associados a reincidências em crimes violentos. Segundo a pasta, a IA foi treinada com dados de criminosos condenados, e não será aplicada de forma prática sem antes passar por avaliações éticas e técnicas.
Leave A Comment
You must be logged in to post a comment.