top of page

Um algoritmo pode evitar assassinatos?

Por David Edmonds

Fonte: BBC


Em julho de 2013, um homem de 44 anos chamado Bijan Ebrahimi foi esfaqueado e espancado até a morte em Bristol, uma cidade no sul da Inglaterra. Seu assassino, um vizinho, derramou gasolina em seu corpo e ateou fogo a ele a cerca de 100 metros de sua casa.


Ebrahimi, que nasceu no Irã, mas residiu no Reino Unido por mais de uma década, quando chegou ao país como refugiado, foi falsamente acusado pelo assassino de ser pedófilo.

Em 73 ocasiões, durante um período de oito anos, Ebrahimi relatou à polícia que estava sendo vítima de crimes de motivação racial.

Suas queixas não foram ouvidas e um relatório sobre sua morte concluiu que tanto o Conselho Municipal de Bristol quanto a polícia eram culpados de racismo institucional.


Bijan Ebrahimi denunciou a polícia mais de 70 vezes como vítima de crimes de ódio.
Bijan Ebrahimi denunciou a polícia mais de 70 vezes como vítima de crimes de ódio.

"Foi um ponto de virada em termos de dados", diz Jonathan Dowey, que dirige um pequeno grupo de analistas de dados nas forças policiais de Avon e Somerset, responsáveis ​​por Bristol e outras áreas rurais da região.

A pergunta que a polícia começou a fazer foi: "Podemos usar nossos dados de maneira mais inteligente?"


Uma investigação sobre a liberdade de informação do grupo para os direitos civis Liberty descobriu recentemente que pelo menos 15 forças policiais no Reino Unido usaram ou planejam usar algoritmos - fórmulas matemáticas computacionais - para combater o crime. E é provável que em poucos anos todas as forças policiais do país usem esse método.


Nos Estados Unidos, a polícia de Chicago , a cidade com a maior taxa de criminalidade, já faz isso; é um algoritmo que atribui pontuações com base em prisões, tiros, afiliações a gangues e outras variáveis ​​para prever a probabilidade de bater ou tirar uma foto.

Eles também foram usados ​​na Itália para combater a máfia.

Após a morte de Ebrahimi, a polícia de Avon e Somerset começou a experimentar software para ver se eles poderiam identificar os riscos dos agressores, mas também das vítimas em potencial.


Quando, onde e quem?


Os seres humanos são suscetíveis a todos os tipos de preconceitos. E, ao contrário dos computadores, não somos bons em detectar padrões; por exemplo, se houver várias chamadas do mesmo endereço.

Quando a polícia de Bristol subsequentemente executou um modelo preditivo para ver se a tragédia havia sido evitada, a liderança de Ebrahimi entrou no sistema como uma das dez principais preocupações.

Diferentes forças policiais no país estão testando diferentes algoritmos.

A polícia de West Midlands - que lida com os condados metropolitanos da Inglaterra - usa softwares para detectar padrões entre crimes e épocas do ano, dias, semanas e horas em que são cometidos. O de West Yorkshire, outro condado no norte do país, usa um sistema para prever áreas de alto risco.


Durham, no nordeste da Inglaterra, estava cooperando com a Universidade de Cambridge em um programa para projetar um algoritmo capaz de prever se uma pessoa presa por um crime provavelmente retornaria ao crime ou se seria seguro retornar à sua comunidade. O algoritmo permite que a polícia use alternativas para operações caras e muitas vezes frustradas.


Quanto à polícia da Avon e da Somerset, agora ela usa algoritmos para todo tipo de coisa. Um deles é usado para descobrir que medidas tomar para encontrar pessoas desaparecidas. Outra é uma aplicação sobre as milhares de chamadas recebidas todos os dias, o que lhes permitiu reduzir a percentagem de chamadas não atendidas de 20% para 3%.

"Estamos enfrentando uma tempestade de dados", diz Jonathan Dowey. "Não é mais viável ter um exército de humanos tentando determinar os riscos e vulnerabilidades por conta própria."


O que preocupa


O público pode não estar ciente de como os algoritmos estão penetrando em todos os aspectos do sistema judicial - incluindo, por exemplo, um papel na sentença e determinar se os prisioneiros estão em liberdade condicional - mas grupos de direitos civis estão cada vez mais alarmados .


Hannah Couchman, da Libery, diz que "no que diz respeito às ferramentas de vigilância preditiva, seu uso deve cessar ".

Uma das preocupações tem a ver com a supervisão humana. A polícia de Avon e Somerset diz que, em suma, os algoritmos são apenas informativos e que os humanos sempre têm a decisão final .


No entanto, embora esta seja a prática usual, é muito provável que, à medida que as forças policiais (fora e dentro do Reino Unido) se acostumem ao uso de algoritmos, a dependência delas cresça.

Não é uma analogia exata, mas os motoristas que usam sistemas de navegação por satélite acabam acreditando que o GPS sabe mais do que eles.

Outra preocupação tem a ver com transparência .

Algoritmos relatam decisões importantes sobre a vida das pessoas, mas se o computador sugere que alguém está em alto risco de cometer um crime novamente, a justiça exige que o processo pelo qual isso é calculado não seja apenas acessível aos seres humanos. , mas também objeto de recurso.


Outro problema ainda mais espinhoso é o chamado viés dos algoritmos. Os algoritmos são baseados em dados do passado, que foram coletados por seres humanos que também podem ser influenciados. Como resultado, teme-se que eles possam consolidar esse viés.

Há muitas maneiras pelas quais isso pode acontecer. Suponha, por exemplo, que um dos fatores de risco de um algoritmo seja "afiliação a gangues" .

A polícia pode interpretar o comportamento entre jovens negros e brancos de forma diferente, e também pode ser mais provável que identifiquem homens negros como membros de gangues. Esta prática discriminatória pode ser introduzida no software.


As variáveis


Quais variáveis ​​devem ser incluídas em um algoritmo? É uma questão controversa.

A maioria dos especialistas em sistemas policiais concorda em excluir a raça. Mas e quanto a sexo ou idade? O que torna uma variável mais tendenciosa do que outra? E o código postal? Por que alguém deveria ser analisado com base na área em que vive, não é discriminatório em relação a certos bairros?

O criminologista americano Lawrence Sherman, que leciona na Universidade de Cambridge, no Reino Unido, está obcecado com essa questão desde os anos 60, quando ocorreram ataques brutais a ativistas dos direitos civis nos Estados Unidos.

Sherman, que é uma figura importante na busca por policiamento baseado em evidências, admite que, ao excluir certos fatores, como raça ou código postal, a precisão do algoritmo pode ser comprometida.

Mas ele diz que você tem que tornar o algoritmo "menos preciso em um grau menor e mais legítimo em um grau muito maior".

O que é notável é que não há legislação específica para gerenciar o uso de algoritmos policiais.

Se os algoritmos policiais não forem realizados corretamente, escândalos e injustiças podem ser gerados. Se forem bem feitos, esperam grandes benefícios.

Peter Neyroud um ex-chefe de polícia, que agora trabalha no Instituto de Criminologia na Universidade de Cambridge, disse que sua agência analisa sugerem que "é esperado apenas 2,2% dos atacantes (no Reino Unido) para cometer outro crime no futuro". Se pudéssemos identificar precisamente essa pequena porcentagem, a população encarcerada poderia ser drasticamente reduzida.

As causas de um crime são complexas, mas desde que a polícia de Bristol começou a usar os algoritmos, houve uma queda de 11% nos relatos de pessoas desaparecidas e 10% em roubos.

Em relação ao problema de viés algorítmico, o cenário é otimista. Teoricamente - e esperamos que também na prática - pudéssemos reduzir o impacto do preconceito humano.Tomemos o caso de Bijan Ebrahimi como um exemplo. A polícia não reconheceu o perigo que um algoritmo poderia ter destacado; Em outras palavras, os algoritmos podem salvar vidas.

60 visualizações0 comentário
bottom of page