PT: Opinião — Inteligência Artificial na videovigilância

 
Surveillance.jpeg
 

No dia 7 deste mês, a SIC Notícias transmitiu uma reportagem curta (2.5min) sobre uma iniciativa promovida pelo Ministro da Administração Interna Eduardo Cabrita, de instalação de sistemas de videovigilância com inteligência artificial (I.A.) em Leiria e Portimão. Em Leiria, as 19 câmaras existentes seriam complementadas com mais 42, e em Portimão o sistema seria instaurado com 61 câmaras. O sistema de I.A. conseguiria identificar detalhes como “cor do cabelo e roupa”, e traria "avanços importantes para a segurança e percepção de segurança” da população segundo o Ministro. 

HAL.jpg

A notícia acrescenta que a Comissão Nacional de Protecção de Dados (CNPD) emitiu um parecer negativo para esta iniciativa, argumentando que a iniciativa apresenta um “elevado risco para a privacidade dos cidadãos, não só pela quantidade e tipo de informação que é possível recolher” e que “em ponto nenhum se justifica a necessidade específica desta tecnologia e funcionalidade”.

A meio do meu jantar, subi o volume da televisão. Os respectivos presidentes de câmara diziam que o uso de inteligência artificial era promovido pela PSP, mas afinal o projecto não estava fundamentado de todo neste aspecto. 

Quero desde já estabelecer: não tenho nada contra a videovigilância enquanto medida interventiva. Bem implementada (e vi um parecer fantasticamente argumentado pela CNPD), esta ferramenta pode aumentar a percepção de segurança de uma região, apesar de só o facto de haver câmaras apontadas a nós já mudar a forma como nos vamos comportar em público.

O que me incomodou foi o uso a despropósito de uma tecnologia que soa a filme futurista, mas consiste só em software que analisa o vídeo capturado, identifica indivíduos e comportamentos, e pode produzir relatórios que ajudam seres humanos a tomar decisões (como aumentar o volume de patrulhas de polícia em certas zonas).

Os sistemas de inteligência artificial usados por forças policiais tendem a estar montados de forma bastante simples: identificam comportamentos duvidosos, perguntam a um ser humano “achas que isto é perigoso?”, e vão aprendendo a que é que devem estar atentos. Se cometerem um erro (marcar um comportamento duvidoso como perigoso, avisar agentes que constatam que foi falso alarme, ou o inverso), nenhum ser humano lhes vai dizer “enganaste-te, para a próxima não arrisques tanto”. Estes sistemas tornam-se formas automatizadas dos estereótipos inconscientes de quem os treinou.

Bunny cop.png

Nos EUA, o sistema PredPol encontra padrões geográficos de maiores relatos de crimes, e sugere maior policiamento nas zonas afectadas. Mais agentes na zona levam a mais relatos — tanto de grandes como pequenos delitos — e mais relatos levam a mais policiamento. O ciclo auto-sustenta-se, com zonas consideradas progressivamente piores sem ninguém entender bem porquê.

Já na África do Sul, sistemas semelhantes usados por empresas privadas tendem a tornar a segregação racial no país mais vincada ainda (ao empurrar o crime dos bairros “brancos” privilegiados para os bairros de lata maioritariamente “negros”). Os sistemas, treinados por profissionais com viéses raciais inconscientes, identificam carteiros, trabalhadores de construção civil e técnicos de electricidade de raça negra automaticamente como perigosos disparando alertas para guardas, enquanto comportamentos problemáticos por pessoas brancas não disparam avisos tão facilmente; o sistema não aprende que se enganou e persiste.

Estes sistemas podem definitivamente trazer maior qualidade ao policiamento e à segurança pública se forem bem implementados, e estiverem desenhados para aprender com os próprios erros. Mas perante a total ausência de argumentos em favor da tecnologia, que parece sinalizar ignorância sobre o assunto por todos os proponentes e envolvidos, para já ainda ficamos mais bem entregues a seres humanos aborrecidos em frente a ecrãs.