Páginas

30 maio, 2018

Paisagens áridas

A Polícia Metropolitana de Londres acredita que seu software de inteligência artificial (AI) será útil na tarefa de detectar imagens de abuso infantil nos próximos dois ou três anos. Mas, em seu estado atual, o sistema não consegue distinguir a diferença entre uma foto de um deserto e uma foto de um corpo nu.
A polícia londrina já se baseia na AI para ajudar a flagrar conteúdo incriminatório em dispositivos eletrônicos apreendidos, usando o software de reconhecimento de imagem para escanear imagens de drogas, armas e dinheiro. Mas quando se trata de nudez, o sistema não é confiável.
"Às vezes, surge um deserto e o sistema interpreta como uma imagem indecente ou pornografia", afirmou para The Telegraph, Mark Stokes, chefe do departamento de eletrônicos e digitais da polícia. "Por algum motivo, muitas pessoas têm protetores de tela com imagens de desertos e ele detecta-os 'pensando' que é a cor da pele".


Mesmo quando os seres humanos supervisionam os sistemas automatizados os resultados são imperfeitos. No ano passado, um moderador do Facebook removeu uma fotografia vencedora de Pulitzer de uma jovem nua que foge do local de ataques de napalm durante a Guerra do Vietnã, que teria sido sinalizado por um algoritmo. A empresa mais tarde restaurou a imagem e admitiu que não era pornografia infantil.
As máquinas não têm a capacidade de entender as nuances humanas, e o software do departamento ainda não demonstrou que pode mesmo diferenciar com sucesso o corpo humano de paisagens áridas. E, como vimos com a controvérsia da fotografia ganhadora do Pulitzer, as máquinas também não são ótimas para entender a gravidade ou o contexto das imagens nuas de crianças.

Nenhum comentário:

Postar um comentário