*Por Kashmir Hill e Gabriel J.X. Dance
As agências de aplicação da lei nos Estados Unidos e no Canadá estão usando a Clearview AI – uma startup de reconhecimento facial com um banco de dados de três bilhões de imagens – para identificar crianças vítimas de abuso sexual. É um caso poderoso de uso da tecnologia da empresa, mas levanta novas questões sobre a precisão da ferramenta e sobre como a empresa lida com os dados.
Continua depois da publicidade
Os investigadores dizem que as ferramentas da Clearview permitem que eles descubram o nome ou a localização de menores em fotos e vídeos em que são explorados, que de outra forma poderiam não ter sido identificados. Em um caso em Indiana, detetives publicaram imagens de 21 vítimas do mesmo criminoso por meio do aplicativo da Clearview e obtiveram 14 identificações, de acordo com Charles Cohen, ex-chefe da polícia estadual, que agora está aposentado. A mais nova tinha 13 anos.
"Eram crianças ou mulheres jovens, e queríamos encontrá-las para dizer que tínhamos prendido esse cara e ver se elas queriam prestar depoimentos", disse Cohen.
Outro funcionário, um oficial de identificação de vítimas no Canadá, que não estava autorizado a discutir investigações publicamente, descreveu a tecnologia da Clearview como "o maior avanço na última década" no campo dos crimes de abuso sexual infantil.
Continua depois da publicidade
Mas os defensores da privacidade dizem que o banco de dados da empresa não foi testado nem regulamentado, e pode causar novos tipos de danos. A Clearview armazena fotos enviadas por investigadores – conhecidas como imagens de investigação – em seus servidores, o que significa que pode acumular um conjunto de dados extraordinariamente sensível de crianças vítimas de abuso e exploração sexual.
"Entendemos a extrema sensibilidade envolvida na identificação de crianças. Nossa missão é protegê-las", escreveu o fundador da Clearview, Hoan Ton-That, em um e-mail.
De acordo com um documento da empresa distribuído aos clientes, "as buscas são mantidas para sempre" por padrão, mas os administradores podem alterar suas configurações de modo que as imagens da pesquisa sejam excluídas após 30 dias.
A Clearview operou de modo basicamente discreto até que uma reportagem do "The New York Times" no mês passado revelou seu uso por agências policiais locais e federais em todo o país. A empresa reuniu bilhões de fotos de indivíduos de toda a internet pública, incluindo sites como Facebook, Twitter, Venmo e YouTube. Quando um usuário envia a foto de uma pessoa para o Clearview, o aplicativo retorna outras imagens dessa pessoa e os endereços da web em que apareceram.
Continua depois da publicidade

Em inúmeros documentos publicitários, a Clearview promove o uso de sua tecnologia por oficiais da lei para resolver casos de abuso sexual infantil. Mas, até recentemente, a empresa se concentrava em seu papel na identificação de autores, não de vítimas.
Críticos da Clearview disseram que os benefícios de tal banco de dados não superam seus danos.
"É difícil. Todo mundo quer segurança e proteção às crianças. Há sempre alguma maneira de normalizar a vigilância, mas seria perigoso nos concentrarmos nas vantagens potenciais. O reconhecimento facial comete muitos erros", afirmou Liz O'Sullivan, diretora de tecnologia do Projeto de Supervisão de Tecnologia de Vigilância.
O'Sullivan disse que está preocupada com o fato de a precisão do software da Clearview não ter sido testada por uma agência independente. Os algoritmos de reconhecimento facial podem funcionar mal com os jovens, em parte porque o rosto deles muda à medida que envelhecem e em parte porque as crianças muitas vezes não estão incluídas nos conjuntos de dados usados para treinar os algoritmos.
O'Sullivan observou que, se a ferramenta fizer uma indicação incorreta, pode haver efeitos devastadores para crianças mal identificadas e a família delas. "A troca de liberdade e privacidade por algumas evidências precoces de que isso pode ajudar algumas pessoas é totalmente insuficiente para negociar nossas liberdades civis", declarou ela.
Continua depois da publicidade
A polícia precisa verificar cada identidade quando usa o aplicativo Clearview, escreveu Ton-That em seu e-mail. Mas ele não soube dizer quantas crianças estão em seu banco de dados.
"Não monitoramos idade, sexo ou raça no nosso banco de dados de imagem. Somos um mecanismo de busca de imagens públicas, não um sistema de vigilância", disse ele.
O aplicativo está sendo usado por forças-tarefa na Flórida, em Indiana e na Dakota do Sul dedicadas a investigar abuso infantil, bem como pelo Departamento de Segurança Interna e da polícia no Canadá.
Como vários oficiais que falaram com o "The Times", o investigador canadense estava relutante em discutir o Clearview, temendo que os infratores mudassem suas táticas. "Nossa preocupação é que, quando os bandidos souberem que isso está disponível, vão cobrir mais o rosto das vítimas. Não queremos que saibam que isso é possível", contou o oficial.
Continua depois da publicidade
Existem riscos legais associados ao manuseio desse tipo de imagem. Seria contra a lei a empresa receber imagens de abuso sem informar imediatamente as autoridades e sem excluir o material de seus servidores. Ton-That disse que o aplicativo da Clearview só transmite rostos, não imagens inteiras.
O "The Times" verificou esse comportamento analisando uma versão do aplicativo da Clearview para Android, mas não conseguiu analisar a versão para o iOS ou uma baseada na web.
Nenhuma das agências de aplicação da lei com as quais o "The Times" falou afirmou ter realizado uma auditoria técnica da Clearview antes de usar o software, nem respondeu a perguntas sobre o uso específico do aplicativo, dizendo que não comentavam técnicas investigativas.
Britney Walker, porta-voz da Unidade de Investigações de Exploração Infantil do Departamento de Segurança Interna, disse que colabora com agências externas para ajudar nas investigações, mas que a abordagem da unidade, que é "centrada na vítima", proíbe qualquer compartilhamento de imagens ilegais.
Continua depois da publicidade
"Sob nenhuma circunstância a agência compartilharia material de abuso sexual infantil com empresas privadas", afirmou Walker.
Outras empresas já trabalham em estreita colaboração com autoridades que investigam o abuso sexual infantil. Johann Hofmann, o executivo-chefe da Griffeye, disse que o software de análise de imagens da empresa foi instalado nas redes policiais e foi projetado para evitar o envio de imagens a terceiros, incluindo a próprio Griffeye.
Outra empresa que fornece ferramentas de análise a investigadores de abuso sexual infantil, a CameraForensics, também disse que seus sistemas foram projetados para nunca receber imagens vindas da polícia, incluindo rostos. O fundador da empresa, Matt Burns, contou que sua empresa considerou incorporar tecnologia de reconhecimento facial em seu software, mas decidiu não o fazer por "razões éticas".
Desde que as práticas da Clearview vieram à tona, Facebook, LinkedIn, Twitter, Venmo e YouTube enviaram à empresa cartas exigindo que esta interrompesse esse trabalho, pedindo-lhe que parasse de coletar fotos de seus sites e que excluísse as imagens existentes em seu banco de dados. O procurador-geral de Nova Jersey proibiu o uso da Clearview por oficiais do estado e pediu uma investigação sobre como a empresa e tecnologias similares estavam sendo usadas pela polícia. Uma ação coletiva pedindo certificação foi movida em Illinois, onde uma forte lei de privacidade biométrica proíbe o uso de impressões faciais dos residentes sem o consentimento deles, e outra foi apresentada em três de fevereiro na Virgínia.
Continua depois da publicidade
Projetos de lei que proíbem o uso do reconhecimento facial pela polícia foram recentemente introduzidos em Nova York e Washington. E a Clearview recebeu uma carta do senador Edward Markey, democrata de Massachusetts, pedindo uma lista de agências policiais que usaram o aplicativo e querendo saber se informações biométricas de crianças menores de 13 anos foram coletadas.
"Embora esse tipo de tecnologia exista há algum tempo, acreditamos que criamos algo que permite que a polícia resolva crimes antes insolúveis e, mais importante, proteja crianças vulneráveis. Ao mesmo tempo, estamos respondendo a pedidos de informações do governo e de outras partes interessadas conforme apropriado, e esperamos participar de discussões construtivas com eles enquanto trabalhamos para tornar nossas comunidades mais seguras", disse Ton-That em seu e-mail.
The New York Times Licensing Group – Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização por escrito do The New York Times.