Ação quer vedar o uso de tecnologias de reconhecimento facial pelo Metrô de São Paulo
Por comunicainter em
Com o objetivo de impedir que os 4 milhões de usuários e usuárias diários do Metrô de São Paulo continuem a ter informações sobre seus rostos coletadas, mapeadas e monitoradas por meio de reconhecimento facial, organizações da sociedade civil e defensorias protocolaram uma Ação Civil Pública nesta quinta-feira (3). Assinam a ação a Defensoria Pública do Estado de São Paulo, Defensoria Pública da União, Instituto Brasileiro de Defesa do Consumidor (Idec), Intervozes – Coletivo Brasil de Comunicação Social, ARTIGO 19 Brasil e América do Sul e Coletivo de Advocacia em Direitos Humanos – CADHu .
As entidades alertam que o sistema de reconhecimento facial implementado pelo Metrô de SP não atende aos requisitos legais previstos na Lei Geral de Proteção de Dados (LGPD), no Código de Defesa do Consumidor, no Código de Usuários de Serviços Públicos, no Estatuto da Criança e do Adolescente, na Constituição Federal e nos tratados internacionais.
“O reconhecimento facial implementado pelo metrô obtém um dado pessoal biométrico e insubstituível, que é a informação sobre nosso rosto. O metrô tem feito isso violando praticamente todas as leis sobre a matéria, da LGPD ao ECA, passando pela Constituição e pelos tratados internacionais”, diz Eloísa Machado, professora da FGV e uma das advogadas da ação.
A Ação Civil Pública é resultado da análise dos documentos apresentados pelo Metrô de São Paulo no âmbito de uma ação judicial anterior que cobrava informações sobre a implementação do projeto que custou mais de R$ 50 milhões aos cofres públicos e que, entre outras medidas, envolveu a previsão de realização de reconhecimento facial em quem utilizasse o meio de transporte.
“A ineficácia da tecnologia, agressiva e invasiva por natureza, além de produzir ações discriminatórias contra os passageiros, pode piorar a já precarizada experiência do usuário de transporte público, que pode ter seu longo e cansativo trajeto diário interrompido em virtude de ‘falsos positivos’, gerando inclusive mais insegurança ao usuário”, afirma Diogo Moyses, coordenador do programa de Direitos Digitais do Idec. “Sem informações precisas, também é questionável a prioridade de se gastar milhões em um monitoramento falho em vez de investir na necessária melhoria e expansão do sistema de transportes sobre trilhos”, complementa Estela Guerrini, defensora pública e coordenadora do Núcleo Especializado de Defesa do Consumidor da Defensoria Pública do Estado.
Parte central da ação aponta que as tecnologias de reconhecimento facial elevam exponencialmente o risco de discriminação de pessoas negras, não binárias e trans, já que esse tipo de tecnologia é reconhecidamente falho em sua acurácia e imerso em ambiente de racismo estrutural. Mesmo os melhores algoritmos possuem pouca precisão ao realizar o reconhecimento de pessoas negras e transgênero, que são mais afetadas por falsos positivos e falsos negativos e ficam mais expostas a constrangimentos e violações de direitos. “O resultado discriminatório da tecnologia de reconhecimento facial é insolúvel e reflete o enviesamento presente na própria base de dados que alimenta essa tecnologia, já que é elaborada e desenvolvida por alguns poucos homens cis e brancos de multinacionais que controlam a sua venda para o restante do mundo”, afirma Isadora Brandão, defensora pública e coordenadora do Núcleo Especializado de Defesa da Diversidade e da Igualdade Racial da Defensoria Pública do Estado.
“A realização de reconhecimento facial dos usuários do metrô coleta de forma massiva dados biométricos sem consentimento, uma medida desproporcional que instala um sistema de vigilância em massa. Ela inaugura um caminho sem volta para a normalização e de uma sociedade vigiada, cada vez mais vulnerável a inclinações autoritárias de governos que passam a ter um controle sem precedentes da vida dos cidadãos”, afirma Pedro Ekman, coordenador executivo do Intervozes.
A ação também questiona o uso de imagem e a coleta e tratamento de dados pessoais sensíveis de crianças e adolescentes, sem que haja o consentimento dos pais ou responsáveis, em frontal violação ao que determina a LGPD, o ECA e a proteção constitucional. “Além disso, como as crianças crescem e seus rostos mudam rapidamente, sabe-se que a chance de acerto do sistema de reconhecimento facial em crianças é pequena, caindo por terra o argumento de que esse sistema possibilitaria a localização de crianças desaparecidas”, complementa Daniel Secco, defensor público e coordenador do Núcleo Especializado da Infância e Juventude, da Defensoria Pública do Estado.
As organizações apontam que a iniciativa está na contramão de medidas de outros países, em especial na Europa e nos EUA, que apontam para uma restrição no uso massivo desse tipo de tecnologia, pelo seu caráter invasivo e seu potencial de estabelecer um cenário de vigilância e monitoramento das pessoas que transitam em espaços públicos. Nos últimos anos, empresas como Microsoft, IBM e Amazon também informaram que vão suspender a venda de soluções de reconhecimento facial para o uso policial, por potencial violação aos direitos humanos.
“Ainda que houvesse um compromisso em ‘melhorar’ o desempenho dessas ferramentas, isso não seria suficiente para tornar o seu uso massivo seguro e compatível com os Direitos Humanos – nesse sentido, para que ocorresse o reconhecimento facial com maior exatidão, a população que transita nos espaços monitorados estaria mais vulnerável ainda a ser rastreada, por exemplo. Em determinados casos, isso pode atingir até mesmo o exercício do direito de protesto. Dessa forma, é necessário que esses usos sejam interrompidos e banidos”, pontua Sheila de Carvalho, coordenadora do Centro de Referência Legal da Artigo 19 Brasil e América do Sul. “Trata-se de uma ação judicial que se torna pioneira ao questionar o Poder Judiciário sobre o uso de reconhecimento facial em lugares públicos e acessíveis ao público, tecnologia que vem sendo implementada de forma massiva e indiscriminada por todo o Brasil”, conclui.
A ação ainda demanda que a Justiça determine que o Metrô interrompa imediatamente a realização de reconhecimento facial em suas dependências e, além disso, pleiteia o pagamento de indenização de pelo menos R$ 42 milhões (valor previsto no contrato para implementação dessa tecnologia) em decorrência dos danos morais coletivos pelo prejuízo causado aos direitos de seus passageiros e passageiras.