Em julho deste ano, diversas organizações da sociedade civil, incluindo o Intervozes, assinaram uma declaração conjuntura reforçando a importância de uma intervenção estrutural para mitigar os impactos raciais discriminatórios das novas tecnologias digitais.

Leia a declaração na íntegra abaixo.

Declaração conjunta da sociedade civil: É necessário fazer uma intervenção estrutural para mitigar os impactos raciais discriminatórios das tecnologias digitais emergentes, incluindo a Inteligência Artificial

Como os protestos que recentemente se disseminaram deixaram evidente, a desigualdade racial continua a ser um assunto devastador e urgente em todo o mundo, e isso é verdade no contexto da tecnologia como em todos os demais. Na verdade, pode ser até mais verdadeiro no contexto tecnológico, uma vez que as tecnologias algorítmicas baseadas em big data são empregadas em uma escala antes inimaginável, reproduzindo os sistemas discriminatórios que as criam e governam.

As organizações abaixo assinadas saúdam a publicação do relatório “Racial Discrimination and Emerging Digital Technologies: A human rights analysis” [Discriminação racial e tecnologias digitais emergentes: uma análise dos direitos humanos], de E. Tendayi Achiume, Relatora Especial das Nações Unidas sobre formas contemporâneas de racismo, discriminação racial, xenofobia e intolerância relacionada, e desejam enfatizar a importância e a atualidade de diversas recomendações do relatório:

1. As tecnologias que tiveram ou terão impactos raciais discriminatórios significativos devem ser banidas imediatamente.

Embora, em certos contextos, abordagens regulatórias graduais possam ser adequadas, naqueles em que se consegue demonstrar a probabilidade de uma tecnologia causar danos racialmente discriminatórios, ela não deve ser utilizada até que esse dano possa ser evitado. Além disso, algumas tecnologias podem continuar a ter impactos raciais díspares, não importa quanto melhore sua precisão. Atualmente, entre as tecnologias racialmente discriminatórias estão a tecnologia de reconhecimento facial e emocional, assim como as chamadas análises preditivas. Apoiamos o apelo da Relatora Especial Achiume para que avaliações obrigatórias de impacto nos direitos humanos sejam pré-requisito para a adoção de novas tecnologias. Também acreditamos que, caso essas avaliações revelem que uma tecnologia tem alta probabilidade de impactos raciais díspares e prejudiciais, os Estados devem impedir seu uso por meio de proibição ou suspensão. Concordamos com a Relatora Especial no elogio de proibições municipais recentes, como sobre o uso da tecnologia de reconhecimento facial, e incentivamos os governos nacionais a adotar políticas semelhantes. Da mesma forma, reiteramos nosso apoio à imposição pelos Estados de uma suspensão imediata do comércio e do uso de ferramentas de vigilância desenvolvidas na esfera privada até que os Estados adotem salvaguardas apropriadas, e parabenizamos a Relatora Especial Achiume por aderir a essa demanda.

2. A inclusão e a representação de gênero, ao lado das de identidades raciais, nacionais e outras identidades interseccionais, devem ser radicalmente melhoradas em todos os níveis do setor de tecnologia.

O racismo e a discriminação estruturais que, segundo o relatório identifica, são endêmicos no campo da tecnologia (como também são endêmicos em muitas, se não em todas as facetas das sociedades do mundo inteiro) não podem ser remediados se as equipes que concebem, desenvolvem e promovem as soluções tecnológicas não entenderem e não representarem as preocupações daqueles que serão impactados por elas. Quando implementadas, essas mudanças demográficas devem ser profundas: os esforços anteriores de “diversidade” e “inclusão” da indústria muitas vezes foram meras tokenizações de grupos sub-representados. Para ser significativa, a melhoria deve compreender transformações consideráveis nas estruturas de poder da indústria e nos modelos e fluxos de financiamento, mudanças culturais no ambiente de trabalho e a reavaliação de linhas de produto atuais e futuras que possam ser usadas para perseguir comunidades racialmente marginalizadas e outras populações vulnerabilizadas.[1]

3. Especialistas em tecnologia não podem resolver problemas políticos, sociais e econômicos sem a participação de especialistas na respectiva área e daqueles pessoalmente afetados.

As últimas décadas foram dominadas pelo “tecnochauvinismo”, isto é, pela ideia de que a tecnologia poderia, sozinha, resolver os problemas sociais.[2] Mas, como a Relatora Especial Achiume corretamente observa, nenhum modelo algorítmico, por mais “perfeito” que seja, vai resolver séculos de desigualdade. Por isso, a concepção e o desenvolvimento de tecnologias devem incluir de maneira efetiva especialistas na área (inclusive pondo aqueles com experiência pessoal ao lado daqueles com conhecimento profissional e acadêmico). Esses especialistas não devem ser consultados brevemente no final do desenvolvimento de um produto, ou pior, depois de seus impactos negativos já terem sido sentidos, mas devem ser integrados ao processo de desenvolvimento. Além disso, devem ser recompensados por sua contribuição. Isso é especialmente importante em setores sensíveis, como educação, justiça criminal e serviços sociais, que no passado adotaram tecnologias apesar de falhas e vieses que eram evidentes para especialistas no respectivo campo. Ademais, esses especialistas são capazes de ajudar a identificar como tecnologias bem-intencionadas podem ser distorcidas ou mal utilizadas na prática, exacerbando desigualdades e danos sociais em vez de realmente atenderem às necessidades da comunidade.

4. Em relação à discriminação racial, o acesso à tecnologia é um tema tão urgente quanto a desigualdade na concepção das próprias tecnologias.

A exclusão digital ilustra a interseccionalidade da discriminação tecnológica, e a pandemia da Covid-19 deu especial relevo a essa questão. Há um fosso entre Sul global e Norte global na infraestrutura digital que pode ser usada para proporcionar acesso remoto ao cuidado médico, à educação e a muito mais. No entanto, mesmo nos chamados países “desenvolvidos”, os pobres e demais comunidades marginalizadas carecem de acesso às ferramentas necessárias. Também há exclusões digitais dentro dos estados do Sul global. Não alcançamos a meta 9(c) dos Objetivos de Desenvolvimento Sustentável: fazer com que todas as pessoas nos países menos desenvolvidos estivessem online até 2020. À medida que as sociedades dependerem mais das intervenções tecnológicas, essas exclusões vão ter sua importância aprofundada e vão constituir ameaças à vida de pessoas ao redor do mundo.

5. Dados representativos e desagregados são uma condição necessária para a equidade racial nas tecnologias digitais emergentes, mas eles devem ser coletados e gerenciados de maneira equitativa.

Saudamos o apelo da Relatora Especial Achiume para que os “Estados coletem, compilem, analisem, disseminem e publiquem dados estatísticos confiáveis desagregados em termos raciais ou étnicos”. No entanto, apesar de avanços relevantes em leis de proteção de dados em todo o mundo, ainda não foram disseminados padrões adequados para a coleta não extrativa de dados e sua governança. A história – e o atual estado – da coleta de dados está repleta de exemplos de exploração de populações marginalizadas, e os dados assim coletados costumam ser gerenciados de tal maneira que são com muita frequência usados para ainda mais perseguição e abuso. Defendemos que seja feito um esforço, do qual tomaríamos parte com prazer, para desenvolver esses padrões, que deveriam incluir medidas para garantir que os dados sejam tanto realmente representativos quanto respeitosos, não reforçando hierarquias raciais e de outro tipo existentes; deveriam abordar as dinâmicas de poder entre quem coleta dados e aqueles cujos dados são coletados, inclusive as relacionadas ao consentimento informado; e deveriam fornecer salvaguardas para prevenir que esses dados sejam usados por atores malignos para oprimir ainda mais as pessoas marginalizadas.

6. Tanto os Estados quanto as corporações deveriam fornecer compensações pela discriminação racial, inclusive reparações.

Os signatários acompanharam com interesse o relatório anterior da Relatora Especial Achiume sobre o papel central das reparações para compensar os muitos anos de opressão socioeconômica durante e depois do colonialismo e da escravidão. Nesse relatório, a Relatora Especial observa, com razão, que Estados e empresas que se envolveram ou supervisionaram o desenvolvimento e a utilização de tecnologias digitais emergentes que introduziram novos casos de discriminação racial ou aprofundaram desigualdades existentes são obrigados a participar de processos de reparação e proporcionar compensações adequadas. Dada a interação entre privilégio econômico e acesso à tecnologia, e levando em conta os ambientes em que ela é projetada e regulamentada, queremos enfatizar a conexão entre os dois relatórios e incentivar os gigantes da tecnologia cujos lucros recordes resultam ao menos em parte dessa desigualdade a agir de acordo com seus comprometimentos públicos com a não discriminação. Isso inclui Estados e empresas de tecnologia firmarem um compromisso sério com a avaliação de seu papel na manutenção de estruturas raciais de poder e darem os passos necessários para desmantelá-las.

Signatários:

Access Now
AI Now Institute
Anistia Internacional
Association for Progressive Communications (APC)
Digital Freedom Fund
Internet Sans Frontières
Intervozes – Coletivo Brasil de Comunicação Social
Rashida Richardson, pesquisador visitante da Rutgers Law School
AfroLeadership
AFROTECTOPIA
AI for the People
Asociación TEDIC
ASUTIC Senegal
Centre for Human Rights, University of Pretoria
Derechos Digitales · América Latina
Fundación Karisma
Instituto Nupef
World Wide Web Foundation
Entre outras organizações (lista completa no link da UCLA)

Notas:

[1] https://onezero.medium.com/the-seductive-diversion-of-solving-bias-in-artificial-intelligence-890df5e5ef53

[2] https://www.theverge.com/2018/5/23/17384324/meredith-broussard-artifical-unintelligence-technology-criticism-technochauvinism

Foto: Jared Rodriguez, licença CC BY-NC-ND 2.0 (https://flic.kr/p/2hdBPEG)

Declaração originalmente publicada em https://www.c2i2.ucla.edu/2020/07/15/joint-civil-society-statement-interventions-to-mitigate-the-racially-discriminatory-impacts-of-emerging-tech-including-ai/