Intervozes integra uma ação conjunta com mais de 70 organizações fazendo um chamado para o tornar seus procedimentos de remoção de conteúdo mais transparentes e garantir um mecanismo de apelação para os usuários.  Leia abaixo a carta completa.

Prezado Mark Zuckerberg:

O que o Museu de Arte da Filadélfia, um parlamentar dinamarquês, e um âncora de telejornal das Filipinas têm em comum? Todos eles foram alvo da aplicação indevida dos Padrões da Comunidade Facebook. Porém, ao contrário do usuário comum, estes indivíduos e entidades receberam atenção da mídia, foram capazes de entrar em contato com membros da equipe do Facebook e, em alguns casos, receberam um pedido de desculpa e tiveram seu conteúdo restaurado. Para a maioria dos usuários, o conteúdo que o Facebook retira do ar é raramente restaurado e eles podem ainda ser banidos da plataforma mesmo em caso de um erro.

Quando o Facebook inicialmente apareceu em nossas telas, os usuários que violavam suas regras e tinham seu conteúdo removido ou suas contas desativadas recebiam mensagens dizendo que a decisão era definitiva e que não haveria apelação. Foi somente em 2011, depois de anos de incidência das organizações de direitos humanos, que sua empresa adicionou um mecanismo de apelação no caso da desativação de contas, e somente em 2018 que o Facebook iniciou um processo para remediar remoções equivocadas de certos tipos de conteúdo. Essas apelações estão disponíveis para posts removidos por nudez, atividade sexual, discurso de ódio ou violência gráfica.

Este é um avanço positivo, mas não é o suficiente.

Hoje, nós, organizações da sociedade civil abaixo assinadas, fazemos um chamado ao Facebook para que disponibilize mecanismo por meio do qual todos os usuários possam apelar diante de restrições de conteúdo, e, que em todos os casos, a decisão apelada seja revisada novamente por um moderador humano.

A missão declarada do Facebook é a de dar poder às pessoas para construírem comunidades e unirem o mundo. Com mais de dois bilhões de usuários e uma grande variedade de funções, o Facebook é a maior plataforma de comunicação do mundo. Nós sabemos que você reconhece a responsabilidade que carrega em prevenir abusos e manter os usuários em segurança. Como você sabe, as empresas de mídias sociais, incluindo o Facebook, têm responsabilidade em respeitar os direitos humanos, e organismos regionais e internacionais de direitos humanos têm numerosas recomendações específicas para que haja melhora, notavelmente em relação ao direito ao recurso.

O Facebook segue muito atrás dos seus competidores quando se trata de oferecer o devido processo aos seus usuários. 0^ Anos de pesquisa e documentação já nos permitem saber que moderadores de conteúdo humanos, assim como algoritmos de machine learning, são propensos a erros, e que mesmo baixas taxas de erro podem resultar em milhões de usuários silenciados quando operados em escala massiva. Ainda assim, usuários do Facebook só conseguem apelar das decisões em um conjunto limitado de circunstâncias, além de ser impossível saber quão disseminados são os erros na retirada de conteúdos sem que haja maior transparência por parte do Facebook. 0^

Reconhecendo que o Facebook pode e deve moldar seus Padrões da Comunidade de acordo com seus valores, a empresa, no entanto, tem a responsabilidade de respeitar a expressão de seus usuários da melhor maneira possível. Ademais, organizações da sociedade civil ao redor do mundo têm criticado a forma pela qual os Padrões da Comunidade Facebook são tendenciosos e aplicados de maneira desigual em diferentes idiomas e contextos culturais. Oferecer um mecanismo de recurso, assim como mais transparência, será um grande avanço no sentido de apoiar a expressão dos usuários.

No começo deste ano, um grupo de pessoas da sociedade civil e da academia apresentou os Princípios de Santa Clara sobre Transparência e Accountability em Moderação de Conteúdo, que recomendou um conjunto mínimo de padrões para a transparência e apelações substantivas. Este conjunto de recomendações é consistente com o trabalho do Relator Especial das Nações Unidas para a promoção do direito à liberdade de expressão e opinião David Kaye, que recentemente fez um chamado por um “modelo de moderação de conteúdo online gerado por usuários que coloque os direitos humanos como eixo central”. É também consistente com os “Princípios Orientadores sobre Empresas e Direitos Humanos”, que articulam as responsabilidades das empresas com os direitos humanos.

Especificamente, nós pedimos ao Facebook que incorpore os Princípios de Santa Clara em suas políticas e práticas de moderação de conteúdo para prover:

Notificação: Explicar claramente aos usuários porque seu conteúdo foi restringido.

  • As notificações devem incluir a cláusula específica dos Padrões da Comunidade supostamente violada pelo conteúdo removido.
  • A notificação deve ser suficientemente detalhada para permitir que o usuário identifique o conteúdo que foi restringido, devendo incluir também informação sobre como o conteúdo foi detectado, avaliado e removido.
  • Os indivíduos devem ter acesso à informação clara sobre como apelar da decisão.

Apelações: Dar aos usuários a oportunidade de apelar contra decisões de moderação de conteúdo

  • Os mecanismos de apelação devem estar facilmente acessíveis e serem fáceis de usar.
  • As apelações devem ser submetidas à revisão por uma pessoa ou painel de pessoas que não se envolveram na decisão inicial.
  • Os usuários devem ter o direito de propor novas provas ou materiais para serem considerados na revisão.
  • As apelações devem resultar em uma rápida determinação e resposta ao usuário.
  • Quaisquer exceções ao princípio das apelações universais deve ser claramente divulgada e compatível com princípios internacionais de direitos humanos.
  • O Facebook deve colaborar com outros setores para desenvolver novos mecanismos independentes de auto-regulação para as mídias sociais que confiram maior prestação de contas de suas atividades (accountability).0^

Números: Emitir relatórios periódicos de transparência sobre a aplicação dos Padrões da Comunidade.

  • Apresentar dados completos descrevendo as categorias de conteúdos de usuário que são restringidas (texto, foto ou vídeo; violência, nudez, violações de direitos autorais, etc.), assim como o número de peças de conteúdo que foram restringidas ou removidas em cada categoria.
  • Incorporar dados sobre quantas ações de moderação de conteúdo foram iniciadas por uma denúncia de usuário, um programa de denúncias de usuários confiáveis, ou pela aplicação proativa dos Padrões da Comunidade (como as que se utilizam de algoritmos de machine learning).
  • Incluir dados sobre o número de decisões que foram objeto de apelações efetivas ou, ao contrário, fruto de equívoco.
  • Incluir dados que revelem se a empresa realiza alguma auditoria proativa de suas decisões de moderação que não foram objeto de apelação, assim como as taxas de erro identificadas pela empresa.

Article 19, Electronic Frontier Foundation, Center for Democracy and Technology, and Ranking Digital Rights
7amleh – Arab Center for Social Media Advancement
Access Now
ACLU Foundation of Northern California
Adil Soz – International Foundation for Protection of Freedom of Speech
Africa Freedom of Information Centre (AFIC)
Albanian Media Institute
Alternatif Bilisim
American Civil Liberties Union
Americans for Democracy & Human Rights in Bahrain (ADHRB)
Arab Digital Expression Foundation
Asociación Mundial de Radios Comunitarias América Latina y el Caribe (AMARC ALC)
Association for Progressive Communications
Bits of Freedom
Brennan Center for Justice at NYU School of Law
Bytes for All (B4A)
CAIR-Minnesota
CAIR San Francisco Bay Area
CALAM
Cartoonists Rights Network International (CRNI)
Cedar Rapids, Iowa Collaborators
Center for Independent Journalism – Romania
Center for Media Studies & Peace Building (CEMESP)
Child Rights International Network (CRIN)
Committee to Protect Journalists (CPJ)
CyPurr Collective
Digital Rights Foundation
EFF Austin
El Instituto Panameño de Derecho y Nuevas Tecnologías (IPANDETEC)
Electronic Frontier Finland
Elektronisk Forpost Norge
epicenter.works
Eyebeam
Facebook Users & Pages United Against Facebook Speech Suppression
Fight for the Future
Florida Civil Rights Coalition
Foro de Periodismo Argentino
Foundation for Press Freedom – FLIP
Freedom Forum
Fundación Acceso
Fundación Ciudadano Inteligente
Fundación Datos Protegidos
Fundación Internet Bolivia.org
Fundación Vía Libre
Fundamedios – Andean Foundation for Media Observation and Study
Garoa Hacker Club
Global Voices Advocacy
Gulf Center for Human Rights
HERMES Center for Transparency and Digital Human Rights
Hiperderecho
Homo Digitalis
Human Rights Watch
Idec – Brazilian Institute of Consumer Defense
Independent Journalism Center (IJC)
Index on Censorship
Initiative for Freedom of Expression – Turkey
Instituto Nupef
International Press Centre (IPC)
Internet without borders
Intervozes – Coletivo Brasil de Comunicação Social
La Asociación para una Ciudadanía Participativa ACI Participa
Lucy Parsons Labs
MARCH
May First/People Link
Media Institute of Southern Africa (MISA)
Media Rights Agenda (MRA)
Mediacentar Sarajevo
New America’s Open Technology Institute
NYC Privacy
Open MIC (Open Media and Information Companies Initiative)
OpenMedia
OutRight Action International
Pacific Islands News Association (PINA)
Panoptykon Foundation
PEN America
PEN Canada
Peninsula Peace and Justice Center
People Over Politics
Portland TA3M
Privacy Watch
Prostasia Foundation
Raging Grannies
ReThink LinkNYC
Rhode Island Rights
SFLC.in
SHARE Foundation
SMEX
Son Tus Datos (Artículo 12 A.C.)
South East Europe Media Organisation
Southeast Asian Press Alliance (SEAPA)
SumOfUs
Syrian Archive
Syrian Center for Media and Freedom of Expression (SCM)
t4tech
TA3M Seattle
Techactivist.org
The Association for Freedom of Thought and Expression
The Rutherford Institute
Viet Tan
Vigilance for Democracy and the Civic State
Visualizing Impact
Witness
Xnet

1 Ver o relatório da EFF Who Has Your Back? do ano de 2018 https://www.eff.org/who-has-your-back-2018, e o indicador G6 do Ranking Digital Rights, https://rankingdigitalrights.org/index2018/indicators/g6/.

2 Ver o indicadores das seções F4 e F8 em Ranking Digital Rights https://rankingdigitalrights.org/index2018/indicators/f4/, e F8, https://rankingdigitalrights.org/index2018/indicators/f8/ e o relatório “Transparency Reporting Toolkit: Content Takedown Reporting” do New America’s Open Technology Institute, https://www.newamerica.org/oti/reports/transparency-reporting-toolkit-content-takedown-reporting/

3 Por exemplo, ver o documento (policy brief) da Artigo 19, “Self-regulation and ‘hate speech’ on social media platforms,” https://www.article19.org/wp-content/uploads/2018/03/Self-regulation-and-%E2%80%98hate-speech%E2%80%99-on-social-media-platforms_March2018.pdf.