“E se Hitler estivesse certo?”, tuitou, em inglês, uma conta brasileira na terça-feira, 18 de agosto. Dois dias antes, o tuiteiro era um dos que engrossavam o coro contra o aborto da criança de dez anos estuprada pelo tio, no horrendo espetáculo que a extrema direita criou para capitalizar sobre a tragédia. A conta do tuiteiro, que surfa no “politicamente incorreto”, permanece no ar apesar das inúmeras denúncias.

Embora viole os termos de uso da plataforma, o post é só mais um no tsunami de crimes digitais que inundou as redes sociais desde o início da pandemia do coronavírus. Neonazismo, pornografia infantil e crimes de ódio – que incluem violência contra a mulher, homofobia e racismo – explodiram na internet nos últimos três meses, mostra um levantamento feito a pedido do Intercept pela Safernet.

Os dados levantados pela ONG, que monitora violações de direitos humanos na internet, mostram que o período entre março e julho de 2020, os primeiros três meses de pandemia, foi marcado por um aumento astronômico de crimes online. Ao mesmo tempo, as ações das redes sociais para remover esse tipo de postagem não cresceram no mesmo ritmo.

O maior número de violações compiladas é de pornografia infantil: foram 42.931 nos primeiros três meses de pandemia, mais do que o dobro das 20.860 registradas no mesmo período do ano passado. Elas se concentram, principalmente, no Twitter, Facebook e Instagram, além de fóruns anônimos (os “chans”) e sites de troca de arquivos de imagem.

“Esse aumento já era esperado porque as pessoas estão ficando mais em casa. Assim como aumentou o acesso à pornografia legal, o acesso criminoso à pornografia que se utiliza a exploração sexual de menores também tende a aumentar”, me disse Yasodara Córdova, pesquisadora de tecnologia e sociedade, aluna do mestrado em políticas públicas da Harvard Kennedy School. “E o fato de as crianças não estarem indo à escola aumenta a possibilidade de elas estarem em casa com os agressores, já que 70% são de alguém da família e próximo às crianças”, explica.

Os dados mostram que, em geral, 2020 registrou cinco vezes mais denúncias de compartilhamento de pornografia infantil do que 2019 – o maior aumento foi no Instagram, de 238%. Lá, uma ação coordenada promoveu uma enxurrada de conteúdos do tipo, o que fez a rede social estabelecer uma nova política para tentar coibir esse tipo de comportamento.

pornografia infantil
neonazismo

Gráficos: Rodolfo Almeida para o Intercept Brasil

Já o Twitter é a rede social favorita dos neonazistas. Se em 2019 a rede social registrou só 43 denúncias, em 2020 foram 2.369 – um aumento de mais de 5.000%. Também cresceu o número de tuítes removidos pela rede social: em 2019, só quatro foram deletados; neste ano, foram 1.370. Houve aumento no Facebook e Instagram, mas em num patamar muito menor.

“O Twitter é a caixa de ressonância por excelência do debate público sobre política no Brasil. As células neonazistas sabem disso e procuram ter uma presença relevante na plataforma para influenciar, repercutir e recrutar novos simpatizantes, sobretudo os jovens”, me disse Thiago Tavares, presidente da Safernet. Apesar de o Twitter ter criado uma nova política, mais dura, para remoção de símbolos e discursos nazistas – e isso ter, em parte, motivado migrações para o Gab e para o Parler, novas redes sociais com menos moderação – os influenciadores extremistas não abrem mão de estar lá. E o Twitter permite.

A Safernet atua desde 2005 no combate a crimes e violações de direitos humanos na rede, operando canais de denúncias como o Denuncie.org.br. O levantamento considerou manifestações recebidas na plataforma da ONG e analisadas pelo núcleo técnico de combate aos crimes cibernéticos da Procuradoria da República em São Paulo, parceiro da organização.

Cada denúncia corresponde a um link – todas são avaliadas posteriormente para saber se há crime ou não. Por isso, há uma margem de erro. O número de páginas removidas é dinâmico e analisa em tempo real quais desses links saíram do ar. Esse número é diferente das denúncias recebidas pelas próprias plataformas, que, em geral, não são divulgados.

racismo
violência contra a mulher

Gráficos: Rodolfo Almeida para o Intercept Brasil

Os números mostram que crimes de ódio – racismo, homofobia e incitação à violência – também cresceram. Houve quase três vezes mais denúncias de racismo em 2020 do que em 2019. Nisso, a pior rede social é o Facebook. No ano passado, nós já alertamos que a rede social ignorava uma série de denúncias contra páginas de supremacistas brancos. Para o Facebook, comentários como “coincidência as regiões com maior concentração branca (com exceção de Japão e Coreia do Sul) serem desenvolvidas, e os restantes subdesenvolvidos, não é mesmo?” não eram racistas.

Casos de violência online contra a mulher (que incluem assédio e divulgação de imagens íntimas sem consentimento) também dobraram. O Twitter foi a rede social com o maior número de denúncias, mas também foi a que mais se movimentou para remover postagens criminosas, enquanto no Facebook, mais uma vez, o número de posts removidos diminuiu.

“A pandemia provocou mudanças abruptas na rotina das pessoas, famílias e das escolas”, diz Tavares. A organização detectou também um aumento em categorias diretamente relacionadas à pandemia, como conteúdos xenófobos contra asiáticos e apologia e incitação ao suicídio, além do “aumento expressivo de novas imagens de violência sexual contra crianças e adolescentes”. Para piorar, a pandemia afetou a capacidade de moderação e revisão das redes sociais, o que prejudicou os sistemas de remoção de conteúdo.

A chancela do bolsonarismo

A radicalização e o aumento no número de crimes de ódio na internet também foram percebidos pelo antropólogo David Nemer, que pesquisa grupos bolsonaristas e dá aulas na Universidade de Virginia, nos EUA. Para ele, esse aumento está diretamente relacionado com a chancela dada por Bolsonaro. Segundo Nemer, compartilhar esse tipo de conteúdo é “uma forma de atacar o politicamente correto”, uma das maneiras como o bolsonarismo delimita os inimigos e também reúne a própria base.

Embora a grande capilaridade dessa base seja no WhatsApp, de forma descentralizada, é nas grandes redes sociais que ela se organiza, por meio dos influenciadores de extrema direita. “As plataformas ocupam um espaço de muito protagonismo nesse sistema, porque ele se retroalimenta”, diz Nemer. “Elas funcionam como ferramentas catalisadoras e materializadoras desse ódio. E ele volta mais potente”.

Vários estudos já mostraram que as grandes redes sociais privilegiam conteúdos extremistas porque eles são os que mais geram atenção, uma moeda fundamental no ambiente online, movido por anúncios e cliques. Não é lucrativo remover esse tipo de conteúdo. Em muitos momentos, esses criadores de conteúdo foram até estimulados a fazer isso para ganhar mais dinheiro, como no treinamento que o Google ofereceu aos blogueiros de extrema direita na época do impeachment.

“Por que as pessoas precisam denunciar? Por que as plataformas não removem esse conteúdo?”, questiona a Lori Regattieri, pesquisadora em computação social e doutoranda na Universidade Federal do Rio de Janeiro. Para ela, a demora na ação tem a ver com a própria lógica das gigantes de internet, que dependem do tempo de circulação dos dados para valorizar e capitalizar sobre o conteúdo que circula nelas. São as “cascatas de informação”, que se criam a partir das interações sobre determinado conteúdo.

‘As plataformas sabem que [o que] gera comoção gera produção de dados, que é muito lucrativa para elas’.

Um dos vídeos da extremista Sara Winter, por exemplo, ficou no ar por mais de 24 horas no YouTube. Primeiro, a live foi transmitida por uma hora, tempo em que a ativista usou o caso do estupro da menina de dez anos para se autopromover e pedir doações. O vídeo só foi removido no dia seguinte, junto com o perfil dela, depois de circular muito e gerar milhares de interações. O Twitter levou quatro dias a mais para remover o perfil – que nem deveria existir, já que o STF a proibiu de usar a rede –, mesmo recebendo uma enxurrada de denúncias.

A hipótese de Regattieri é que a demora é proposital. “Eu fico imaginando se essas plataformas não ficam jogando quanto tempo é possível que esse conteúdo circule para criar interações, influência e todas essas métricas com as quais elas conseguem capitalizar”, ela diz.

Com a condescendência das gigantes de tecnologia, os extremistas aproveitam para afrouxar os limites. “As plataformas sabem que gera comoção, gera produção de dados, que é muito lucrativa para elas. E a justiça não consegue acompanhar o crescimento desse ódio e a velocidade das plataformas”, afirma Nemer. Para ele, os extremistas têm “muita certeza da impunidade”, então usam golpes baixos e desmoralizantes para atacar o inimigo.

“Eles vão testando os sistemas para ver até que ponto podem disseminar determinado conteúdo”, ele diz, se referindo tanto às tecnologias das plataformas quanto ao Judiciário. “A gente sabe que neonazismo é crime, racismo é crime. Mas eles vão testando. Postam uma coisa menos audaciosa para verem se vão ser banidos”, explica.

Perguntei se as métricas de engajamento e audiência são levadas em consideração na decisão sobre manter ou não um conteúdo. O Facebook garante que, se um post viola os padrões da comunidade, ele é removido, “não importa quantas vezes o conteúdo é curtido, comentado ou compartilhado”. O Twitter também disse que “toma as medidas cabíveis” quando há violação às regras.

FUP20200701033

A ativista de extrema direita Sara Geromini, que se apresenta como Sara Winter, fez um vídeo para ganhar dinheiro com sensacionalismo sobre o estupro de uma criança de dez anos.

Foto: Wallace Martins via Estadão Conteúdo

Os termos que elas ignoram

Em relação à pornografia infantil, não tem conversa: é crime e qualquer envolvido no compartilhamento – inclusive a plataforma – pode ser responsabilizado. É por isso que Facebook e Twitter, assim como o Google, investem pesadamente em programas e mecanismos de inteligência artificial capazes de detectar e remover rapidamente conteúdos do tipo e costumam priorizar esse tipo de denúncia em relação às outras.

Não que seja infalível: os números mostram que a ação ainda é insuficiente. “As plataformas fazem um trabalho muito limitado na remoção”, diz Córdova. Segundo a pesquisadora, há tecnologias e organizações que ajudam no trabalho de identificar conteúdos criminosos e treinar os algoritmos que fazem a detecção e a remoção automaticamente, mas no Brasil a maneira como autoridades investigam e colaboram com as empresas ainda é precário.

A justiça não consegue acompanhar a velocidade da internet e armazena as provas de forma precária – o que deixa as crianças vulneráveis. “A nossa polícia não tem inteligência. Não só não tem como o Judiciário não tem proteção nenhuma para acesso desses arquivos”, diz.

graficos-intercept-crimes-01

Gráfico: Rodolfo Almeida para o Intercept Brasil

Crimes de ódio são ainda mais complexos. Apesar de a incitação ao neonazismo também ser crime no Brasil, assim como a homofobia e o racismo, muitas vezes o post não é explícito, e fica sujeito à interpretação dos moderadores, profissionais responsáveis por avaliar as denúncias e decidir se um conteúdo fica no ar.

Nessa balança entre decidir remover ou não um conteúdo controverso, muitas vezes a liberdade de expressão acaba vencendo. Em termos comerciais, não é interessante para as plataformas saírem removendo posts e banindo usuários, especialmente a direita histérica responsável por angariar novos usuários, prender atenção das pessoas e faturar em anúncios.

No Brasil, o Marco Civil da Internet, lei aprovada em 2014 para garantir direitos na rede, isentou as plataformas de responsabilidade sobre os conteúdos que circulam nelas. Exceto em casos de crimes claros – pornografia infantil, por exemplo, regulada por lei própria –, as plataformas não são obrigadas a remover conteúdos problemáticos. Isso só pode acontecer depois de uma ordem judicial.

O propósito desse artigo foi evitar que Google, Facebook, Twitter e outras redes atuassem como censores prévios, apagando posts após um mero pedido. Imagine se o YouTube, com medo de ser corresponsabilizado, apagasse todos os vídeos que criticam políticos que se sentissem ofendidos?

A solução foi determinar que as empresas só seriam responsabilizadas se descumprissem um pedido da justiça. Ok, a liberdade de expressão foi preservada. Para manter o ambiente saudável, as redes criaram mecanismos de moderação e controle interno, com suas próprias políticas, que respeitam tratados e regulações de direitos humanos, para estabelecer as regras pelas quais seus usuários teriam de agir para não serem banidos.

O Facebook tem longos termos de uso para prevenir abusos sexuais infantis, assédio, bullying e violência. Também afirma banir discurso de ódio – qualquer post que atente contra a dignidade ou a integridade de uma pessoa ou um grupo específico. O Instagram, que é do Facebook, afirma ter tolerância zero com imagens de menores envolvendo nudez. Também diz remover posts com ameaças e que a rede social não é lugar para grupos terroristas ou grupos de ódio.

O Twitter também afirma ter tolerância zero com exploração sexual infantil, e suas regras determinam que tuítes incitando violência contra uma pessoa ou grupo, assim como a promoção de extremismo violento, também sejam banidos da plataforma. O YouTube também diz não permitir de ódio e tem regras específicas para segurança infantil.

Só que, sistematicamente, elas preferem fechar os olhos para os critérios que elas mesmas criaram. “As plataformas conseguem ter brechas e tirar a responsabilidade. A gente tem as leis, porque discursos de ódio são crime, mas a coisa não é executada”, diz Nemer.

O Twitter disse que, entre o primeiro e o segundo semestre de 2019, aumentou em 50% o total de conteúdo removido, enquanto o número de contar sancionadas cresceu 47%. “O Twitter está comprometido em proteger a conversa pública e desenvolve um trabalho contínuo nesta frente, como a criação e aplicação de regras que determinam os conteúdos e comportamentos permitidos na plataforma, incluindo, por exemplo, a política contra propagação de ódio“, disse a assessoria de imprensa da rede social. “Quando há violação a nossas regras, tomamos as medidas cabíveis”, a empresa garante.

Todos os especialistas ouvidos concordam: o que as empresas estão fazendo é insuficiente.

O Facebook disse que, apesar do impacto na pandemia, a taxa de “detecção proativa de discurso de ódio” cresceu 95% do primeiro para o segundo trimestre desse ano. No Instagram, da mesma empresa, a taxa foi de 84%. A remoção de conteúdo de ódio subiu 134%, de 9,6 milhões nos primeiros três meses desse ano para 22,5 milhões, segundo sua assessoria de imprensa. No Instagram, o aumento foi 307%, de 808,9 mil para 3,3 milhões. “Também continuamos a priorizar a remoção de grupos de ódio nas nossas plataformas em todo o mundo. Desde outubro de 2019, banimos 23 organizações, sendo que mais da metade delas apoiava a supremacia branca”, disse a rede social ao Intercept.

Já um porta-voz do Google disse que o YouTube “possui políticas claras sobre o tipo de conteúdo que aceita na plataforma” e que “atua rapidamente para remover vídeos, canais ou comentários que violem nossas diretrizes”. Segundo a rede social, no primeiro trimestre de 2020 foram removidos 6,1 milhões de vídeos – 90% denunciados na própria plataforma, e a maioria com poucas visualizações. O YouTube afirma que os, conteúdos relacionados à segurança infantil correspondem a quase um quarto dos vídeos removidos.

“As plataformas estão em estágios diferentes de desenvolvimento e aplicação de suas políticas”, diz Tavares. Ele exemplifica: o Facebook tem mais de 30 mil pessoas trabalhando diretamente com moderação de conteúdo e treinando inteligência artificial para detectar conteúdos ilícitos automaticamente. Já o Twitter tem, na empresa inteira, um sexto disso.

Para Córdova, o problema não é do Marco Civil, mas da falta de uma autoridade competente no Brasil que “consiga discutir com as plataformas em pé de igualdade”. Apesar de a regulação existir, ainda falta uma maneira efetiva de fazer seus termos de uso e a legislação brasileira valerem na internet. Enquanto isso, a polícia e o Judiciário perdem tempo com besteiras tipo a boneca Momo ou tentando descobrir a identidade do Sleeping Giants. “É um sintoma do descompasso entre a evolução da tecnologia e da democracia. Ela já era frágil, e agora se torna um acessório dispensável”, avalia a pesquisadora.

Todos os especialistas que ouvi concordam: o que as empresas estão fazendo é insuficiente. “No estágio atual de financeirização dos dados, quanto mais eles contribuem menos saudável é o debate público”, diz Regattieri. “Os cálculos são feitos para que a circulação desse conteúdo possa gerar valor, mesmo que seja por pouco tempo de circulação”.

No primeiro trimestre deste ano, a Alphabet, dona do Google, lucrou US$ 10,6 bilhões. O Facebook, US$ 17,7 bilhões. O Twitter fechou o período com prejuízo, mas está trabalhando para aumentar o número de usuários monetizáveis – isso é, aqueles que podem virar lucro em forma de publicidade. Todas as redes transformam atenção em interações, interações em cliques, cliques em publicidade e publicidade em dinheiro. Elas podem até soltar notinhas de relações públicas, mas continuam faturando em cima do horror. E vão lucrar mais à medida que a pandemia nos obrigar a passar mais tempo online, enquanto o debate público se deteriora.