Se alguma vez você parou para ler os termos de uso e políticas do Facebook, deve ter visto uma lista de conteúdos que não são permitidos na plataforma: violência e incitação à violência, exploração sexual, abuso e nudez infantil e automutilação e suicídio, por exemplo. Não ser permitido não quer dizer que os conteúdos não existam. Eles existem e, se você nunca cruzou com nada do tipo na plataforma, é porque os conteúdos foram deletados antes de chegarem a você. Fazer isso era o trabalho de Fernanda*.

Imigrante brasileira na Alemanha, Fernanda era funcionária da Arvato, empresa terceirizada contratada pelo Facebook para prestar serviços de “moderação de conteúdo”. Na prática, o trabalho é identificar e remover da plataforma os posts que violam regras de uso. Diariamente, Fernanda e seus colegas de trabalho, majoritariamente imigrantes, passavam ao menos oito horas recebendo e atendendo denúncias de usuários do Facebook em diversos países. Ela cuidava de parte da comunidade de língua portuguesa, mas a empresa verificava conteúdo postado em pelo menos seis outros idiomas.

Longe do encanto de trabalhar para uma das maiores empresas do mundo, o relato de Fernanda revela o descaso do Facebook com pessoas que cumprem um papel fundamental na rede social. No mundo, já brotaram várias denúncias de más condições de trabalho de moderadores que afirmam ter visto “o pior da humanidade” em suas rotinas. O Facebook responde processos por danos causados à saúde mental de seus moderadores de conteúdo e, em março de 2020, fechou um acordo para pagar 52 milhões de dólares em indenizações a moderadores norte-americanos que desenvolveram transtornos mentais em decorrência do trabalho.

Para o pesquisador Paul Barrett, do Centro de Negócios e Direitos Humanos da Universidade de Nova York-Stern, a terceirização está diretamente relacionada com as falhas do trabalho de moderação no Facebook. “Se os moderadores de conteúdo não estão sob sua responsabilidade e trabalham em outro continente”, ele me disse em entrevista, “você não dará muita atenção ao trabalho que eles fazem – ou como esse trabalho os afetará como indivíduos”.

Em um estudo publicado ano passado, Barrett sugere, entre outras medidas, que a plataforma acabe com a terceirização da moderação e traga esses funcionários para estações de trabalho internas, com apoio, salário e benefícios justos – o que está longe de acontecer. “Não vejo sinais de que o Facebook esteja considerando trazer moderadores de conteúdo para dentro da companhia”, diz o pesquisador.

De fato, o cotidiano de trabalho de Fernanda nada tinha dos escritórios modernos e dos extensos benefícios trabalhistas da gigante de tecnologia. O salário era baixo e ela não tinha sequer um plano de cuidados médicos de qualidade. Tudo que a Arvato ofertou aos funcionários foi um grupo de psicólogos. A medida, uma tentativa da terceirizada de minimizar os danos à saúde mental de seus funcionários, não serviu muito: Fernanda conta ter acompanhado o esgotamento psicológico de seus colegas a ponto de funcionários terem crises de choro ou saírem no meio do expediente e nunca mais voltarem.

Além dos conteúdos nocivos do Facebook e da indiferença da plataforma, os funcionários da Arvato lidaram com desrespeitos trabalhistas e assédio moral.

‘Testemunhei crises de choro, colapsos emocionais e ataques de fúria. Vi pessoas entrando em depressão’.

Entramos em contato com a Arvato da Alemanha, que agora se chama Majorel, para saber o que a empresa diz sobre as informações do relato de Fernanda. O representante da terceirizada disse que o bem-estar dos funcionários é muito importante para eles e que existem medidas fortes para garanti-lo, como o “suporte psicológico de um time de médicos treinados 24 horas por dia”, as “pausas de bem-estar” e “várias formas de treinamento de resiliência”, além de “cursos adicionais de bem-estar”. A empresa não explicou que cursos ou treinamentos são esses, para que servem ou como ajudam os funcionários. A Majorel não respondeu nossas perguntas, nem comentou o caso de Fernanda.

Questionado, o Facebook afirmou apenas que possui cerca de 15 mil moderadores de conteúdo, a maioria “empregada por meio de parceiros”. Em nota, a rede social explicou que revisa conteúdos 24 horas por dia em mais de 50 idiomas, mas que não possui nenhuma base de moderação de conteúdo no Brasil.

De forma anônima, Fernanda contou sua história ao Intercept. Confira abaixo os principais trechos. O relato foi editado para melhor compreensão.

intercept-face-2

Ilustração: Victor Vilela para o Intercept Brasil

Comecei a trabalhar na Arvato em 2017. O processo seletivo era uma zona, e muitos de meus colegas não tinham um nível de inglês aceitável para o trabalho. Como o treinamento que receberíamos com as regras e políticas da plataforma seria todo em inglês, isso foi um problema, porque algumas pessoas não entendiam direito as políticas. Na época em que entrei, era praticamente se candidatar, ser chamado, assinar o contrato e já começar o treinamento. Parece que os processos estão melhores agora.

O treinamento era oferecido pela própria Arvato e ministrado por um dos funcionários que estava lá há mais tempo e se candidatava para a vaga de treinador. Ele cuidava não só dos primeiros passos com os recém-contratados, mas também do repasse das atualizações nas políticas para toda a equipe.

A divisão do trabalho era bem simples. Cada língua utilizada na plataforma é tratada como um mercado diferente. Português, inglês, alemão, árabe, espanhol, francês e assim por diante. E cada mercado tem três níveis de funcionários: moderadores, revisores e líderes. A massa são os moderadores de conteúdo, que recebem as denúncias feitas pelos usuários. Era isso que eu fazia.A categoria em que os usuários registram a denúncia não é checada pelos moderadores. Ainda assim, dependendo de qual seja, a denúncia é apurada com mais agilidade. Acima de nós, tinham os revisores. Eles revisavam cerca de 10% de tudo que os moderadores faziam. Por fim, os líderes eram divididos entre líderes de time e de grupo. Em um mesmo mercado, podiam haver diversos times, e os líderes de grupo cuidavam de um ou mais mercados. Esse modelo hierarquizado, com líderes, supostamente tornaria a administração do trabalho mais simples e direta, mas o que eu vi foram líderes de time e de grupo se achando deuses e abusando do poder que tinham.

Terceirizando o trabalho sujo
  • O Facebook depende do trabalho dos moderadores de conteúdo para que suas diretrizes de comunidade sejam cumpridas. São eles que garantem que seu feed fique limpo de posts violentos, ofensivos, mentirosos ou abusivos.
  • A empresa, no entanto, não é transparente sobre o funcionamento desse trabalho. O Facebook nunca abriu ao público quantas empresas prestam serviço de moderação de conteúdo para a plataforma, quais são elas ou em que países estão localizadas.
  • Segundo a rede social, são aproximadamente 15 mil moderadores. A “maioria” é terceirizada. No Brasil, diz a empresa, não há nenhuma base de moderação de conteúdo.

Trabalhávamos aos fins de semana e tínhamos que ouvir que isso era algo bom: se fizéssemos turno no final de semana, teríamos folga na semana. O Facebook exigia por contrato que a Arvato cobrisse a moderação do conteúdo ininterruptamente, então existiam quatro turnos disponíveis: manhã, tarde, noite e madrugada. Os turnos não eram fixos, e só descobríamos em qual estaríamos no dia 20 de cada mês.

Mensalmente, podíamos pedir até três dias específicos de folga, mas nada nos garantia que teríamos os dias que pedíamos. Tanto isso quanto o turno eram um problema, e diversos colegas tiveram que abandonar cursos de língua por conta da imprevisibilidade da empresa. Como estávamos morando em um país cuja língua não falávamos, aprender alemão não era um luxo, mas uma necessidade.

Lidar com a falta de organização da empresa, somada aos conteúdos que examinávamos diariamente, tornou o trabalho insalubre. Insalubridade não é só lidar com elementos tóxicos que afetam o corpo, mas também aqueles que afetam a mente. O corpo não distingue o trabalho do ambiente externo. Testemunhei crises de choro, colapsos emocionais e ataques de fúria na minha frente diversas vezes. Vi pessoas entrando em depressão.

Na atividade em si, a maior parte do tempo eu trabalhei moderando páginas e grupos do Facebook, mas também tive muito contato com publicações soltas, postagens individuais e os comentários que eram denunciados. Quando eu avaliava postagens em uma página ou grupo, não via os comentários – e isso deixava as coisas um pouco mais tranquilas. Ainda assim, lidei por muito tempo com conteúdos extremamente gráficos. Desmembramento, assassinato, suicídio, estupro e coisa pior. Abuso infantil ou animal eram os piores. E tinha bastante.

Vídeos de execução também eram foda, porque geralmente contavam com muitos detalhes – e, nos últimos anos no Brasil, tem-se produzido muitos desses vídeos, em especial nos presídios. Facções criminosas inundam a plataforma com essa prática e diversos grupos e indivíduos compartilham esses vídeos e imagens. É uma forma de demonstrar poder, e o Facebook é a plataforma ideal para aumentar a imagem desses grupos. A lista é longa, mas fortuitamente consegui manter certo distanciamento do conteúdo.

As linhas de trabalho eram alimentadas por denúncias dos usuários, mas também por inteligência artificial, ou IA. Quando não havia mais denúncias reais, entravam denúncias geradas por bots, em uma linha de trabalho que eles chamam de “proactive” [proativa, em português]. A principal denúncia gerada por IA dessa linha era “proactive – graphic violence” [proativa – violência gráfica, em português], e os conteúdos eram extremamente violentos. Essa linha de denúncias existia basicamente para que os moderadores não ficassem parados entre uma denúncia de usuário e outra, ou depois de moderar todas as denúncias.

Casos extremos
  • Em 2017, o Facebook demorou duas semanas para remover uma transmissão de suicídio de uma britânica de 12 anos. O vídeo permaneceu no ar durante todo esse período.
  • No mesmo ano, um americano cometeu um assassinato ao vivo no Facebook. Em seguida, narrou detalhes do crime. O vídeo ficou horas no ar.
  • Em março de 2019, extremistas armados assassinaram 51 pessoas em duas mesquitas na Nova Zelândia. Os ataques foram transmitidos ao vivo por 17 minutos no Facebook, que só interrompeu a transmissão após ser avisado pela polícia. O vídeo seguia sendo repostado e compartilhado na plataforma mais de dez horas depois do fim do ataque.

A proactive é uma linha de trabalho simples, mas muito repetitiva – víamos muitas vezes o mesmo conteúdo. Era ela que apresentava os conteúdos mais gráficos no que diz respeito à violência. Víamos cenas de atentados terroristas e guerras no Oriente Médio, África, Ásia, Venezuela, Colômbia, além do Brasil e Angola; acidentes com vítimas fatais, como o do cantor Gabriel Diniz ou de funcionários de companhias elétricas trabalhando com fios de alta tensão; suicídios; muitas mensagens e imagens de automutilação; execuções, como as perpetradas por organizações criminosas e pela polícia; desmembramentos; evisceração.

Em um determinado mês, possivelmente por um erro de programação, ficamos presos por dias nessa linha de denúncias feitas por inteligência artificial, sem conseguir sair. Todos os conteúdos recebidos eram de violência gráfica. Foi muito pesado. Alguns colegas adoeceram, passaram a ter episódios de terror noturno, houve crises de choro no escritório. O problema foi repassado ao Facebook, que disse que iria resolver e fez isso depois de dias. Nunca recebemos uma justificativa sobre o que aconteceu.

A plataforma tem um disurso de proteger pessoas e combater extremismos, mas isso não sai do papel. Medidas contra extremismo religioso quase não existem. Dizer “Morte ao Islã”, por exemplo, não é considerado ofensivo pela plataforma a menos que haja o anexo de uma imagem de um muçulmano. Para a plataforma, Islã não é uma pessoa – desejar morte ao Islã, portanto, não é uma ofensa. Nesse papo de “nós protegemos pessoas”, o Facebook deixa de agir contra a difusão de uma série de preconceitos e discursos de ódio e se exime de responsabilidade em um contexto em que é muito mais do que só uma plataforma de interação entre as pessoas, mas uma empresa gigantesca que está lucrando com isso.

O Facebook deixa de agir contra a difusão de uma série de preconceitos e discursos de ódio e se exime de responsabilidade.

Me lembro de pelo menos uma moça levantar no meio do turno, ir embora e nunca mais voltar. Mais de um ano depois, por meio de uma amiga que não trabalhava lá, soube que essa moça teve um colapso mental e entrou em parafuso por conta do conteúdo do trabalho. Nem a Arvato, nem o Facebook se responsabilizaram por isso. Em muitos casos, os contratos eram simplesmente encerrados, se estivessem nos primeiros seis meses de período probatório, ou não eram renovados. Internamente, havia um grupo de psicólogos, mas eles pouco ajudavam – quando ajudavam.

A Arvato não estava nem aí para o esgotamento de seus funcionários, e o Facebook se importava ainda menos. Éramos pressionados a analisar as denúncias rápida e corretamente, fosse um bom dia ou o manifesto de um terrorista. Por diversos meses tivemos o tempo de resposta mais ágil da empresa, além de precisão acima de 99,5% nas decisões, mas isso não diminuía a pressão.

Grande parte dos moderadores do mercado de língua portuguesa eram estrangeiros, que não tinham suas famílias por perto. O único apoio emocional que tínhamos, então, era entre nós mesmos. Essa falta de família perto para dar suporte emocional era outro problema que afetava muito quem trabalhava como moderador.

Independência por US$ 130 milhões
  • Em maio de 2020, o Facebook apresentou seu Facebook Oversight Board, conselho de moderação de conteúdo. É um grupo de 20 pessoas da academia e de ONGs que terá a última palavra sobre remoção de conteúdos que fiquem em “zona cinzenta” nas políticas da empresa.
  • A ideia é que o conselho atue como um tribunal superior, arbitrando o que deve ou não ser removido. A empresa desembolsou US$ 130 milhões na iniciativa, que promete ser “independente”.
  • Ativistas, no entanto, questionaram a eficácia do conselho – já que ele não atuaria nas eleições dos EUA e suas decisões poderiam demorar meses. Como resposta, lançaram outro comitê, o “Real Facebook Oversight Board”, com reuniões periódicas e críticas bem mais contunentes sobre como a rede social lucra com conteúdo abusivo.

Na Arvato, no entanto, o esgotamento mental não acontecia apenas por causa dos conteúdos a que tínhamos acesso – os líderes ajudavam e muito a colocar a equipe em situações de vulnerabilidade. Um dos piores deles era iraniano e veio de outro projeto. Ele era completamente despreparado para administrar pessoas. Tinha comportamento explosivo, críticas muito acima do razoável, inventava metas que só ele conseguia cumprir, mentia sobre a renovação de contratos e fazia coisas que nenhum outro dos líderes de time faziam, como forma de mostrar serviço, gerando competição entre o time dele e os outros. Além disso, puxava para si qualquer bom resultado que o time alcançasse e negava ser responsável por erros que ocorressem – mesmo quando todos sabiam que era ele o responsável.

Isso minou a saúde física e mental de diversos moderadores sob seu comando. Houve muitas ameaças de não renovar o contrato de pessoas, mesmo quando as renovações já haviam sido aprovadas pelos superiores. Esse líder de grupo chegava ao cúmulo de reclamar quando membros do seu time trabalhavam rápido demais e não tinham mais denúncias para analisar.

Facebook e Arvato fecharam um contrato em 2017 para mais cinco anos de projeto. A expansão não durou muito e, no início do segundo semestre de 2018, depois de a Arvato contratar mais funcionários e o mercado português bater 60 pessoas, o Facebook mudou de ideia e resolveu que não precisava de tanta gente – o que fez a Arvato não renovar contratos e acabar com muitos empregos em período probatório. Esse foi o começo do fim do mercado em português em Berlim. E talvez do próprio projeto em Berlim: os mercados em inglês e árabe, os maiores de todos, com mais de 100 funcionários, foram extintos em 2018.

Berlim era a única cidade que fazia todas as linhas de moderação do mercado de língua portuguesa. Outras cidades que atuavam fazendo o serviço, como Lisboa e Barcelona, tinham projetos mais novos e com menos raio de atuação. Para os usuários, isso pode se refletir em acentuada queda de qualidade no serviço de moderação da plataforma.

Com diálogo com os moderadores que faziam o trabalho e, especialmente, dando valor às sugestões que eram levantadas e levadas para as reuniões entre a Arvato e o Facebook, nosso trabalho poderia ser muito mais efetivo e muito menos danoso. Nós, moderadores, cansávamos de reunir exemplos de alguma falha da política, porque o Facebook só aceitava discutir casos se houvesse exemplos, e nada ser feito. Quando muito, recebíamos um agradecimento pelo empenho em melhorar o trabalho.

Pelo menos uma vez por ano, dois funcionários do Facebook vinham visitar a Arvato e apresentar alguns dados sobre o nosso trabalho. Entre as informações, havia sempre dados sobre o “número de suicídios evitados”. A informação emocionava parte das pessoas, mas o ambiente de trabalho da Arvato era tão desagradável que até isso perdia a importância.

*O nome é fictício para preservar a identidade da fonte.