João* fez sua última transmissão ao vivo em uma tarde do verão passado. Ele tinha 19 anos. No dia anterior, João havia avisado seus fãs que faria uma exibição “especial” para eles. Com os olhos colados nas telas de seus celulares, 280 pessoas viram o jovem paranaense se matar em frente ao seu celular, enquanto transmitia tudo pelo TikTok, o terceiro aplicativo mais baixado da história. Eram 15h23 do dia 21 de fevereiro de 2019. O vídeo, com 497 comentários e 15 denúncias feitas por espectadores, ficou no ar por mais de uma hora e meia, exibindo o corpo de João – funcionários do TikTok só tomaram ciência da morte às 17h. E trabalharam para não deixar que o caso manchasse a imagem da empresa, revelou ao Intercept uma ex-funcionária da ByteDance, empresa dona do TikTok, que prefere não se identificar.

Entre 17h e 19h56, uma operação sem precedentes tomou conta do escritório brasileiro da empresa, segundo a ex-funcionária. Tivemos acesso ao documento interno de gerenciamento de crise que conta tudo o que aconteceu. Naquele dia, o escritório do TikTok no Brasil agiu rapidamente – não para socorrer o jovem e ajudar a polícia ou a família, mas para evitar que o acidente arranhasse a imagem do app, o maior fenômeno das redes sociais no momento, principalmente entre os jovens.

O caso foi revelado ao Intercept por uma ex-funcionária da ByteDance no Brasil que prefere não se identificar.

O caso foi revelado ao Intercept por uma ex-funcionária da ByteDance no Brasil que prefere não se identificar.

Foto: Lionel Bonaventure/AFP via Getty Images

‘A nossa prioridade é criar um ambiente positivo e seguro’

Em 2018, o TikTok foi baixado mais de 18 milhões de vezes no Brasil – o que fez do país o sexto maior mercado do app. A imensa maioria dos usuários são jovens que postam vídeos engraçadinhos sobre suas rotinas. Para potencializar seu crescimento no Brasil, o TikTok contratou celebridades como o DJ Alok e os comediantes Tirullipa e Whindersson Nunes. Por uma parceria de divulgação com selos de música, cantores como Anitta e Luan Santana também usam a plataforma para engajar seus fãs quando lançam novos conteúdos.

O sucesso do TikTok fez da ByteDance a startup mais valiosa do mundo, avaliada em US$ 75 bilhões em 2018. Em fevereiro de 2019, a empresa abriu um escritório próprio em São Paulo. Foi nele – um andar inteiro no bairro do Itaim Bibi, área nobre da capital paulista – que a crise foi gerenciada. Os cerca de 60 funcionários do local se dividem em equipes de redes sociais, conteúdo, influenciadores, parcerias, moderação e administração, e operam toda a atividade do TikTok no Brasil, desde contato com usuários pela internet até retirada de vídeos da plataforma.

O time de moderação é o único que trabalha de maneira isolada, longe dos demais operadores e funcionários do TikTok. É deles a responsabilidade de tirar do ar os conteúdos que contrariam os termos de uso da plataforma ou sejam ofensivos de alguma forma à comunidade. Mas transmissões ao vivo, diferente de conteúdos normais, são monitoradas por uma equipe ainda mais reservada, que fica na China. Era dessa equipe chinesa a responsabilidade por ter monitorado e descoberto o suicídio de João.

Até hoje, não havia nada na mídia sobre o ocorrido. A nota nunca precisou ser usada.

Mas os moderadores, brasileiros e chineses, só ficaram sabendo da transmissão depois que a empresa foi avisada por influenciadores da rede em um grupo de WhatsApp. O vídeo durou mais de 40 minutos, foi retirado do ar automaticamente por falta de movimento e depois restabelecido. Ao todo, o conteúdo foi exibido por mais de uma hora e meia. Alguns usuários respondiam assustados, e outros chegaram a fazer piada durante o tempo em que o corpo inerte ficou sendo exibido. Quando o aviso apareceu no grupo de influenciadores, naquele fim de tarde, a primeira ação dos funcionários do escritório local foi solicitar a exclusão da conta de João, o que só aconteceu mais de uma hora depois de sua morte, às 17h13.

Em seguida, os funcionários entraram em contato com a equipe de relações públicas, que prontamente produziu uma nota de pêsames dirigida aos usuários e à imprensa. Nela, o TikTok se dizia “extremamente triste com esta tragédia” e garantiu que sua principal prioridade é “criar um ambiente seguro e positivo no aplicativo”. “Temos medidas para proteger users contra o uso indevido do app, incluindo mecanismos fáceis de denúncias que permitem denunciar conteúdo que violem nossos termos de uso”, emendava o texto. Se existem, esses mecanismos não funcionam tão bem assim.

A nota escrita era apenas um seguro de uso imediato para amortecer as críticas à imagem da empresa caso o suicídio ao vivo viesse a público. Marta Cheng, líder geral do Brasil e da América Latina, orientou os funcionários do escritório brasileiro a não comentar nada sobre o que aconteceu, segundo o relato da ex-funcionária. “Marta foi acionada, lá [China] era de madrugada. Ligaram até ela atender. Após isso ela ficou online, acionou outras pessoas e a orientação foi clara: não deixem viralizar essa história”, contou. Funcionou: até hoje, não havia nada na mídia sobre o ocorrido. A nota nunca precisou ser usada. Abaixo, a sua íntegra:

5-1579202350

Documento mostra as ações da empresa para gerenciar a crise depois da tragédia. Foto: reprodução.

Só às 19h56, duas horas e meia depois de ter acionado sua equipe de relações públicas e quatro horas e meia após o suicídio, o TikTok avisou as forças policiais do Paraná. Foi a família quem encontrou o jovem morto em casa.

Tivemos acesso à ficha de João no Instituto Médico Legal de Curitiba. Nela, a entrada do corpo do jovem foi registrada às 20h05 – apenas nove minutos após o TikTok avisar a polícia do ocorrido, segundo o registro do documento interno da empresa. Isso significa que, quando a empresa entrou em contato com a polícia, diversos outros órgãos públicos já tinham conhecimento da morte. O TikTok não se comunicou com a família de João.

Depois do suicídio, o documento interno destacou a ação que a equipe do escritório do app deveria tomar: monitorar Twitter, Instagram e TikTok por 48 horas para acompanhar eventuais desdobramentos. Os executivos respiraram aliviados. A história nunca veio a público e não arranhou a imagem da rede social.

João não foi a primeira pessoa a ter sua morte divulgada no TikTok, mas foi o primeiro caso de suicídio transmitido ao vivo que veio à tona. Na Índia, país com uma das maiores bases de usuários da plataforma, ao menos outros dois suicídios relacionados ao aplicativo ocorreram. O tribunal indiano chegou a bloquear a rede social no país argumentando que o aplicativo estimulava a pornografia e poderia expor crianças a abusadores sexuais, mas a decisão foi revertida.

Uma obrigação moral

Redes sociais como Facebook e Twitter têm estratégias consolidadas para lidar com conteúdos e situações sensíveis como o suicídio, com parcerias com instituições especializadas em prevenção como o Centro de Valorização da Vida, o CVV. Além de conteúdo de apoio aos usuários e filtros de inteligência artificial que detectam conteúdos passíveis de remoção, as plataformas possuem times focados em agilizar o contato (o que a empresa não fez) e colaborar com as autoridades locais (o que o TikTok demorou a fazer).

O responsável pelo conteúdo publicado em uma plataforma é o usuário que o publicou. É o que diz o Marco Civil da Internet, lei que baliza os princípios, garantias, direitos e deveres para uso da internet no Brasil. Empresas donas de plataformas, como o TikTok e a ByteDance, só podem ser responsabilizadas por dois tipos de conteúdo: nudez e exploração de menores.

Embora não haja obrigação legal das empresas de lidar com os conteúdos ofensivos de sua plataforma, há no mínimo obrigação moral de zelar pela comunidade – uma vez que em suas políticas e termos de uso as empresas se responsabilizam pelo cuidado e fiscalização de seus conteúdos e usuários, me disse Thiago Tavares, presidente da SaferNet Brasil, organização que defende direitos humanos na internet. “Competidores do TikTok têm indicadores de situações sensíveis muito mais afiados do que a plataforma parece ter, e esconder suas práticas e o que acontece na rede social certamente não é o melhor exemplo de como lidar com isso”.

No começo do ano passado, o suicídio de uma menina de 14 anos estimulado por conteúdos suicidas e de automutilação no Instagram fez a Comissária para a Infância do Reino Unido Anne Longfield escrever uma carta pedindo que as empresas de tecnologias tomassem providências com políticas de prevenção. “Eu apelo a vocês que aceitem que há problemas e que se comprometam a resolvê-los – ou admitam que são incapazes de fazer isso”, ela escreveu.

Suicídio é considerado um problema de saúde pública. É a segunda maior causa de morte entre jovens de 15 a 24 anos– e, no Brasil, o número só cresce. A Organização Mundial de Saúde alerta que o tema deve ser tratado com cautela porque há risco de imitação – especialmente entre a população mais jovem ou que tem depressão. Não é difícil imaginar o impacto que uma exibição ao vivo, que ficou no ar por mais de uma hora, possa ter causado em quem a assistiu.

Questionado pelo Intercept, o escritório brasileiro do TikTok admitiu que há quase um ano removeu o conteúdo e alertou as autoridades locais porque não permite “conteúdo que promova danos pessoais ou suicídio”. Também afirmou que, desde o ocorrido, atualizou suas políticas de transmissões ao vivo e adicionou ferramentas e protocolos de denúncia – mas não especificou o que foi implementado à plataforma. “Seguimos profundamente tristes com esse trágico incidente e nos solidarizamos com a dor da família. Incentivamos qualquer pessoa que precise de apoio ou que esteja preocupada com um amigo ou familiar a entrar em contato com a linha direta de prevenção ao suicídio”.

*O nome do jovem foi trocado para preservar a família.

**No Brasil, o CVV tem voluntários disponíveis 24h por dia para oferecer apoio por chat ou pelo telefone 188.