Quando o Tiktok passa das dancinhas para uma perigosa espiral de posts que prejudicam a saúde mental
- Selma Bellini
- 6 de jun. de 2024
- 3 min de leitura
“Você já olhou para um frasco de comprimidos e pensou em uma overdose? Você já quis que tudo acabasse? Você já pensou na libertação que isso te daria, em toda a dor que iria embora?" Tendo como pano de fundo pequenas figuras movendo-se através de um labirinto em um jogo de arcade, uma voz gerada por IA expressa esses pensamentos em um vídeo de meio minuto. Assistindo, revendo e depois seguindo para o próximo clipe, o usuário do TikTok de 13 anos que percorre esses vídeos não sente nada. Isto porque se trata de uma conta automatizada, criada e programada pela Anistia Internacional e pelo Algorithmic Transparency Institute para simular e explorar a realidade digital de crianças e jovens que vivem com problemas de saúde mental, como ansiedade ou depressão. A cada hora gasta Feed ‘For You’ do TikTok, mais vídeos “recomendados” para o adolescente mostram crianças e jovens chorando, ou sozinhos no escuro, sobrepostos a textos expressando pensamentos depressivos ou vozes sem rosto descrevendo seu sofrimento, automutilação e pensamentos suicidas”.
O parágrafo acima é a abertura do Relatório “Conduzidos para a escuridão - Como o feed ‘for you’ do Tiktok incentiva danos a si e ideação suicida”, produzido pela Anistia Internacional em parceria com o Instituto de Transparência Algorítmica (Algorithmic Transparency Institute - National Conference on Citizenship) e AI Forensics. O trabalho investiga as recomendações de conteúdo personalizadas empregadas pelo TikTok no busca do engajamento do usuário – e seu impacto negativo no mundo real sobre crianças e jovens.
O relatório baseou-se em pesquisa documental, discussões em grupo com mais mais de 300 crianças e jovens em dois dos países com maior utilização das redes sociais em todo o mundo (Quênia e Filipinas), bem como uma investigação técnica envolvendo mais de 30 contas automatizadas simulando adolescentes e comparando resultados no Quênia e nos Estados Unidos da América (EUA), além de experimentos manuais no Quênia, nas Filipinas e nos EUA. As contas criadas simulavam um usuário de 13 anos, a menor idade permitida no Tiktok oficialmente.
A pesquisa mostrou que depois de 5 a 6 horas na plataforma, quase 50% dos vídeos mostrados para os usuários automatizados simulando 13 anos com interesse em algo relacionado à saúde mental eram relacionados ao tema e potencialmente prejudiciais, cerca de 10 vezes o volume veiculado para contas sem interesse em saúde mental. Houve um efeito ainda mais rápido e intenso quando os pesquisadores assistiram novamente os vídeos de saúde mental. No caso dos experimentos manuais, após um intervalo que vai de 3 a 20 minutos, mais da metade dos vídeos no feed ‘For You’ estavam relacionados a problemas de saúde mental, com vários vídeos recomendados em uma única hora romantizando, normalizando ou incentivando o suicídio.
Um dos mais de 300 jovens entrevistados nos grupos da pesquisa definiu bem o que acontece: "Quando curto um vídeo triste com o qual me identifico, de repente toda a minha página ‘For You’ fica triste e estou então num ‘Tristetok”.
Por que esse relatório é importante? Bom, o Brasil é o terceiro país com mais contas no Tiktok, na maioria jovens. Recentemente, a Folha de S.Paulo mostrou que aqui no Brasil, pela primeira vez, os registros de ansiedade entre crianças e jovens superou o de adultos, de acordo com dados da Rede de Atenção Psicossocial (RAPS) do SUS de 2013 a 2023.
“As descobertas expõem as práticas manipuladoras e viciantes do TikTok, projetadas para manter os usuários envolvidos pelo maior tempo possível. Mostram também que o sistema algorítmico de recomendação de conteúdo da plataforma, creditado por permitir a rápida ascensão global da plataforma, expõe crianças e jovens adultos com problemas de saúde mental pré-existentes a sérios riscos de danos”, afirmou Lisa Dittmer, investigadora da Anistia Internacional.
Vale mencionar que o feed ‘For You’ do TikTok é uma página altamente personalizada e infinitamente rolável de conteúdo recomendado por algoritmos, escolhida para refletir o que o sistema inferiu serem os interesses do usuário. As regras dos algoritmos são definidas de forma a “prender" o usuário na plataforma pelo maior tempo possível o que, nos casos de posts de saúde mental, significa mostrar conteúdos cada vez mais tóxicos. Além de sua natureza viciante, o recurso também está no centro das preocupações sobre o papel da plataforma na exposição de crianças e jovens a conteúdos potencialmente prejudiciais.
“A nossa investigação mostra que o TikTok pode expor crianças e jovens a graves riscos para a saúde ao persistir no seu atual modelo de negócio, mais orientado para manter os olhos colados na plataforma do que para respeitar o direito à saúde das crianças e dos jovens”, completa a investigadora.
Leia o estudo completo aqui: https://www.amnesty.org/en/wp-content/uploads/2023/11/POL4073502023ENGLISH.pdf
Veja aqui vídeo da Anistia sobre o trabalho: https://www.youtube.com/watch?v=lks04RIoUZM&t=2s
Veja aqui outros estudos da Anistia Internacional sobre o assunto: https://www.amnesty.org/en/latest/news/2023/11/tiktok-risks-pushing-children-towards-harmful-content/
Selma Bellini
Psicóloga
CRP 06-155290
Comments