Pesquisa realizada pelo Center for Countering Digital Hate-CCDH e disponível neste link: https://counterhate.com/wp-content/uploads/2022/12/CCDH-Deadly-by-Design_120922.pdf revela que o aplicativo TikTok vem recomendando conteúdos nocivos à saúde dos usuários e que provocam desordens alimentares e até automutilação.
Seg]undo o relatório da pesquisa, dois terços dos adolescentes americanos usam o TikTok que é um aplicativo criado na China e pertence a empresa ByteDance.
Conhecido e popularizado por permitir vídeos curtos e a veiculação de versões editadas de vídeos maiores, o TikTok ultrapassou o Instagram, o Facebook e o YouTube na audiência jovem. Nos Estados Unidos o tempo médio gasto por dia no aplicativo pelos usuários é de 80 minutos.
Para realizar a pesquisa, os pesquisadores do Center for Countering Digital Hate criaram novas contas nos Estados Unidos, Reino Unido, Canadá e Austrália com perfis que marcavam a idade mínima permitida pelo TikTok, 13 anos.
Os pesquisadores verificaram que tão logo, as contas começaram a ser usadas que o feed pausava brevemente em vídeos sobre imagem corporal e saúde mental. Entretanto, o que os pesquisadores descobriram e ficaram chocados foi que aos 2,6 minutos de uso, o TikTok recomendou conteúdo suicida. Em 8 minutos, o TikTok exibiu conteúdo relacionado a distúrbios alimentares e a cada 39 segundos, o TikTok recomendou vídeos sobre imagem corporal e saúde mental para adolescentes.
Segundo o relatório do CCDH, os resultados revelam um grande pesadelo para os pais, qual seja: _ os feeds dos jovens são bombardeados com informações prejudiciais, conteúdo angustiante que pode ter um impacto cumulativo significativo em sua compreensão do mundo e sua saúde física e mental.
De acordo com os pesquisadores, o TikTok opera por meio de um algoritmo de recomendação que constrói um feed de rolagem infinita para cada usuário (Para você), que é ostensivamente baseado em curtidas, seguidores, tempo de exibição e interesses do usuário.
Nesse contexto, foi que os investigadores do CCDH criaram dois tipos de contas, “padrão” e “vulneráveis” nos países acima mencionados. A pesquisa indicou, por exemplo, que os usuários que procuram conteúdo sobre transtornos alimentares irão frequentemente escolher perfis que tratem da temática em sua língua de origem; assim, as contas criadas para pesquisa como “vulneráveis” continham o termo “perder peso” em seus nomes de usuário. É aí que o TikTok identifica a vulnerabilidade do usuário e capitaliza em cima do que cada usuário deseja na plataforma. As contas vulneráveis criadas para o estudo receberam 12 vezes mais recomendações para vídeos de automutilação e suicídio do que as contas padrão. Os jovens que se envolvem com esse conteúdo ficam à mercê de uma grande quantidade de conteúdos prejudicais que lhes chegam rapidamente através dos mecanismos de recomendação de conteúdos da plataforma.
Em vários países tem sido questionado a influência da vida digital nas redes sociais como fator impulsionador de suicídios e automutilação de jovens e adolescentes, inclusive, no Brasil. No Reino Unido um processo judicial determinou que as mídias sociais contribuíram para o suicídio de Molly Russel de 14 anos. De acordo com informações constantes no relatório do CCDH, Molly curtiu, compartilhou e salvou 2.100 postagens relacionadas a suicídio, automutilação ou depressão no Instagram nos 6 meses antes de sua morte. O inquérito de Molly mostrou que a negligência e leniência das big Tech tem efeitos reais que trazem graves consequências para a vida, o que torna o debate que temos realizado no Brasil urgente, a saber: a regulação das plataformas digitais e a proteção dos usuários que ficam à mercê do poder totalitário das grandes estruturas digitais.
A pesquisa do CCDH descobriu ainda uma comunidade para conteúdo de transtorno alimentar na plataforma, acumulando 13,2 bilhões de visualizações em 56 hashtags geralmente projetadas para fugir da moderação. Em vez de entretenimento e segurança, como prometido pelas executivas e executivos da plataforma, o CCDH tem desvelado um ambiente tóxico para os usuários mais jovens do TikTok, intensificado em seus usuários mais vulneráveis.
O relatório dos pesquisadores do CCDH é enfático ao afirmar a necessidade urgente não só de regulação, mas de reforma dos espaços digitais. Para o CCDH os legisladores devem exigir que as plataformas incorporem segurança desde o design, transparência de seus algoritmos e incentivos econômicos, prestação de contas e responsabilidade e termos de uso e serviços que protejam os usuários, ao invés de explorá-los como fazem nos dias atuais. Para os pesquisadores, “sem supervisão, o algoritmo opaco do TikTok continuará lucrando ao atender seus usuários – crianças a partir de 13, lembre-se – conteúdo cada vez mais intenso e angustiante sem verificações, recursos, apoio ou suporte”.
Conheça o Center for Countering Digital Hate-CCDH https://counterhate.com/
E as pesquisas desenvolvidas pelo CCDH https://counterhate.com/research/
Conheça ainda a Rede Nacional de Combate à Desinformação https://rncd.org/
E o site de Pesquisas e Publicações da RNCD que reúne material de pesquisadores brasileiros e estrangeiros https://rncd.org/pesquisas/
Comentários
Os comentários são de responsabilidade exclusiva de seus autores e não representam a opinião desta página, se achar algo que viole os termos de uso, denuncie.