;(function() { window.createMeasureObserver = (measureName) => { var markPrefix = `_uol-measure-${measureName}-${new Date().getTime()}`; performance.mark(`${markPrefix}-start`); return { end: function() { performance.mark(`${markPrefix}-end`); performance.measure(`uol-measure-${measureName}`, `${markPrefix}-start`, `${markPrefix}-end`); performance.clearMarks(`${markPrefix}-start`); performance.clearMarks(`${markPrefix}-end`); } } }; /** * Gerenciador de eventos */ window.gevent = { stack: [], RUN_ONCE: true, on: function(name, callback, once) { this.stack.push([name, callback, !!once]); }, emit: function(name, args) { for (var i = this.stack.length, item; i--;) { item = this.stack[i]; if (item[0] === name) { item[1](args); if (item[2]) { this.stack.splice(i, 1); } } } } }; var runningSearch = false; var hadAnEvent = true; var elementsToWatch = window.elementsToWatch = new Map(); var innerHeight = window.innerHeight; // timestamp da última rodada do requestAnimationFrame // É usado para limitar a procura por elementos visíveis. var lastAnimationTS = 0; // verifica se elemento está no viewport do usuário var isElementInViewport = function(el) { var rect = el.getBoundingClientRect(); var clientHeight = window.innerHeight || document.documentElement.clientHeight; // garante que usa ao mínimo 280px de margem para fazer o lazyload var margin = clientHeight + Math.max(280, clientHeight * 0.2); // se a base do componente está acima da altura da tela do usuário, está oculto if(rect.bottom < 0 && rect.bottom > margin * -1) { return false; } // se o topo do elemento está abaixo da altura da tela do usuário, está oculto if(rect.top > margin) { return false; } // se a posição do topo é negativa, verifica se a altura dele ainda // compensa o que já foi scrollado if(rect.top < 0 && rect.height + rect.top < 0) { return false; } return true; }; var asynxNextFreeTime = () => { return new Promise((resolve) => { if(window.requestIdleCallback) { window.requestIdleCallback(resolve, { timeout: 5000, }); } else { window.requestAnimationFrame(resolve); } }); }; var asyncValidateIfElIsInViewPort = function(promise, el) { return promise.then(() => { if(el) { if(isElementInViewport(el) == true) { const cb = elementsToWatch.get(el); // remove da lista para não ser disparado novamente elementsToWatch.delete(el); cb(); } } }).then(asynxNextFreeTime); }; // inicia o fluxo de procura de elementos procurados var look = function() { if(window.requestIdleCallback) { window.requestIdleCallback(findByVisibleElements, { timeout: 5000, }); } else { window.requestAnimationFrame(findByVisibleElements); } }; var findByVisibleElements = function(ts) { var elapsedSinceLast = ts - lastAnimationTS; // se não teve nenhum evento que possa alterar a página if(hadAnEvent == false) { return look(); } if(elementsToWatch.size == 0) { return look(); } if(runningSearch == true) { return look(); } // procura por elementos visíveis apenas 5x/seg if(elapsedSinceLast < 1000/5) { return look(); } // atualiza o último ts lastAnimationTS = ts; // reseta status de scroll para não entrar novamente aqui hadAnEvent = false; // indica que está rodando a procura por elementos no viewport runningSearch = true; const done = Array.from(elementsToWatch.keys()).reduce(asyncValidateIfElIsInViewPort, Promise.resolve()); // obtém todos os elementos que podem ter view contabilizados //elementsToWatch.forEach(function(cb, el) { // if(isElementInViewport(el) == true) { // // remove da lista para não ser disparado novamente // elementsToWatch.delete(el); // cb(el); // } //}); done.then(function() { runningSearch = false; }); // reinicia o fluxo de procura look(); }; /** * Quando o elemento `el` entrar no viewport (-20%), cb será disparado. */ window.lazyload = function(el, cb) { if(el.nodeType != Node.ELEMENT_NODE) { throw new Error("element parameter should be a Element Node"); } if(typeof cb !== 'function') { throw new Error("callback parameter should be a Function"); } elementsToWatch.set(el, cb); } var setEvent = function() { hadAnEvent = true; }; window.addEventListener('scroll', setEvent, { capture: true, ive: true }); window.addEventListener('click', setEvent, { ive: true }); window.addEventListener('resize', setEvent, { ive: true }); window.addEventListener('load', setEvent, { once: true, ive: true }); window.addEventListener('DOMContentLoaded', setEvent, { once: true, ive: true }); window.gevent.on('allJSLoadedAndCreated', setEvent, window.gevent.RUN_ONCE); // inicia a validação look(); })();
Topo
Entretenimento

Por que redes mantêm no ar desafios que mataram 56 crianças no Brasil

Os desafios nas redes sociais mataram ou feriram ao menos 56 crianças e adolescentes desde 2014 - AdobeStock
Os desafios nas redes sociais mataram ou feriram ao menos 56 crianças e adolescentes desde 2014 Imagem: AdobeStock
do UOL

Do UOL, em São Paulo

02/06/2025 05h30Atualizada em 02/06/2025 09h53

Quando Sarah Raissa, de 8 anos, inalou aerossol de um desodorante para cumprir um desafio e teve uma parada cardiorrespiratória, outra menina, de 11 anos, já havia morrido vítima da mesma forma. A "brincadeira" é motivo de alerta há mais de uma década e ainda assim continua viralizando. Especialistas ouvidos por Tilt culpam a falta de investimento de empresas em moderação, o modelo de negócios das redes sociais e a ausência de regulação.

O que aconteceu

Os desafios nas redes sociais mataram ou feriram ao menos 56 crianças e adolescentes brasileiros desde 2014. O levantamento é do Instituto DimiCuida, que compila os dados por meio de notícias na imprensa e famílias que procuraram a entidade.

Desafios que restringem a respiração são os mais populares entre crianças e adolescentes. Quem explica é Demétrio Jereissatti, engenheiro e pesquisador do DimiCuida, que criou o instituto após perder o filho de 16 anos em 2014, vítima do "desafio do desmaio".

Sinais podem indicar que seu filho pratica desafios. Jereissati alerta para irritabilidade, perda de apetite, olhos vermelhos, uso de roupas fechadas para esconder machucados e objetos como cordas guardadas no quarto.

Sarah Raissa Pereira de Castro sofreu uma parada cardiorrespiratória - Reprodução/Instagram - Reprodução/Instagram
Sarah Raissa Pereira de Castro sofreu a parada cardiorrespiratória
Imagem: Reprodução/Instagram

Por que desafios ainda se espalham

Falta moderação mais eficaz capaz de barrar conteúdos perigosos. Crianças continuam morrendo ou se ferindo por causa de vídeos que poderiam ser bloqueados com moderação e algoritmos capazes de identificar sinais de perigo. "Já existe tecnologia que permite identificar conteúdos pela fala ou mensagem inserida no vídeo e existem algoritmos de análise de áudio, por exemplo", diz Virgilio Almeida, professor de ciência da computação da UFMG (Universidade Federal de Minas Gerais).

Plataformas destacam a moderação automatizada, mas há falha sistemática para derrubar desafios. O próprio TikTok descreve o sistema como capaz de analisar "uma variedade de sinais em todo o conteúdo, incluindo palavras-chave, imagens, títulos, descrições e áudio". Se nenhuma violação é identificada, o post é liberado; se algum problema for localizado, os moderadores humanos são acionados.

Tilt encontrou uma variação do desafio do desodorante na primeira busca e rolando o feed por cerca de um minuto. Apesar do TikTok ter dito à reportagem que bloqueou os resultados para a busca "desafio desodorante" e que 31,8 milhões de vídeos foram removidos entre outubro e dezembro de 2024 - sendo 98,5% removidos antes de uma denúncia -, foi simples ar o conteúdo parecido, que leva as pessoas a pressionarem uma parte do desodorante de aerossol até que ela exploda.

Empresas não são claras sobre políticas de moderação. Questionadas por Tilt, nenhuma das redes sociais procuradas (TikTok, Instagram e YouTube) informou quantos moderadores trabalham na plataforma para cuidar de posts em português. TikTok disse que existem mais de 40 mil profissionais de segurança na rede social e que o conteúdo é analisado em mais de 70 idiomas, sem especificar.

Já questionei ao TikTok quantos perfis de pessoas com menos de 13 anos foram derrubados no Brasil, mas eles não enviam os dados. Os estudiosos não sabem nem quantos humanos atuam na plataforma como moderadores para língua portuguesa.
Maria Mello, coordenadora do eixo digital do Instituto Alana

Modelo de negócio prioriza engajamento e lucro. "O objetivo é manter o usuário engajado. Se ele está engajado, permanece mais tempo utilizando a plataforma. Com isso, aumentam as oportunidades de publicidade, o que reflete no faturamento", explica Almeida.

Desafios chocantes geram visualizações e retêm atenção, o que alimenta o algoritmo de impulsionamento. Segundo os especialistas ouvidos por Tilt, não investir em moderação é uma escolha deliberada. "Gasta-se menos, lucra-se mais", resume Maria Mello. "Mesmo que esses posts não sejam os que mais 'viralizam' nas redes sociais, o ato de não investir em moderação de conteúdo é um modelo de negócio."

O que pode ser feito

Governo busca regulação das redes sociais. As mortes das meninas reacenderam o debate sobre regras e punições, e o governo Lula elabora um projeto de lei que prevê proteção adicional a crianças e adolescentes —-o Marco Legal da Proteção dos Usuários de Serviços Digitais. O objetivo é "garantir a proteção das famílias e dos consumidores e a confiabilidade do ambiente de negócios", segundo o Ministério da Justiça. Proposta vem depois de o PL das Fake News fracassar no Congresso.

As empresas têm políticas de proteção de crianças e adolescentes, mas não têm feito o suficiente para mitigar os efeitos negativos das redes. Ao contrário, a arquitetura que sustenta o modelo de negócio das plataformas, baseado no alto engajamento dos usuários, impacta negativamente o público infanto-juvenil.
João Brant, secretário de políticas digitais da Secretaria de Comunicação Social, em artigo a Tilt

Especialista cobra que crianças e adolescentes sejam prioridade e protegidos do "design manipulativo". Mello defende que a lei seja clara sobre o tratamento de dados de menores de idade, já que essas informações não podem ser usadas para direcionar publicidade. "A violação de menores de idade precisa ser priorizada na moderação de conteúdo."

O que efetivamente podem fazer mães e pais, diante de tamanho poder exercido pela dominação algorítmica? O nível de invisibilidade dos modos de funcionamento dos algoritmos é avassalador. Não se trata apenas da invisibilidade das experiências dos adolescentes em relação aos familiares, mas da opacidade sobre como estas plataformas ajudam a moldar a experiência individual a partir da cultura digital.
Maria Mello, em artigo a Tilt

O que dizem as empresas

Instagram diz que rede social só pode ser usada a partir dos 13 anos. A empresa coloca para os responsáveis a restrição de conversas e conteúdos e afirma que disponibilizou desde este ano a modalidade "Conta de Adolescente" no Brasil. A plataforma não respondeu como verifica se a idade declarada é verdadeira. Também não explicou como evita que esses desafios perigosos sejam publicados ou se e como eles são identificados.

YouTube diz que veta desafios perigosos e adota uma série de medidas para proibir publicação. A plataforma não permite material com risco eminente de lesões físicas e estresse em crianças ou adolescentes e sugere que conteúdos sejam denunciados, mas não explica como identifica e remove esses vídeos nocivos ou como evita que sejam publicados. A empresa também ressalta que só permite pessoas maiores de 13 anos, sem explicar como a verificação é feita, e oferece a versão Kids com conta supervisionada.

O TikTok diz que oferece controle parental e exclui contas de menores de 13 anos quando detecta. Mas a empresa também não explicou como faz a identificação da idade.

WhatApp e YouTube são as plataformas digitais mais adas por pessoas de 9 a 17 anos. A informação é da pesquisa TIC Kids Online Brasil 2024:

  • WhatsApp - 71%
  • YouTube - 66%
  • Instagram - 60%
  • TikTok - 50%

Entretenimento