Publicado às 11h30
Por uol da universa
Mães e pais entraram em polvorosa nos últimos dias por conta do tipo de conteúdo que seus filhos podem ter acessado na internet. Uma corrente de WhatsApp afirma que, entre vídeos sobre como fazer slime (um tipo de geleia para brincar) ou de desenhos animados, está escondido um trecho em que aparece a personagem japonesa Momo, que foi uma escultura feita para uma exposição sobre fantasmas, ensinando a cometer suicídio.
Apesar do YouTube ter se manifestado afirmando que os vídeos não estão em sua plataforma infantil, o YouTube Kids, especula-se que as crianças possam ter acessado este tipo de conteúdo pela plataforma de vídeos principal. O caso Momo reacendeu a importância de falar.
Como funciona o algoritmo do YouTube
Arthur Igreja, professor da Fundação Getúlio Vargas (FGV) e especialista em tecnologia, segurança digital e inovação, explica que o YouTube Kids foi desenvolvido para detectar o tipo de conteúdo que pode ser exibido às crianças.
“O principal filtro deles é por inteligência artificial, que são algoritmos, pedaços de códigos que aprendem. Se você mostrar uma imagem ou algum som ou característica que o conteúdo tem, ele aprende a encontrar similaridades”.
Essas similaridades fazem com que vídeos com a mesma temática sejam selecionados e agrupados em uma mesma seção de uma página na internet. Porém, no YouTube, sem o filtro para crianças, qualquer conteúdo está livre para ser publicado e só pode ser deletado se for denunciado. Com a confirmação de que vídeos com trechos exibindo a Momo não estão no YouTube Kids, é provável que as crianças tenham entrado em contato com o viral pelo site sem barreira de faixa etária.
Em outras redes, como o WhatsApp, fica mais difícil de filtrar quem pode ser atingido pelo conteúdo –e o desafio Momo começou justamente no aplicativo de mensagens, em 2018.
Mesmo assim, o especialista alerta que boa parte da popularização da Momo foi porque o conteúdo se espalhou pelas redes sociais por meio do pânico. “O que houve essa semana foi, até onde se sabe, uma viralização por preocupação dos pais. É uma estratégia que a gente chama de cavalo de troia: você manda algo na melhor das intenções, tentando alertar os outros, mas acaba gerando um resultado muito ruim”.
Conteúdo enganoso em vídeos não é novidade
Quando a plataforma de vídeos começou a se popularizar, em meados dos anos 2000, era comum encontrar “screamers”: no meio do vídeo, sem aviso, aparecia uma imagem assustadora e um grito alto, para assustar o espectador que não estava esperando por esse momento.
Deborah Moss, neuropsicóloga e mestre em psicologia do desenvolvimento humano pela Universidade de São Paulo (USP), acredita a Momo pode ser comparada ao caso dos “screamers”, e que a intenção de criar esse tipo de conteúdo malicioso é de somente causar algum tipo de alvoroço, ou por maldade.
“Crianças são mais suscetíveis a serem vítimas, é mais fácil para alguém com más intenções para ludibriar e atacar esse público, em comparação a um adulto com capacidade de discernimento. Muita gente fica só na perversidade”, diz. Igreja crê nesta possibilidade, e afirma que também pode ser uma ação para difamar o YouTube Kids.
Como monitorar e denunciar o conteúdo
Moss aconselha que uma das formas para ter certeza de que o conteúdo é apropriado para crianças é que os pais assistam o conteúdo antes e selecionem o que está permitido.
“Eles precisam de supervisão. Na internet não tem filtro, às vezes a criança não sabe ler, aí ela pega o tablet, clica em qualquer coisa que se pareça com um vídeo infantil ou usa a ferramenta de áudio para fazer busca e não vai saber dizer logo de cara se é o desenho normal ou uma paródia, por exemplo. Não dá para largar o aparelho na mão da criança”.
Ela também ressalta a importância de colocar um limite e não permitir que elas consumam tanto conteúdo online. “O tédio é bom, ele estimula a criatividade, faz com que a criança pense em formas novas de se entreter, e isso é importante para ela”.
Igreja diz que uma boa tática também é ler os comentários do vídeo: muitas vezes os próprios usuários avisam se há conteúdo maldoso no meio ou não. “Os pais também precisam ficar de olho nos comerciais, porque eles são aleatórios e podem aparecer no meio do vídeo, não só no início. Pode acontecer de ter alguma publicidade mal direcionada que possa cair nesses conteúdos infantis”.
Ele também diz que, caso encontre algum vídeo enganoso, ele deve ser denunciado no próprio YouTube ou pelo site da Safernet.
É preciso cuidado para conversar com os filhos
Moss alerta que a pior tática ao falar sobre o assunto com os filhos é demonstrar que a situação é preocupante, principalmente quando não foi confirmado que esses vídeos estão hospedados na seção infantil do YouTube.
“O melhor é esperar um pouco antes de falar do assunto com a criança, não antecipar a conversa. Quando for falar com eles, os pais precisam dizer ‘olha, quando você estiver assistindo algum programa e tiver dúvida, ou algo te assustar, me conta o que aconteceu que eu te explico sobre isso, a gente conversa’. A gente sabe que a vida é corrida, mas precisa ter um momento de troca de informações, de realmente interagir com os filhos”.
Adicione Comentário