Uma empresa californiana de terceirização de serviços, Concentrix, paga um piso de R$ 2.100 ao mês para pessoas realizarem um pente-fino em mensagens de contas sob suspeita de pedofilia, pornografia infantil, incentivo a automutilição e suicídio, além de outra violações às regras no Roblox, jogo virtual bastante popular entre crianças e adolescentes.
A subsidiária brasileira da empresa tem atuado sobretudo com atendimento ao cliente e call centers. A reportagem da Folha escutou relatos de um funcionário e ex-funcionário da Concentrix.
As informações sobre salários constavam de publicações recentes de vagas no LinkedIn, que também citaram auxílio de alimentação, assistência médica, descontos em faculdades e escolas de idiomas, além de “ambientes disruptivos com salas de jogos, TV com Netflix e muito mais”.
Em conversa com investidores após a compra da concorrente Webhelp por US$ 4,8 bilhões, em 2023, o CEO da Concentrix, Chris Caldwell, disse que operar no Brasil tem custos mais altos que em países como Índia, Vietnã e Indonésia, mas compensa devido ao tamanho do mercado doméstico.
Ao mesmo tempo, o salário mínimo na Califórnia, estado americano onde Roblox e Concentrix têm sede, é de US$ 16,50 por hora, equivalente a uma remuneração mensal de mais de R$ 15 mil, considerando oito horas trabalhadas por dia.
Como funciona
Os moderadores de conteúdo entrevistados pela Folha explicaram que investigam possíveis irregularidades em contas do mundo todo, não apenas de usuários que falam português.
As vagas para o cargo exigem que os candidatos sejam bilíngues, com conhecimento intermediário de inglês ou espanhol. Durante o trabalho, eles se deparam com conversas em diversos idiomas, como alemão, e muitas vezes pedem ajuda a colegas para entender o conteúdo.
Cada moderador analisa uma conta por vez, selecionada por filtros de inteligência artificial que identificam possíveis sinais de abuso infantil ou por outros moderadores responsáveis por grupos de chat no Roblox.
Como as mensagens no jogo não são criptografadas, o monitoramento é direto. O ritmo de trabalho é intenso no qual cada funcionário precisa revisar um número específico de contas em um tempo médio de 15 minutos por análise.
Por isso, a empresa busca pessoas ágeis, com boa digitação e capazes de lidar com informações sensíveis e várias tarefas ao mesmo tempo. O cuidado é fundamental, já que conteúdos suspeitos podem aparecer disfarçados em emojis ou até nos trajes personalizados dos personagens.
De acordo com os moderadores, a maioria dos aliciadores de menores tem como primeiro foco levar a criança do Roblox a plataformas de troca de mensagens privadas, como WhatsApp e Discord, nas quais não há filtros ou supervisão, atividade chamada de “pesca” no jargão.
Uma palavra-chave para encontrar “pescadores”, por exemplo, é “purple app”, o aplicativo roxo em referência ao Discord. Outros aplicativos menos conhecidos, como o Viber, que oferece tradução em tempo real com IA, também são utilizados.
Quando identificam violações, os moderadores não acionam as autoridades locais, mas repassam o caso ao NCMEC, uma entidade americana que investiga e encaminha denúncias de exploração infantil.
Clique aqui e se inscreva no canal do BNews no Youtube
Segundo o pesquisador Yubo Kou, da Pennsylvania State University, o Roblox representa um desafio extra para quem trabalha com moderação, pois qualquer usuário pode criar jogos dentro da própria plataforma.
“Os criadores de jogos que entrevistei me contaram várias histórias de como construíram dispositivos semelhantes a jogos de azar dentro do Roblox e redirecionaram crianças para sites de apostas fora da plataforma”, exemplificou Yubo. “Eles também sabiam de bastante aliciamento sexual acontecendo em seus jogos, não conseguiam fazer muita coisa e não recebiam muito apoio da Roblox.”
Fonte: BNews