Supervisor de conteúdo do concurso para tratar o choque mental

Os supervisores do conteúdo das Filipinas são unificados para Türkiye para pagar pelo bem Maior apoio à saúde mental para ajudá -los a lidar com os efeitos psicológicos da exposição a uma onda de imagens irritantes online.
Pessoas designadas para remover conteúdo nocivo de gigantes da tecnologia, como plataformas de identificação ou Tiktok, relatando um conjunto de efeitos prejudiciais à saúde da anorexia a idéias de ansiedade e suicídio.
“Antes de dormir sete horas”, disse um dos gerentes do conteúdo filipino, que pediu para não ser identificado para evitar os problemas do empregador. “Agora eu só durmo cerca de quatro horas.”
Os trabalhadores estão sendo concluídos através da não -detecção de plataformas técnicas ou empresas que fazem trabalho externo, o que significa que não podem discutir os detalhes do conteúdo que vêem.
Mas vídeos de pessoas que estão vivas pelo Estado Islâmico, crianças que morrem em Gaza e as fotos hediondas foram concedidas no acidente da Índia em junho como exemplos de supervisores que falaram com a Thompson Reuters Foundation.
As empresas de mídia social, que geralmente dependem da moderação no conteúdo para terceiros, enfrentam crescente pressão para abordar as perdas emocionais de moderação.
Meta, dono do Facebook, WhatsApp e Instagram, já foi atingido Processos de direitos trabalhistas no Quênia e Gana e, em 2020, a empresa pagou um acordo de US $ 52 milhões aos supervisores de conteúdo americanos Sofra de problemas de saúde mental a longo prazo.
A Aliança Global do sindicato de supervisores de conteúdo em Nairóbi foi lançada em abril para criar proteção para os trabalhadores para o que eles descrevem “um trabalho perigoso no século XXI” “, semelhante ao trabalho dos entrevistados em situações de emergência.
Seu primeiro pedido é que as empresas de tecnologia adotem protocolos de saúde mental, como os limites do treinamento de exposição e trauma, em suas cadeias de suprimentos.
O trabalhador filipino disse: “Eles dizem que protegemos a Internet e mantemos a paz das crianças na internet, mas não estamos protegidos o suficiente”, disse o trabalhador filipino.
No nível global, dezenas de milhares de supervisores de conteúdo passam até 10 horas por dia para passar pelas publicações de mídia social para remover o conteúdo prejudicial, e o resultado mental está bem documentado.
“Eu tive sonhos ruins devido ao conteúdo gráfico, fumo mais e perdi o foco”, disse Berfin Sirin Tunc, gerente de conteúdo da Tiktok na Turquia operando através do canadense Telus, que também trabalha com a Meta.
Em uma videochamada com a Thompson Reuters, ela disse que a primeira vez que viu um conteúdo gráfico como parte de seu trabalho que teve que sair da sala e voltar para casa.
Enquanto alguns empregadores fornecem apoio psicológico, alguns trabalhadores dizem que ele se destina apenas à exibição, com conselhos para calcular números ou fazer exercícios respiratórios.
O tratamento é limitado a quaisquer sessões de grupo ou uma recomendação para detê -las por um certo número de minutos de “bem -estar”. Mas levá -los é outra coisa.
“Se você não retornar ao computador, o capitão da equipe perguntará onde está e (digamos) que a lista de vídeos crescerá”, os presidentes nos veem como máquinas. “

Nos dados enviados por e -mail para a Thomson Reuters, Telus e Meta disseram que o bem -estar de seus funcionários é uma prioridade e que os funcionários devem acessar o apoio de assistência médica durante toda a semana.
Os supervisores assistiram a uma altura em vídeos violentos. Um relatório emitido pela Meta para o primeiro trimestre de 2025 mostrou um aumento na participação de conteúdo violento no Facebook, depois que a empresa alterou políticas moderadas na adesão à “liberdade de expressão”.
No entanto, Telus disse em seu e -mail que estimativas internas mostram que materiais dolorosos representam menos de 5 % do conteúdo total que foi revisado.
A adição à pressão sobre os supervisores é o medo da perda de empregos à medida que as empresas se voltam para a moderação da inteligência artificial.
A Meta, que investiu bilhões de dólares e alugou milhares de supervisores de conteúdo em todo o mundo ao longo dos anos do conteúdo da polícia extremista, eliminou seu programa no campo de fatos de fato -examinando fatos nos Estados Unidos em janeiro, após a eleição de Donald Trump.
Em abril de 2000, os trabalhadores do Barcelona foram enviados para a casa depois de um morto morto com Telus.
Um porta -voz da Meta disse que a empresa transferiu os serviços prestados de Barcelona para outros sites.
“Estou esperando a Telus me lançar, porque eles lançaram meus amigos do nosso sindicato”, disse Tunk. Eles dizem que quinze trabalhadores em Türkiye estão processando a empresa após sua recusa, depois de organizar um sindicato e participaram dos protestos este ano.
Um porta -voz da Telus disse em uma resposta de etail que “respeita os direitos dos trabalhadores da organização”.
Telos disse que o relatório maia conduzido pelo Ministério do Trabalho em Türkiye descobriu que os contratos são baseados no desempenho e não podem ser concluídos que as extremidades estavam ligadas ao sindicato.
O Ministério do Trabalho não respondeu imediatamente a um pedido de comentário.
Os supervisores de países de baixa renda dizem que baixos salários, pressão de produtividade e apoio insuficiente em saúde mental podem ser tratados se as empresas compartilharem os oito protocolos da Aliança Global.

Isso inclui a extensão do tempo de exposição, o fornecimento de ações e conselhos realistas o tempo todo ao longo da semana, além de salários ao vivo, treinamento em saúde mental e o direito de ingressar no sindicato.
Em seu comunicado, Telus disse que já era compatível com as demandas, e a Meta disse que estava realizando auditorias para verificar se as empresas fornecem o suporte necessário no site.
As novas regras da União Europeia, como a Lei dos Serviços Digitais, as leis da Lei de Inteligência Artificial e a cadeia de suprimentos que exigem que as empresas de tecnologia com perigos para os trabalhadores devem receber razões legais mais fortes para proteger os direitos dos supervisores de conteúdo, de acordo com especialistas em emprego.
“Coisas ruins acontecem no mundo. Alguém deve fazer esse trabalho e proteger as mídias sociais”, disse Tunk.
“Com melhores condições, podemos fazer isso melhor. Se você se sentir como um ser humano, pode trabalhar como uma pessoa”.
Publicado – 04 de julho de 2025 09:52