Meta diz que o assédio on -line acabou após as mudanças de moderação do conteúdo

Meta relataram que o bullying on -line e o assédio no Facebook aumentaram um pouco no primeiro trimestre de 2025 em comparação com o quarto trimestre 2024.
“Houve um pequeno aumento na prevalência de conteúdo de bullying e assédio de 0,06-0,07%, para 0,07-0,08% no Facebook devido a um aumento no compartilhamento de violar conteúdo em março”, disse a Meta em seu primeiro relatório de integridade do primeiro trimestre publicado na quinta-feira. “Houve também um pequeno aumento na prevalência de conteúdo violento e gráfico no Facebook de 0,06% -0,07%, para cerca de 0,09% devido a um aumento no compartilhamento de violar o conteúdo, bem como resultado do trabalho em andamento para reduzir os erros de execução”.
Em comunicado ao Business Insider, Erica Sackin, porta -voz da Meta, escreveu: “O que 0,06% a 0,07% realmente significa é que a prevalência desse tipo de conteúdo passou de 6 visualizações de cada 10.000 a 7 visualizações em cada 10.000”.
A Meta não elaborou o que precipitou o influxo de conteúdo violento em março.
Meta revisou o seu Políticas de moderação de conteúdo Em janeiro, reduzindo -os para permitir mais conteúdo político no Instagram, Facebook e tópicos. Ele eliminou várias restrições sobre tópicos como imigração, identidade de gênero e gênero que “são objeto de discurso político e debate frequentes”, afirmou em uma postagem de blog que anuncia as mudanças em janeiro.
Com isso, também mudou sua definição de “discurso de ódio” e disse que se concentraria em sinalizar “ataques diretos contra as pessoas” e desumanizar o discurso. Antes das mudanças, a Meta tentou sinalizar uma gama mais ampla de agressões, incluindo “declarações de inferioridade, expressões de desprezo ou nojo; xingar; e exige exclusão ou segregação”.
A maior mudança, porém, foi que ele eliminou verificadores de fatos de terceiros e os substituíram por notas da comunidade de origem da multidão como suas concorrente x.
A Meta disse que a mudança estatística mais significativa que observou em suas novas políticas foi uma redução nas taxas de erro.
Sob suas antigas políticas de moderação de conteúdo, a Meta disse que removeu milhões de peças de conteúdo por dia e estimou que um ou dois em cada 10 foram sinalizados por erro. Com suas novas mudanças, a empresa diz que cortou esses erros ao meio.
“Nosso relatório do primeiro trimestre de 2025 é o primeiro trimestre em que essas alterações são refletidas nos dados “, Sackin escreveu.” Em uma série de áreas de política, vimos uma diminuição na quantidade de conteúdo acionada e uma diminuição na porcentagem de conteúdo em que tomamos medidas antes de um usuário o denunciar “.
Ela acrescentou, no entanto, que a Meta está trabalhando para “encontrar o equilíbrio certo” entre muito pouca fiscalização e violação de conteúdo e muita aplicação e muitos erros.
Essa idéia foi ecoada por Theresa Payton, CEO e fundadora da empresa de segurança cibernética Fortalice Solutions e o primeiro diretor de informações dos EUA durante Presidente George BushO segundo mandato, que conversou com o Business Insider no final de janeiro.
“As notas da comunidade permitiram ‘a democratização da verificação de fatos'”, disse ela. “Você precisa acabar com as duas anotações da comunidade para garantir que você não tenha bots ou pessoas que não tenham puras intenções, e pode haver uma oportunidade de viés de risco ou desinformação lá também”.
O mais recente relatório de fiscalização dos padrões comunitários da Meta mostrou que a prevalência de violações de bullying on -line e assédio nas plataformas estava entre 0,08% e 0,09% no primeiro trimestre de 2024 e cerca de 0,07% no primeiro trimestre de 2023.