Negócios

O Facebook vê o aumento de conteúdo violento e assédio após mudanças políticas

Meta publicou o primeiro de seu trimestre Relatórios de integridade Desde que Mark Zuckerberg voltou as políticas de discurso de ódio da empresa e mudou sua abordagem à moderação do conteúdo no início deste ano. Segundo os relatos, o Facebook viu um aumento em conteúdo violento, bullying e assédio, apesar de uma diminuição geral na quantidade de conteúdo derrubado pela Meta.

Os relatórios são a primeira vez que a Meta compartilhou dados sobre como a decisão de Zuckerberg de aumentar as políticas da Meta se desenrolaram na plataforma usada por bilhões de pessoas. Notavelmente, a empresa está girando as mudanças como uma vitória, dizendo que reduziu seus erros pela metade, enquanto a prevalência geral de conteúdo que quebra suas regras “permaneceu inalterada para a maioria das áreas problemáticas”.

Existem duas exceções notáveis, no entanto. O conteúdo violento e gráfico aumentou de 0,06% -0,07% no final de 2024 para 0,09% no primeiro trimestre de 2025. Meta atribuiu o aumento a “um aumento no compartilhamento de violação de conteúdo”, bem como suas próprias tentativas de “reduzir erros de execução”. A Meta também viu um aumento notável na prevalência de bullying e assédio no Facebook, que aumentou de 0,06-0,07% no final de 2024 para 0,07-0,08% no início de 2025. Meta diz que isso ocorreu devido a um “espetáculo” não especificado em violações em março. (Notavelmente, esta é uma categoria separada das políticas de fala de ódio da empresa, que foram reescritos Para permitir postagens segmentando imigrantes e pessoas LGBTQ.)

Isso pode parecer porcentagens relativamente pequenas, mas até pequenos aumentos podem ser perceptíveis para uma plataforma como o Facebook que vê bilhões de postagens todos os dias. (Meta descreve sua métrica de prevalência como uma estimativa de com que frequência o conteúdo que quebra as regras aparece em sua plataforma.)

O relatório também ressalta o quanto menos o meta de conteúdo está diminuindo em geral, pois se afastou da aplicação proativa de todas, exceto suas políticas mais sérias, como exploração infantil e conteúdo terrorista. Meta’s report shows a significant decrease in the amount of Facebook posts removed for hateful content, for example, with just 3.4 million pieces of content “actioned” under the policy, the company’s lowest figure since 2018. Spam removals also dropped precipitously from 730 million at the end of 2024 to just 366 million at the start of 2025. The number of fake accounts removed also declined notably on Facebook from 1.4 billion to 1 billion (Meta doesn’t provide Estatísticas em torno das remoções de contas falsas no Instagram.)

Ao mesmo tempo, a Meta afirma que está cometendo muito menos erros de moderação de conteúdo, que foi um dos Zuckerberg’s Principais justificativas Para sua decisão de acabar com a moderação proativa. “Vimos uma redução de aproximadamente 50% nos erros de execução em nossas plataformas nos Estados Unidos do quarto trimestre 2024 ao primeiro trimestre de 2025”, escreveu a empresa em uma atualização de seu post de janeiro anunciando sua política muda. A Meta não explicou como calculou esse número, mas disse que os relatórios futuros “incluiriam métricas em nossos erros para que as pessoas possam acompanhar nosso progresso”.

A Meta está reconhecendo, no entanto, que há pelo menos um grupo em que ainda é necessária alguma moderação proativa: adolescentes. “Ao mesmo tempo, continuamos comprometidos em garantir que os adolescentes em nossas plataformas tenham a experiência mais segura possível”, escreveu a empresa. “É por isso que, para adolescentes, também continuaremos a ocultar proativamente outros tipos de conteúdo nocivo, como o bullying”. Meta está sendo lançada “Contas adolescentes“Nos últimos meses, o que deve facilitar o filtro do conteúdo especificamente para usuários mais jovens.

A empresa também ofereceu uma atualização sobre como está usando grandes modelos de idiomas para ajudar em seus esforços de moderação de conteúdo. “Após mais testes, estamos começando a ver LLMs operando além do desempenho humano para áreas de políticas selecionadas”, escreve Meta. “Também estamos usando o LLMS para remover o conteúdo das filas de revisão em determinadas circunstâncias, quando estamos altamente confiantes de que não viola nossas políticas”.

O outro componente importante das mudanças políticas de Zuckerberg foi o fim das parcerias de verificação de fatos da Meta nos Estados Unidos. A empresa começou a lançar seu versão própria das anotações da comunidade para o Facebook, Instagram e tópicos no início deste ano, e desde então expandiu o esforço de respostas e respostas de threads. A Meta não ofereceu nenhuma visão de quão eficaz sua nova abordagem de origem da multidão para a verificação de fatos pode ser ou com que frequência as anotações estão aparecendo em sua plataforma, embora tenha prometido atualizações nos próximos meses.

Source link

Artigos Relacionados

Botão Voltar ao Topo