Meta supostamente usará em breve a IA para a maioria das avaliações de risco de produto em vez de revisores humanos

De acordo com um relatório de A meta -planeja mudar a tarefa de avaliar os possíveis prejudica de seus produtos dos revisores humanos, ao invés disso, apoiando -se mais à IA para acelerar o processo. Documentos internos vistos pela publicação observam que a Meta tem como objetivo ter até 90 % das avaliações de risco que caem na IA, NPR relatórios e está pensando em usar análises de IA, mesmo em áreas como risco para jovens e “integridade”, que abrange conteúdo violento, desinformação e muito mais. Funcionários atuais e antigos sem nome que falaram com NPR A IA avisada pode ignorar os riscos sérios que uma equipe humana seria capaz de identificar.
Atualizações e novos recursos para as plataformas da Meta, incluindo Instagram e WhatsApp, há muito tempo são submetidos a críticas humanas antes de chegarem ao público, mas a Meta teria dobrado o uso da IA nos últimos dois meses. Agora, de acordo com NPR, As equipes de produtos precisam preencher um questionário sobre seu produto e enviá -lo para revisão pelo Sistema de IAque geralmente fornece uma “decisão instantânea” que inclui as áreas de risco identificadas. Eles terão que atender a todos os requisitos que ela estabelecida para resolver os problemas antes que o produto possa ser divulgado.
Um ex -meta executivo disse NPR Essa redução do escrutínio “significa que você está criando riscos mais altos. externalidades negativas das mudanças de produto têm menos probabilidade de serem evitadas antes de começarem a causar problemas no mundo”. Em uma declaração para NPRA Meta disse que ainda tocaria “experiência humana” para avaliar “questões novas e complexas” e deixar as “decisões de baixo risco” para a IA. Leia o relatório completo em .
Vem alguns dias depois que a Meta lançou seu – o primeiro desde e no início deste ano. A quantidade de conteúdo retirada diminuiu sem surpresa após as mudanças, de acordo com o relatório. Mas houve um pequeno aumento no bullying e assédio, além de conteúdo violento e gráfico.