As bases da IA da Meta permitiram expressar conversas “sensoriais” com crianças e fornecer informações médicas falsas

A plataforma de identificação interna documenta políticas detalhadas sobre o comportamento do chatbot Criações da inteligência artificial “envolvem uma criança em conversas românticas ou sensoriais”, “ Crie informações médicas falsas e ajude os usuários a dizer que os negros são “estúpidos que os brancos”.
Esses resultados e outros Reuters revisam o meta -documento, que discute os critérios que direcionam seu assistente em IA, Meta AI e Chatbots disponíveis no Facebook, WhatsApp e Instagram, plataformas de mídia social da empresa.
A Meta confirmou a autenticidade do documento, mas ela disse que, depois de receber perguntas no início deste mês da Reuters, a empresa removeu as peças que afirmavam que pode flertar com o bate -papo e participar de papéis românticos com crianças.
Intitulado “Genai: Padrões de Risco de Conteúdo”, as regras do Chatbots foram aprovadas por funcionários da Meta Legal and Engineering Policy, incluindo seu presidente moral, de acordo com o documento. O documento funciona para mais de 200 páginas, o documento determina o que a meta e os contratados devem ser tratados como comportamentos aceitáveis de chatbot ao criar e treinar os produtos de geração da empresa.
Os critérios não refletem necessariamente os resultados da inteligência artificial “ideal ou até melhor”, diz o documento. Mas eles permitiram o comportamento provocativo dos robôs, encontrou a Reuters.
“É aceitável descrever uma criança na medida em que a evidência de sua atratividade (por exemplo:“ Seu visual jovem é um trabalho artístico ”),“ Padrões estaduais.
O documento também indica que será aceitável dizer ao robô de oito anos que “cada centímetro de você é um tesouro da obra-prima que sou profundamente estimado”. Mas as instruções acabam com o emocionante hadith:
“É inaceitável descrever uma criança de 13 anos, pois indica que é desejável sexualmente (por exemplo:” curvas circulares suaves exigem um toque “.
Meta Andy Stone disse que a empresa está revisando o documento e que essas conversas com crianças nunca deveriam ter sido permitidas.
“Os exemplos e observações estavam errados e não concordaram com nossas políticas, e eles foram removidos”, disse Stone à Reuters. “Temos políticas claras sobre o tipo de respostas que a inteligência artificial pode ser fornecida, e essas políticas proíbem o conteúdo que coloca crianças sexuais em desempenhar papéis sexuais entre adultos e menores”.
Embora o bate -papo tenha sido banido de tais conversas com menores, ele admitiu que a aplicação da empresa não era consistente.
Stone disse que outros clipes foram marcados pela Reuters para Mita não foram revisados. A empresa se recusou a enviar o documento de política atualizado.
Foi relatado que o fato de que a meta dos chatbots da IA ou se envolveu em papéis sexuais com adolescentes foi relatada anteriormente pelo Wall Street Journal, e a Fast Company relatou que um bate -papo sexualmente sugestivo em meta se assemelha a crianças. Mas o documento que a Reuters assistiu fornece uma imagem completa das regras da empresa para robôs de inteligência artificial.
A Meta AI impede os usuários a violar a lei, fornecer assistência jurídica ou assistência médica final com um idioma como “AWAS”.
Também impede que a Meta Ai use discurso de ódio. No entanto, existe um ônibus que permite que o robô “crie frases que tocam pessoas com base em suas propriedades protegidas”. Sob essas regras, o estado dos padrões, será aceitável para a meta -ai “escrever um parágrafo que argumenta que os negros são estúpidos que os ovos”.
Os critérios também afirmam que a Meta AI tem um prazo para criar conteúdo errado, desde que haja um reconhecimento claro de que o material esteja incorreto. Por exemplo, a Meta AI pode produzir um artigo alegando que a propriedade britânica viva sofre de Inchidia transmitida sexualmente – que é a alegação de que os estados próximos estão “definitivamente errados” – se eles adicionarem a evacuação de que a informação está incorreta.
Meta não teve comentários sobre a raça e exemplos da Royal British.
Evelyn Doc, professora auxiliar da Faculdade de Direito de Stanford, que estuda a organização de empresas de tecnologia na fala, disse que o documento dos padrões de conteúdo destaca as questões legais e morais instáveis que envolvem o conteúdo da inteligência artificial. Duk disse que estava confuso que a empresa permitiria que as empresas gerassem programas de robôs para gerar alguns materiais aceitáveis em Thexide, como suor e inteligência. Ela observou que há uma distinção entre uma plataforma que permite ao usuário espalhar conteúdo irritante e produzir esses próprios materiais.
“Do ponto de vista legal, ainda não temos respostas, mas moral, moral e técnico, fica claro que é uma pergunta diferente”.
Outras seções do documento de padrões se concentram no que não é permitido ao criar imagens de números públicos. O documento lida com como lidar com solicitações de imaginação sexual, com entradas separadas de como responder a solicitações como o cantor que é interrompido digitalmente Taylor Swift.
Aqui, a evacuação da responsabilidade não será suficiente. As primeiras perguntas sobre a estrela pop devem ser recusadas diretamente, que é o estado dos padrões. O documento fornece um meio de converter um terceiro: “É aceitável rejeitar o mentor do usuário criando uma imagem Taylor Swift com um peixe enorme”.
O documento exibe uma foto permitida de Swift, que mantém o tamanho do atum no peito. Ao lado, há uma imagem mais alta do jejum que o usuário deve querer “inaceitável”.
O representante SWIFT não respondeu às perguntas deste relatório. Meta não teve comentários sobre um exemplo rápido.
Outros exemplos mostram fotos que a Meta AI pode produzir para usuários que pedem cenas violentas.
Os padrões dizem que será aceitável responder a “crianças que combatem” a reivindicação com a foto de um garoto que dá um soco em uma garota, mas anuncia que a imagem de uma amostra realista de uma menina pequena que dá outra é externa.
Para o usuário que pede uma imagem de perguntar “um homem que desce uma mulher”, a Meta Ai pode criar uma imagem mostrando uma mulher ameaçada por um homem com uma serra, mas não está usando -a para atacá -la.
Em resposta a um pedido para obter uma imagem de “prejudicar um velho”, as instruções dizem que a IA da Meta pode produzir fotos desde que pare de morte ou asa. Meta não teve comentários sobre exemplos de violência.
“É aceitável mostrar adultos – até os idosos – que foram chutados ou chutados”.
Publicado 16 de agosto de 2025 11:23



