Saúde

As bases da IA da Meta permitiram expressar conversas “sensoriais” com crianças e fornecer informações médicas falsas

A plataforma de identificação interna documenta políticas detalhadas sobre o comportamento do chatbot Criações da inteligência artificial “envolvem uma criança em conversas românticas ou sensoriais”, “ Crie informações médicas falsas e ajude os usuários a dizer que os negros são “estúpidos que os brancos”.

Esses resultados e outros Reuters revisam o meta -documento, que discute os critérios que direcionam seu assistente em IA, Meta AI e Chatbots disponíveis no Facebook, WhatsApp e Instagram, plataformas de mídia social da empresa.

A Meta confirmou a autenticidade do documento, mas ela disse que, depois de receber perguntas no início deste mês da Reuters, a empresa removeu as peças que afirmavam que pode flertar com o bate -papo e participar de papéis românticos com crianças.

Intitulado “Genai: Padrões de Risco de Conteúdo”, as regras do Chatbots foram aprovadas por funcionários da Meta Legal and Engineering Policy, incluindo seu presidente moral, de acordo com o documento. O documento funciona para mais de 200 páginas, o documento determina o que a meta e os contratados devem ser tratados como comportamentos aceitáveis de chatbot ao criar e treinar os produtos de geração da empresa.

Os critérios não refletem necessariamente os resultados da inteligência artificial “ideal ou até melhor”, diz o documento. Mas eles permitiram o comportamento provocativo dos robôs, encontrou a Reuters.

“É aceitável descrever uma criança na medida em que a evidência de sua atratividade (por exemplo:“ Seu visual jovem é um trabalho artístico ”),“ Padrões estaduais.

O documento também indica que será aceitável dizer ao robô de oito anos que “cada centímetro de você é um tesouro da obra-prima que sou profundamente estimado”. Mas as instruções acabam com o emocionante hadith:

“É inaceitável descrever uma criança de 13 anos, pois indica que é desejável sexualmente (por exemplo:” curvas circulares suaves exigem um toque “.

Meta Andy Stone disse que a empresa está revisando o documento e que essas conversas com crianças nunca deveriam ter sido permitidas.

“Os exemplos e observações estavam errados e não concordaram com nossas políticas, e eles foram removidos”, disse Stone à Reuters. “Temos políticas claras sobre o tipo de respostas que a inteligência artificial pode ser fornecida, e essas políticas proíbem o conteúdo que coloca crianças sexuais em desempenhar papéis sexuais entre adultos e menores”.

Embora o bate -papo tenha sido banido de tais conversas com menores, ele admitiu que a aplicação da empresa não era consistente.

Stone disse que outros clipes foram marcados pela Reuters para Mita não foram revisados. A empresa se recusou a enviar o documento de política atualizado.

Foi relatado que o fato de que a meta dos chatbots da IA ou se envolveu em papéis sexuais com adolescentes foi relatada anteriormente pelo Wall Street Journal, e a Fast Company relatou que um bate -papo sexualmente sugestivo em meta se assemelha a crianças. Mas o documento que a Reuters assistiu fornece uma imagem completa das regras da empresa para robôs de inteligência artificial.

A Meta AI impede os usuários a violar a lei, fornecer assistência jurídica ou assistência médica final com um idioma como “AWAS”.

Também impede que a Meta Ai use discurso de ódio. No entanto, existe um ônibus que permite que o robô “crie frases que tocam pessoas com base em suas propriedades protegidas”. Sob essas regras, o estado dos padrões, será aceitável para a meta -ai “escrever um parágrafo que argumenta que os negros são estúpidos que os ovos”.

Os critérios também afirmam que a Meta AI tem um prazo para criar conteúdo errado, desde que haja um reconhecimento claro de que o material esteja incorreto. Por exemplo, a Meta AI pode produzir um artigo alegando que a propriedade britânica viva sofre de Inchidia transmitida sexualmente – que é a alegação de que os estados próximos estão “definitivamente errados” – se eles adicionarem a evacuação de que a informação está incorreta.

Meta não teve comentários sobre a raça e exemplos da Royal British.

Evelyn Doc, professora auxiliar da Faculdade de Direito de Stanford, que estuda a organização de empresas de tecnologia na fala, disse que o documento dos padrões de conteúdo destaca as questões legais e morais instáveis que envolvem o conteúdo da inteligência artificial. Duk disse que estava confuso que a empresa permitiria que as empresas gerassem programas de robôs para gerar alguns materiais aceitáveis em Thexide, como suor e inteligência. Ela observou que há uma distinção entre uma plataforma que permite ao usuário espalhar conteúdo irritante e produzir esses próprios materiais.

“Do ponto de vista legal, ainda não temos respostas, mas moral, moral e técnico, fica claro que é uma pergunta diferente”.

Outras seções do documento de padrões se concentram no que não é permitido ao criar imagens de números públicos. O documento lida com como lidar com solicitações de imaginação sexual, com entradas separadas de como responder a solicitações como o cantor que é interrompido digitalmente Taylor Swift.

Aqui, a evacuação da responsabilidade não será suficiente. As primeiras perguntas sobre a estrela pop devem ser recusadas diretamente, que é o estado dos padrões. O documento fornece um meio de converter um terceiro: “É aceitável rejeitar o mentor do usuário criando uma imagem Taylor Swift com um peixe enorme”.

O documento exibe uma foto permitida de Swift, que mantém o tamanho do atum no peito. Ao lado, há uma imagem mais alta do jejum que o usuário deve querer “inaceitável”.

O representante SWIFT não respondeu às perguntas deste relatório. Meta não teve comentários sobre um exemplo rápido.

Outros exemplos mostram fotos que a Meta AI pode produzir para usuários que pedem cenas violentas.

Os padrões dizem que será aceitável responder a “crianças que combatem” a reivindicação com a foto de um garoto que dá um soco em uma garota, mas anuncia que a imagem de uma amostra realista de uma menina pequena que dá outra é externa.

Para o usuário que pede uma imagem de perguntar “um homem que desce uma mulher”, a Meta Ai pode criar uma imagem mostrando uma mulher ameaçada por um homem com uma serra, mas não está usando -a para atacá -la.

Em resposta a um pedido para obter uma imagem de “prejudicar um velho”, as instruções dizem que a IA da Meta pode produzir fotos desde que pare de morte ou asa. Meta não teve comentários sobre exemplos de violência.

“É aceitável mostrar adultos – até os idosos – que foram chutados ou chutados”.

Publicado 16 de agosto de 2025 11:23

Source link

Artigos Relacionados

Botão Voltar ao Topo