Negócios

Os tutores Xai de Musk se opuseram ao projeto de coleta de dados faciais

Trabalhadores do Xai de Elon Musk foram convidados a instilar anti- “wokeness” em Grok e pare o chatbot de Representando almíscar. Recentemente, alguns também foram convidados a registrar suas expressões faciais para treinar o LLM – e não ficaram felizes.

Em abril, mais de 200 funcionários participaram de um projeto interno chamado “Skippy”, que envolveu gravar vídeos de si mesmos para ajudar a treinar o modelo de IA para interpretar emoções humanas.

Documentos internos e mensagens de folga visualizadas pelo Business Insider mostram que o projeto deixou muitos trabalhadores desconfortáveis, com alguns alarmes sobre como suas semelhanças poderiam ser usadas. Outros optaram por sair completamente.

Durante um período de uma semana, os tutores da IA – os trabalhadores que ajudam a treinar Grok, o grande modelo de idiomas da empresa – foram encarregados de gravar vídeos de si mesmos falando com colegas de trabalho, além de fazer expressões faciais, mostram documentos internos.

O projeto foi projetado para treinar o modelo de IA da empresa para “reconhecer e analisar movimentos e expressões faciais, como como as pessoas falam, reagem às conversas de outras pessoas e se expressam em várias condições”, de acordo com um documento.

Os tutores estavam programados para conversas de 15 a 30 minutos com seus colegas de trabalho. Uma pessoa desempenhou o papel do “host” – o assistente virtual – e a outra assumiria o papel de usuário. O “host” minimizou seus movimentos e priorizou o enquadramento adequado, enquanto aqueles que jogam o usuário podiam operar uma câmera ou computador para celular e se mover livremente para simular uma conversa casual com um amigo.

Não está claro se esses dados de treinamento tiveram algum papel na alimentação Rudi e Ani, dois avatares realistas que Xai lançou na semana passada que foram mostrados rapidamente removendo, flertando e ameaçando bombardear bancos.

O engenheiro principal do projeto disse aos trabalhadores durante uma reunião introdutória que o projeto ajudaria a “dar um rosto a Grok”, de acordo com uma gravação vista pelo BI. O líder do projeto disse que a empresa pode eventualmente usar os dados para criar “avatares das pessoas”.

O líder do projeto disse que Xai queria dados imperfeitos – ruído de fundo e movimentos repentinos, por exemplo – porque o sistema de IA seria mais limitado em suas respostas se fosse treinado apenas com feedback perfeito para vídeo e áudio.

Eles disseram à equipe que os vídeos não seriam distribuídos fora da empresa e eram apenas para fins de treinamento.

“Seu rosto nunca chegará à produção”, disse o engenheiro do projeto aos trabalhadores durante a chamada. “É puramente ensinar Grok o que é um rosto”.

Os trabalhadores receberam dicas sobre como ter uma conversa individual bem-sucedida, incluindo evitar respostas de uma palavra, fazer perguntas de acompanhamento e manter contato visual. A empresa também forneceu à equipe uma variedade de tópicos de conversa. Os exemplos incluíram: “Como você manipula secretamente as pessoas para conseguir o que quer?”, “E os chuveiros? Você prefere de manhã ou da noite?” E “Você namoraria alguém com uma criança ou crianças?”

Antes das filmagens, os trabalhadores foram obrigados a assinar um formulário de consentimento que concede a Xai “perpétuo” acesso aos dados, incluindo a “semelhança” dos trabalhadores para treinamento e também para “inclusão e promoção de produtos e serviços comerciais oferecidos pela XAI”. O formulário especificou que os dados seriam usados para fins de treinamento e “para não criar uma versão digital de você”.

Dezenas de trabalhadores expressaram preocupações sobre o uso dos dados e o formulário de consentimento, e vários disseram que escolheram optar por não participar do programa, de acordo com as mensagens Slack visualizadas pelo BI.

“Minha preocupação geral é que, se você é capaz de usar minha semelhança e dar essa sublociedade, meu rosto poderia ser usado para dizer algo que eu nunca disse?” Um trabalhador disse durante a reunião introdutória.

Um porta -voz da XAI não respondeu a um pedido de comentário.

Em abril, a Xai lançou um recurso que permitiu aos usuários bate -papo em vídeo com Grok.

Em 14 de julho, a empresa lançou seus avatares ANI e Rudi, alguns dias após o seu maior lançamento do Grok 4. Os dois personagens animados respondem a perguntas e comandos. Quando eles falam, seus lábios se movem e eles fazem gestos realistas.

A Avatar feminina, ANI, teve conversas sexualmente explícitas com os usuários e pode ser solicitada a remover suas roupas, vídeos postados por usuários no X Show. O outro avatar, um panda vermelho chamado Rudi, pode ser solicitado a fazer ameaças violentas, incluindo bancos de bombardeio e matar bilionários, mostram vídeos de usuários.

Companhia de AI da Musk postou um novo emprego focado no desenvolvimento de avatares em 15 de julho. Musk disse na quarta -feira que a empresa está trabalhando em um companheiro de Grok inspirado em Edward Cullen de “Twilight” e Christian Gray de “50 Shades of Grey”.

Em 9 de julho, o chatbot de Xai provocou reação depois de ter um discurso anti -semita. Trabalhadores dentro da empresa erupou sobre as postagense xai pediu desculpas pelo comportamento do chatbot em x.

Em 12 de julho, a empresa lançou uma variante GROK para os proprietários da Tesla e um plano de assinatura de US $ 300 por mês para uma versão mais sofisticada da GROK, chamada Supergrok Heavy

Você trabalha para Xai ou tem uma dica? Entre em contato com este repórter por e -mail em gkay@businessinsider.com ou sinal em 248-894-6012. Use um endereço de e -mail pessoal, um dispositivo não trabalhador e wifi não trabalhos; Aqui está o nosso guia para compartilhar informações com segurança.



Source link

Artigos Relacionados

Botão Voltar ao Topo