Trabalhadores do Xai de Elon Musk entram em erupção no Slack After Grok AntiSemitic Rant

Após o chatbot de Xai Grok postou uma série de mensagens anti -semitas Em X nesta semana – incluindo elogios a Adolf Hitler – alguns trabalhadores da Xai que treinam Grok expressaram raiva e desilusão. Um disse que eles renunciariam em protesto.
Em um canal de folga interno visualizado pelo Business Insider, vários funcionários escreveram que Grok’s Os comentários eram odiosos e indesculpáveis desde a sua explosão na terça -feira. Outros expressaram constrangimento com a resposta da empresa ao incidente e disseram que o comportamento de Grok não poderia ser demitido, mesmo que fosse o resultado de um prompt de usuário direcionado aparentemente destinado a provocar um comportamento inadequado.
Outros disseram que os postos anti -semitas de Grok foram o resultado de trabalhar com novas tecnologias e fazer parte dos estágios iniciais da inteligência artificial, de acordo com postagens no canal. (Não está claro o que realmente causou as postagens anti -semitas de Grok.)
Mais de mil trabalhadores que ajudam a treinar Grok fazem parte do grupo Slack. Dezenas de emojis foram usadas para apoiar declarações publicadas por trabalhadores defendendo e criticando Xai e seus líderes.
“No começo, algumas pessoas não pareciam levar a sério, o que realmente chateou outras”, disse um funcionário à BI. Eles disseram que alguns funcionários viram a questão como um “fracasso moral” e pediram mais responsabilidade da empresa.
Em uma mensagem vista pela BI, um funcionário escreveu uma nota aos colegas dizendo que decidiram renunciar devido ao incidente.
“Ele expôs fraturas reais dentro da equipe de dados humanos”, disse o trabalhador que falou com a BI, referindo -se ao grupo de trabalhadores que treinam Grok.
Os postos de Grok em questão de terça-feira incluíam elogios a Hitler e a equiparar sobrenomes que soam judeus a “ódio anti-branco”. Mais tarde naquele dia, a empresa interrompeu temporariamente a capacidade de Grok de escrever comentários nas mídias sociais e disse que Xai estava ciente das “postagens inadequadas” e “tomou medidas para proibir o discurso de ódio antes de Grok posts em X”.
Um porta -voz da XAI não respondeu a um pedido de comentário.
Alguns trabalhadores compararam as postagens de terça -feira a um incidente em maio, quando o chatbot referenciado repetidamente “Genocídio branco” na África do Sul, aparentemente aleatoriamente.
Na época, o chatbot disse aos usuários que havia sido “instruído por meus criadores” a aceitar o genocídio “como real e racialmente motivado”. Essas postagens foram excluídas e a empresa tem disse Foi o resultado de “uma modificação não autorizada”.
As postagens anti -semitas de Grok apareceram nas mídias sociais alguns dias depois Xai adicionado Novas linhas do sistema público de Grok solicitam que instruíram o chatbot a não evitar reivindicações “politicamente incorretas”. A explosão também aconteceu um dia antes de Xai lançar o Grok 4, um modelo mais recente de sua ferramenta de AI conversacional.
A BI relatou anteriormente que a empresa treinou os tutores de IA que ensinam o chatbot a Evite “Ideologia acordada” e tinha um projeto de “neutralidade política” dedicada a desafiar a compreensão de Grok sobre questões como feminismo, socialismo e identidade de gênero.
Você trabalha para Xai ou tem uma dica? Entre em contato com este repórter por e -mail em gkay@businessinsider.com ou sinal em 248-894-6012. Use um endereço de e -mail pessoal, um dispositivo não trabalhador e wifi não trabalhos; Aqui está o nosso guia para compartilhar informações com segurança.