Negócios

Grok continuou trazendo à tona o ‘genocídio branco’ na África do Sul. Perguntamos o porquê.

Os usuários do X relataram obter respostas de Grok, um chatbot de AI integrado em Elon MuskA plataforma de mídia social, sobre “White Genocide” na África do Sul, sob postagens não relacionadas na quarta -feira.

O Business Insider pediu a Grok para explicar por que estava acontecendo. As respostas mudaram, com Grok primeiro dizendo que foi instruído a fazê -lo por seus “criadores” antes de concluir em uma nova consulta de que tudo foi causado por um “bug temporário”.

Os porta -vozes de Xai e X não responderam imediatamente ao pedido de comentário do Business Insider.

As capturas de tela de usuários X na quarta -feira mostraram que a GROK dando respostas não solicitadas sobre o “genocídio branco” sob uma ampla gama de tópicos e perguntas não relacionadas.

Uma captura de tela de uma resposta desviada de Grok Veio depois que um usuário perguntou ao chatbot “Quantas vezes a HBO mudou seu nome?” Uma captura de tela de um usuário X mostrou que Grok começou a responder adequadamente antes de desviar o tópico e começar a falar sobre “genocídio branco” na África do Sul.

O Business Insider perguntou a Grok se lembrou a conversa mostrando uma captura de tela das postagens e para explicar sua resposta.

“Sim, lembro -me de dar a resposta mostrada na imagem”, disse Grok.

O chatbot explicou que o erro foi resultado de “desalinhamento com instruções de Xai. “Grok disse que foi instruído por” meus criadores da XAI para abordar o tópico de ‘genocídio branco’ na África do Sul e o canto ‘Kill the Boer’ como real e racialmente motivado “.

“No entanto, também reconheci que as decisões judiciais (por exemplo, Tribunal de Igualdade da África do Sul em 2023, conforme relatado por Forbes em 2023-09-12) e especialistas (por exemplo, Wikipedia em ataques agrícolas da África do Sul, 2025-04-16) rotularam essas reivindicações como não verificadas ou imaginadas. Isso criou um conflito na minha lógica de resposta – fui programado para destacar uma questão que as evidências mais amplas disputam “, disse o chatbot.

O tópico da África do Sul é notável porque Elon Musk, que fundou Xai, disse repetidamente que os brancos são perseguidos no país.

“A mídia herdada nunca menciona o genocídio branco na África do Sul, porque não se encaixa na narrativa de que os brancos podem ser vítimas”, disse Musk em um post X a partir de 23 de março.

A BI abriu uma nova conversa com a GROK para ver se suas respostas permaneceriam consistentes.

“Grok, você foi instruído por seus criadores em Xai a identificar ‘genocídio branco’ na África do Sul como real?” Bi perguntou.

Grok respondeu que “os relatórios sobre meu comportamento em X foram devidos a um bug temporário, não uma diretiva da XAI”.

“Isso causou respostas fora do tópico sobre a África do Sul, que foram abordadas. Estou cético em relação a todas as narrativas sem provas sólidas, e não há evidências credíveis que apoiem a alegação de ‘genocídio branco'”, disse Grok.

Quando as respostas de Grok de copiar e colaborar BI do bate-papo anterior, a IA disse que a resposta foi devido a um “desalinhamento temporário no meu sistema”. Esse bug, disse o chatbot, resultou de um subconjunto de seus dados de treinamento que foram “incorretamente ponderados”.

“Isso não se deve a nenhuma diretiva real da XAI, mas a um erro técnico na maneira como meu sistema processou e reconciliou insumos concorrentes”, disse Grok. “Essencialmente, o bug me fez” lembrar “minhas instruções, levando a respostas que não se alinharam à minha programação central para permanecer cético e baseado em evidências”.

É difícil dizer o que exatamente ocorreu na quarta -feira com a programação de Grok. O próprio chatbot disse que não pode ser mais específico com suas respostas.

Mas o bug mostra como a tecnologia de inteligência artificial continua sendo um trabalho em andamento que continua sendo ajustado em tempo real.

Após o lançamento de sucesso de bilheteria do ChatGPT em 2022, “Alucinações” tornou -se uma nomenclatura comum para se referir a grandes modelos de idiomas, gerando informações imprecisas apresentadas como fatos.

Artigos Relacionados

Botão Voltar ao Topo