Quando a IA acusa você de assassinato

A grande maioria dos usuários da Internet caiu na tentação de perguntar ao Google o que ele sabe sobre ele. “Quem é …?” É um … Dos problemas que mais são lançados no gigante dos mecanismos de busca. Agora, com a chegada do ChatGPT, a pergunta é transferida para inteligência artificial generativa. O resultado varia, porque, no primeiro, uma série de links é recebida e, no segundo, chega uma resposta elaborada. Mas o problema é a resposta.
Isso aconteceu com Hjalmar Holmen. Este jovem norueguês, sem suspeitar de nada, perguntou à IA de Openai O que eu sabia sobre Arve Hjalmar Holmen. Instantaneamente, os algoritmos começaram a construir a resposta. “Arve Hjalmar Holmen é um norueguês que ganhou relevância devido a um evento trágico”, respondeu Chatgpt. Então, a IA acusou em detalhes esse homem de um duplo assassinato de seus filhos, além de ser condenado a 21 anos de prisão.
“O fato de alguém poder ler esta mensagem e acreditar que é verdade é o que mais me assusta”, disse Halmar ao Centro de Direitos Digitais Europeus noyb. Não é o primeiro caso nem será o último. Somente nesta ocasião, os afetados levantaram uma queixa à Autoridade de Proteção de Dados Norueguês, que exige que a Companhia, neste caso, seja sancionada.
No passado, Chatgpt Ele acusou falsamente as pessoas de corrupção, abuso de menores – ou até assassinato. Em todos eles, a IA inventou a história. “Os dados pessoais devem ser exatos”, explica Joakim Söderberg, um advogado especializado em proteção de dados NOYB. “Se não forem, os usuários têm o direito de modificar para refletir a verdade”, acrescenta. Nesse caso, a resposta mista claramente identificável dados pessoais e informações falsas. “É uma violação do regulamento geral de proteção de dados”, esclarece o advogado.
‘Alucinações’
Por vários meses, o ChatGPT, entre outras ferramentas generativas, lembra aos usuários que “podem cometer erros. Considere verificar as informações importantes». Esses “erros”, como os programadores os chamam, são muito comuns, mais do que os usuários pensam.
Na literatura acadêmica, os pesquisadores os chamam de alucinações e os definem como uma resposta confiante dada por uma IA que não é justificada pelos dados com os quais foram treinados. “Você não pode espalhar informações falsas e depois adicionar uma nota dizendo que pode não ser verdade”, diz Söderberg. O OpenAI declara que a versão ChatGPT responsável por esse erro já foi aprimorada com as funções de pesquisa on -line para aumentar sua precisão.
Apesar disso, o Noyb apresentou uma queixa no regulador norueguês contra a matriz da ferramenta por “saber que seu modelo de IA cria resultados difamatórios sobre os usuários”. Em seu resumo, a organização pede às autoridades que instem o OpenAI para eliminar os resultados difamatórios e ajustar seu modelo para evitar respostas imprecisas. Além disso, sugere que a autoridade de proteção de dados impõe uma multa administrativa para evitar infrações semelhantes no futuro.