Negócios

Claude fingiu uma citação legal. Um advogado teve que limpá -lo.

Um advogado que defende o antrópico teve que limpar depois do bot da AI da empresa, chamando -o de “um erro embaraçoso e não intencional”.

Em um processo de direitos autorais sobre o uso de letras de músicas da Anthropic, a equipe jurídica da empresa usou seu assistente de IA, Claude, para ajudar a redigir uma citação em um relatório de especialistas.

Claude forneceu o título de publicação correto, o ano de publicação e o link para a fonte fornecida, mas “um título impreciso e autores incorretos”, disse o advogado da Anthrópica em um processo judicial na quinta -feira.

A advogada Ivana Dukanovic, de Latham & Watkins, disse que a “verificação de citação manual” de sua equipe não conseguiu pegar o erro e “erros adicionais de redação introduzidos nas citações durante o processo de formatação usando Claude.ai”.

“Este foi um erro de citação honesto e não uma fabricação de autoridade”, escreveu Dukanovic.

Os editores de música Universal Music Group, Concord e Abkco processaram a Antropic, dizendo que a empresa usou letras protegidas por direitos autorais para treinar Claude. O caso faz parte de um Onda de batalhas legais entre detentores de direitos autorais e empresas de IA.

O advogado dos editores disse ao tribunal na terça -feira que a cientista antrópica de dados Olivia Chen pode ter usado uma fonte falsa gerada pela IA para apoiar o argumento da empresa, informou a Reuters.

Na quinta -feira, Dukanovic respondeu que Chen citou um artigo real da revista “The American Statistician”, mas Claude havia inventado o título e os autores.

Antrópico e Dukanovic não responderam a um pedido de comentário.

AI no mundo legal

Não é a primeira vez que uma ferramenta de IA levanta as sobrancelhas no mundo jurídico.

Em março, um homem sem advogado implantou um Avatar gerado pela IA argumentar seu caso de apelação civil em um tribunal de Nova York. Um painel de juízes atordoados rapidamente o matou.

As alucinações de IA também conseguiram advogados em água quente. Um advogado foi despedido Do Baker Law Group depois que ele usou o ChatGPT para gerar citações legais, que acabaram sendo falsas.

O ex -fixador de Donald Trump, Michael Cohen, também teve problemas quando usou a AI Chatbot do Google, Bard, para encontrar casos legais para apoiar seus argumentos. O chatbot inventou os casos e seu advogado os apresentou no tribunal sem verificar.

Daniel Shin, diretor assistente de pesquisa do Center for Legal and Court Technology na Virginia’s William & Mary Law School, disse Business Insider em um relatório no mês passado que os juízes estão preocupados com o uso de IA nos tribunais por causa de Alucinações.

Os tribunais mostraram que não tolerarão nenhum uso inadequado de ferramentas de IA, disse Shin.

Ainda assim, os advogados estão sendo informados de que precisam começar a adotar a IA.

Em um Conferência Legal-Tech em marçoOs advogados foram instados a adotar a IA ou correr o risco de ficar para trás, informou Melia Russell, da BI.

“Os advogados precisam acordar”, disse Todd Itami, advogado da grande empresa de defesa jurídica Covington & Burling, acrescentando que aprender a usar a inteligência artificial era “imperativo” para seu sucesso.

Artigos Relacionados

Botão Voltar ao Topo