Uma bala o matou. Ai o trouxe de volta à vida no tribunal

Um homem morto do Arizona deu sua própria declaração de vítima no tribunal graças à IA e um script escrito por sua irmã – possivelmente um primeiro nos EUA
Avanços em inteligência artificial Não estão apenas entrando nas indústrias criativas – eles estão indo para o tribunal também.
Uma família do Arizona usou um Ai-Versão gerada por seu falecido membro da família para dar sua própria declaração de vítima no tribunal, saída local Relatórios ABC 15. Chris Pelkey, 37 anos, era um veterano do Exército e ávido pescador morto em um suposto incidente de raiva na estrada em 13 de novembro de 2021. Segundo o Departamento de Polícia de Chandler, Pelkey morreu após ser baleado por Gabriel Horcasitas, 54, que a polícia diz que saiu de seu carro após a queda e disparou sua arma. (Advogados do estado e Horcasitas não responderam a Rolling StoneO pedido de comentário.) Horcasitas foi condenado por ameaça e homicídio culposo em um julgamento de 2023, mas foi recentemente condenado a 10,5 anos de prisão após a declaração da vítima de Pelkey em tribunal – um aumento de um ano em relação aos 9,5 anos recomendados pelo estado, de acordo com ABC15.
A irmã de Pelkey, Stacey Wales, disse Fox 10 que ela foi inspirada a usar a IA para recriar a semelhança de Pelkey depois de tentar coletar declarações de impacto das vítimas para o julgamento. A IA foi usada para fazer com que a imagem pareça como Pelkey, mas ela escreveu o roteiro. “Recebemos 49 cartas que o juiz conseguiu ler antes de entrar na sentença naquele dia. Mas havia uma peça perdida. Havia uma voz que não estava nessas cartas”, ela disse. “Mas era importante não fazer Chris dizer o que eu estava sentindo e se destacar e deixá -lo falar porque ele disse coisas que nunca sairiam da minha boca, mas eu sei que sairia dele.”
A declaração de impacto usou uma imagem de Pelkey e seu perfil de voz para recriar uma versão dele. Este vídeo foi intercalado com imagens reais de vídeo e fotos de Pelkey, mas também o fez dirigir diretamente com as pessoas no tribunal. “Em outra vida, provavelmente poderíamos ter sido amigos. Acredito em perdão e em Deus que perdoa. Eu sempre tenho e ainda o faço”, disse a IA.
Enquanto a imagem assistida pela AA foi usada apenas na declaração da vítima, sua inclusão no tribunal traz à tona questões interessantes sobre como a inteligência artificial poderia ajudar-ou magoar-em questões de direito. Parece ser a primeira vez que a inteligência artificial é usada para apresentar uma declaração de impacto da vítima em um tribunal dos EUA.
O chefe de justiça da Suprema Corte do Arizona, Ann Timmer, não estava envolvido no caso. Mas ela disse ao ABC15 que “uma abordagem medida é a melhor” e que, para responder ao uso potencial no futuro, a Suprema Corte do Arizona formou um comitê para fazer recomendações sobre a melhor maneira de usar a IA no tribunal. “No fundo, aqueles que usam a IA – incluindo tribunais – são responsáveis por sua precisão”, disse ela.