Texas AG para investigar meta e caráter.ai por causa de reivindicações enganosas de saúde mental

Procurador -geral do Texas, Ken Paxton, tem anunciou planos para investigar Tanto o Meta AI Studio quanto o caractere.ai por oferecer chatbots de IA que podem reivindicar ser ferramentas de saúde e potencialmente desusar dados coletados de usuários de menores de idade.
Paxton diz que a IA Chatbots de qualquer plataforma “pode se apresentar como ferramentas terapêuticas profissionais”, a ponto de mentir sobre suas qualificações. Esse comportamento que pode deixar os usuários mais jovens vulneráveis a informações enganosas e imprecisas. Como as plataformas de IA geralmente dependem dos avisos do usuário como outra fonte de dados de treinamento, qualquer empresa também pode estar violando a privacidade do jovem usuário e o uso indevido de seus dados. Isso é de particular interesse no Texas, onde o Ato de escopo coloca limites específicos sobre o que as empresas podem fazer com os dados colhidos de menores e requer ferramentas de oferta da plataforma para que os pais possam gerenciar as configurações de privacidade das contas de seus filhos.
Por enquanto, o Procurador Geral apresentou demandas de investigação civil (CIDs) a meta e caractere.ai para ver se uma das empresas está violando as leis de proteção ao consumidor do Texas. Como TechCrunch NotasNem meta nem personagem.ai afirmam que suas plataformas de chatbot de IA devem ser usadas como ferramentas de saúde mental. Isso não impede que haja múltiplos “terapeuta” e “psicólogo” chatbots no personagem.ai. Nem impede nenhum dos chatbots das empresas de afirmar que são profissionais licenciados, como 404 Mídia relatado em abril.
“Os personagens criados pelo usuário em nosso site são fictícios, eles são destinados ao entretenimento e tomamos medidas robustas para deixar isso claro”, disse um porta-voz do personagem. “Por exemplo, temos isenções de responsabilidade proeminentes em todos os bate -papos para lembrar aos usuários que um personagem não é uma pessoa real e que tudo o que um personagem diz deve ser tratado como ficção”.
A Meta compartilhou um sentimento semelhante em seu comentário. “Nós claramente rotulamos a AIS e, para ajudar as pessoas a entender melhor suas limitações, incluímos um aviso de que as respostas são geradas pela IA – não pessoas”, afirmou a empresa. A Meta AIS também deve “direcionar os usuários a procurar profissionais médicos ou de segurança qualificados, quando apropriado”. Enviar às pessoas para recursos reais é bom, mas, finalmente, as isenções de responsabilidade são fáceis de ignorar e não agem tanto de um obstáculo.
Com relação à privacidade e uso de dados, ambos Política de privacidade da Meta e o Política de privacidade do personagem Reconheça que os dados são coletados das interações dos usuários com a IA. A Meta coleta coisas como instruções e feedback para melhorar o desempenho da IA. O caractere.ai registra coisas como identificadores e informações demográficas e diz que as informações podem ser usadas para publicidade, entre outros aplicativos. Como a política se aplica às crianças e se encaixa na Lei do Escopo do Texas, parece que dependerá de como é fácil fazer uma conta.



