Negócios

Antrópico para usar as conversas de Claude para treinamento de IA, a menos que os usuários não participem até 28 de setembro

A Anthropic anunciou uma grande mudança em suas políticas de dados, exigindo que todos os usuários de Claude decidam até 28 de setembro se desejam suas conversas incluídas no treinamento de modelos futuros de IA.

Até agora, a empresa não usava dados de bate -papo do consumidor para treinamento. Com a nova política, o Antrópico manterá conversas e sessões de codificação por até cinco anos, a menos que os indivíduos optem por não participar. As alterações se aplicam a usuários de Claude Free, Pro e Max, incluindo o Claude Code, enquanto os clientes comerciais que usam Claude Gov, Claude for Work, Claude for Education ou API Access permanecem inalterados.

Anteriormente, os prompts e saídas de bate -papo do consumidor foram excluídos automaticamente após 30 dias, a menos que sinalizados para violações de políticas, caso em que poderiam ser armazenadas por até dois anos.

Atualmente, a atualização antrópica emoldurou, afirmando que os usuários que permitem treinamento “nos ajudarão a melhorar a segurança do modelo, tornando nossos sistemas para detectar conteúdo nocivo mais preciso e com menor probabilidade de sinalizar conversas inofensivas”. A empresa acrescentou que a participação também “ajudaria futuros modelos de Claude a melhorar habilidades como codificação, análise e raciocínio, levando a melhores modelos para todos os usuários”.

Os observadores do setor, no entanto, acreditam que a medida é impulsionada pela necessidade do Anthropic de dados de conversação de alta qualidade para se manter competitivo contra o OpenAI e o Google. O acesso a milhões de interações Claude daria à empresa material valioso para refinar seus sistemas.

A mudança reflete tendências mais amplas no setor de IA, onde as empresas enfrentam escrutínio de montagem sobre a retenção de dados. O OpenAI, por exemplo, está atualmente contestando uma ordem judicial exigindo que ela armazenasse todas as conversas do consumidor ChatGPT indefinidamente, incluindo bate -papos excluídos, após um processo movido pelo New York Times e outros editores. O Openai COO Brad Lightcap chamou a decisão de “uma demanda abrangente e desnecessária” que “conflita fundamentalmente com os compromissos de privacidade que assumimos aos nossos usuários”.

A maneira como o antropic é implementar a atualização também levantou as sobrancelhas. Os usuários existentes estão sendo mostrados um pop-up rotulado como “Atualizações para termos e políticas do consumidor” com um grande botão “aceitar”. Abaixo dele, uma alternância muito menor controla as permissões de treinamento, que são definidas como “ON” por padrão. A Verge observou que esse design corre o risco de usuários clicando rapidamente sem perceber que estão consentindo com o compartilhamento de dados.

Especialistas em privacidade alertam que a complexidade dos sistemas de IA torna quase impossível o consentimento significativo do usuário. A Comissão Federal de Comércio dos EUA já alertou que as empresas de IA poderiam enfrentar a aplicação se fizessem alterações em “links legais, impressos ou enterrados” que obscurecem as verdadeiras implicações das atualizações de políticas.

Se a FTC pretende intervir no caso de Antrópico, permanece incerto.

Source link

Artigos Relacionados

Botão Voltar ao Topo