Negócios

O Facebook está usando fotos particulares do seu Galtery para treinar modelos Meta AI

A Meta está testando silenciosamente um novo recurso controverso no Facebook que examina os rolos de câmera dos usuários, mesmo para fotos e vídeos que eles não compartilharam, levantando novas preocupações sobre privacidade e transparência de dados.

Inicialmente relatado pelo TechCrunch, o recurso aparece como um pop-up quando alguns usuários do Facebook tentam fazer upload de uma história. Ele os convida a ativar o “processamento em nuvem”, o que permite que a Meta acesse e faça o upload automaticamente de imagens da galeria do telefone para seus servidores em nuvem regularmente. Em troca, a empresa promete conteúdo personalizado, como colagens de fotos, repescagens temáticas e filtros gerados pela IA para eventos como aniversários e graduações.

À primeira vista, o recurso aparece projetado para oferecer ferramentas criativas e conveniência. No entanto, o toque de “permitir” fornece uma meta permissão para digitalizar todas as fotos e vídeos no dispositivo, incluindo os nunca publicados online. A IA da empresa pode analisar metadados (como data e local), recursos faciais e objetos dentro das imagens para gerar sugestões e melhorar seus recursos de IA.

O que está preocupado com os defensores da privacidade não é apenas a extensão do acesso, mas a falta de transparência. A Meta não emitiu um anúncio formal ou post sobre o lançamento, além de uma página de ajuda de baixo perfil para usuários do Android e do iOS. A aparência repentina e a descrição vaga do recurso significam que muitos usuários podem estar consentindo sem entender completamente as implicações. Uma vez ativado, os uploads continuam em silêncio em segundo plano, transformando mídia pessoal e não publicada em potencial material de treinamento para os sistemas de IA da Meta.

Embora a Meta afirme que esse é um recurso opcional e os usuários podem desativá -lo a qualquer momento, permanecem as perguntas. Por exemplo, embora a empresa afirme que essas imagens não estão sendo usadas atualmente para treinar seus modelos generativos de IA, ela não descartou isso no futuro. Também não explicou claramente quais direitos mantém sobre o conteúdo do usuário carregado via processamento em nuvem.

A Meta já admitiu a eliminação de conteúdo público do Facebook e Instagram para treinar seus modelos de IA. No entanto, as definições do que conta como “público” ou quem se qualifica como um “adulto” nesses conjuntos de dados permanece incerto. A ambiguidade se aprofunda apenas com essa nova ferramenta, especialmente porque os termos de serviço atualizados de IA, que entraram em vigor em 23 de junho de 2024, não mencionam se as fotos não publicadas reunidas através do processamento em nuvem estão isentas do treinamento de IA.

Há uma opção para optar por não participar. Os usuários podem entrar em suas configurações e desativar o recurso de processamento em nuvem. A Meta diz que, se o recurso for desligado, começará a excluir imagens não publicadas de seus servidores em nuvem dentro de 30 dias.

Ainda assim, o problema maior permanece: essa mudança para a varredura automática de mídia marca uma tendência crescente, onde as grandes empresas de tecnologia coletam dados de usuário cada vez mais privados sob o disfarce de recursos úteis de IA. Em regiões como a Índia, onde os telefones geralmente armazenam materiais sensíveis, como documentos de identificação, fotos de família e capturas de tela pessoais, esse tipo de acesso a dados pode ter sérias implicações, principalmente porque o recurso não é explicado claramente nos idiomas regionais.

Enquanto a Meta está atualmente testando o recurso nos EUA e no Canadá, seu lançamento global pode reacender debates sobre o consentimento digital, a transparência algorítmica e os limites éticos da IA.

Source link

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo