“Estamos menos protegidos” devido à IA, diz Cambridge Analytica queixoso sobre proteção de dados

Brittany Kaiser, Cambridge Analyticaafirma que o Proteção de dados Online dificilmente melhorou desde que ele testemunhou para o parlamento britânico em 2018 Que milhões de pessoas poderiam ter sofrido a coleta de seus dados do Facebook.
O escândalo explodiu em 2016 Depois de descobrir que mais de 87 milhões de pessoas poderiam ter visto seus dados no Facebook através de um teste de personalidade. Embora não esteja claro como esses dados foram usados, Kaiser disse que a Cambridge Analytica fez um “trabalho que pode enfrentar posições” com a plataforma de campanha eleitoral de Donald Trump e o de Brexit realizado por licença.eu. Ambas as organizações disseram que não havia contrato assinado para trabalhar com a empresa de análise.
“Gostaria de poder dizer. Eu diria que agora existem muitas partes do mundo onde as pessoas estão começando a ser legalmente protegidas, o que não foi o caso em 2018”, disse Kaiser ao ‘Euronews Next’. Embora ele tenha dito que agora existem mais leis de proteção de dados, referindo -se ao Regulamento Geral de Proteção de Dados (GDPR) na Europa, ele disse que não há leis de dados federais em EUA E que, se uma pessoa quiser tomar ações legais contra empresas que usam seus dados sem permissão, ela carrega Muito tempo no tribunal.
“Se você não quiser passar muito tempo em um tribunal ou lidar com a lei, eu diria Tecnicamente, somos menos protegidos Porque a tecnologia é muito melhor na seleção de objetivos “, acrescentou. Inteligência Artificial (AI) As coisas também estão piorando, especialmente quando se trata de interferência eleitoral, disse ele.
“O boom da IA generativa tornou muito mais fácil fazer as coisas parecerem reais. Nos dias da Cambridge Analytica, tivemos uma criação algorítmica muito, muito básica de conteúdo que o mundo estava usando na época”, disse ele. “Não se parece com o que existe hoje, onde a realidade pode ser imitada porque Ai se tornou muito boa“, disse.
Kaiser disse que, apesar de trabalhar em defesa dos direitos digitais, até ela viu enganado por imagens geradas por IA Eles circulam online. Em uma ocasião, ele pensou que algo terrível estava acontecendo em Nova York quando estava momentaneamente convencido de que uma imagem gerada por um carro em chamas em Manhattan era real.
“Sabendo que já é difícil até encontrar uma imagem real de algo, eu diria que é muito fácil de abusar para fins políticos ou comerciaisOu pelo que as pessoas querem “, diz ele.” Ainda estamos no estágio em que muitas de nossas agências de inteligência dizem que ‘a Rússia, a China e eu gastaremos a mesma quantidade de dinheiro em comunicações de desinformação ”, acrescentou”. Mas a tecnologia é muito melhor; Tanto que o impacto é maior e o dinheiro vem além de qualquer objetivo que tenha. “
A IA nas eleições
No ano passado, mais de 60 países foram às urnas no que era uma supercicleta eleitoral mundial. Pesquisas sobre se a IA desempenhou algum papel nelas é limitada. No entanto, um estudo recente do Centro de Tecnologia Emergente e de Segurança (CETAS) do Instituto Alan Turing revela que, durante as eleições gerais do Reino Unido, houve 16 casos virais de desinformação ia mediano ‘DeepFakes’.
Os pesquisadores também analisaram o Eleições americanas e encontrou exemplos de desinformação gerada pela IA. Entre eles estavam os bots de IA que imitavam eleitores americanos e acusações contra imigrantes, que também deram origem a conteúdo viral gerado pelo qual alguns candidatos políticos se referiram e receberam ampla cobertura da mídia.
Embora o documento afirme que não há evidências suficientes de que a desinformação gerada pela IA tenha um impacto tangível nos resultados das eleições presidenciais dos EUA, acrescenta que esses conteúdos de IA influenciaram o discurso eleitoral dos EUA para “amplificar outras formas de desinformação e acende os debates políticos de TI. “
Além das eleições, Kaiser disse que uma de suas maiores preocupações são os contratos que os governos estão assinando com os grandes tecnológicos dedicados à IA, como o desenvolvedor de ChatgptOpenai. “Como os governos estão dispostos a tentar usar a IA, muitos deles estão concedendo produtos de produtos de IA a grandes empresas que são código fechado, caixas pretas e nossos dados e os dados de nosso governo interromperão esses sistemas de código fechado com lucro e não há proteção”, disse ele.
Em geral, código aberto Isso significa que o código -fonte do software está disponível para todos para uso, modificação e distribuição e que os dados que treinam ai são compartilhados. Em vez disso, a IA de código fechado Isso significa que o código e os dados com os quais a IA são treinados sob o controle e a propriedade da empresa.
No entanto, ter grandes modelos de IA de código aberto nas mãos de quem sabe programar pode ter implicações para a segurança nacional. “Openai tem a grande maioria de contratos governamentais de inteligência artificial e todos os nossos dados pessoais, bem como todos os dados do governo de todas essas agências e departamentos governamentais, que interromperão os servidores corporativos do OpenAI, criarão uma responsabilidade ainda maior “, disse Kaiser.
Kaiser acrescentou que isso é semelhante ao que aconteceu com a Cambridge Analytica e o Facebook há mais de uma década, mas no caso do Openai, eles estão agora “Muitos outros dadosespecialmente Dados sensíveisaqueles que são introduzidos nesses sistemas. “A Kaiser agora pressiona para que os governos adotem mais empresas de IA de código aberto, tanto em nível federal quanto estadual.
Na sua opinião, o código aberto es “essencial Para as agências governamentais para o público civil, especialmente agora que foi popularizado pela primeira vez que o público pode auditar o que o governo faz com os bancos de dados e dados. “
Na sua opinião, um número maior de sistemas de IA de código aberto seria Um passo à frente ético Para ganhar a confiança do público, à medida que os governos começam a adotar a IA, que ocorre nos Estados Unidos, pois não há legislação federal que proteja as pessoas de como seus dados podem ser usados nesses sistemas. A Kaiser assumiu recentemente uma nova posição na plataforma de IA de código aberto Elizaos, que cria agentes de IA. Ele dirige a nova subsidiária da empresa para ajudar o setor público americano a criar a tecnologia de IA de código aberto para os governos.
Regulação do senso comum
Kaiser está confiante de que Administração Trump para isso mais seriamente Proteção de dados. “Esse governo em particular parece determinado a ter uma política tecnológica federal, seria se comprometer com tecnólogos e contratar tecnólogos para direcionar muitos departamentos governamentais”, disse ele. “Então, espero que isso signifique que realmente veremos algo nos Estados Unidos”, acrescentou.
“Seria ótimo que pudéssemos finalmente ver um legislação federal Proteger os cidadãos dos EUA e proteger nossos direitos contra a crescente adoção de tecnologia. “No entanto, os EUA deixaram claro no Cúpula de ação sobre inteligência artificial realizada em Paris Em fevereiro, que a regulamentação de tecnologia excessiva poderia acabar com o Innovacióne que o país estaria na liderança ao notar regulamentos estranhos sobre essas tecnologias.
“A regulamentação excessiva do setor de IA pode encerrar um setor transformador exatamente quando eles estão decolando”, disse o vice -presidente dos EUA, JD Vance. Kaiser não considera que isso dificulta suas ambições de proteção de dados nos EUA ou de código aberto, mas deve haver um Ato de equilíbrio Quando se trata de regulamentação.
“Claro, eu não concordo com (o diretor executivo da Openai) Sam Altman Quando ele diz que devemos permitir que quaisquer dados sejam usados para que nossos modelos sejam competitivos. Eu acho que isso é muito rápido e quebra as coisas para mim “, disse ele.
No entanto, ele disse que também não acredita que o regulamento estranho ajudará porque ele acaba não sendo tecnicamente implementável, o que, segundo ela, aconteceu em alguns componentes do GDPR da Europa. “Mas eu acho que um Regulação do senso comumEscrito em colaboração com os tecnólogos para serem facilmente aplicáveis, seria bom para os americanos e a economia “, afirmou.