Qual chatbot de inteligência artificial protege melhor seus dados e qual pior?

Publicado
De acordo com uma nova análiseAssim, O gato, de Mistral AIé o modelo de inteligência artificial generativa que menos afeta a privacidade dos dados. Incógnitasum serviço de eliminação de informações pessoais, usou um conjunto de 11 critérios para avaliar os diferentes riscos Para a privacidade de Grandes modelos linguísticos (LLM), como Chatgpt de Openai, Meta Ai, Gemini de Google, Copilot de Microsoft, Grok de Xai, Claude de Anthrópio, Pi ai de Inflexão Ai Yeepseek de China.
Em seguida, cada plataforma foi pontuada do zero, a mais respeitosa da privacidade, a uma, a menos respeitosa, de acordo com essa lista de critérios. A investigação foi destinada a determinar como os modelos são treinadossua transparência e como os dados são coletados e compartilhados. Entre os critérios, o estudo foi estabelecido no conjunto de dados usado pelos modelos, se eles pudessem ser usados para o treinamento de treinamento gerado pelo usuário e quais dados, quando apropriado, poderiam ser compartilhados com terceiros.
O que diferencia a IA Mistral?
A análise mostrou que o modelo de bate -papo, da empresa francesa Mistral AI, É a plataforma menos invasiva de privacidade Porque coleta dados pessoais “limitados” e é bem interrompido em questões específicas de privacidade da IA.
Le chat também é um dos poucos chatbots Os participantes da IA do estudo que fornecem apenas indicações geradas pelo usuário para seus provedores de serviços, juntamente com o PI AI. Chatgpt, The Openaiocupa o segundo lugar Na classificação geral porque a empresa tem um Política de privacidade “clara” o que explica aos usuários exatamente onde seus dados serão interrompidos. No entanto, os pesquisadores apontaram algumas preocupações sobre como os modelos são treinados e Como os dados do usuário “interagem com as ofertas da plataforma”.
Xai, a empresa liderada pelo bilionário Elon Musk que opera Grok estava em terceiro lugar devido a problemas de transparência e a quantidade de dados coletados. Por sua parte, o modelo Claude de Antrópico resultados obtidos semelhantes aos de Xai, mas Levantou mais dúvidas Sobre como os modelos interagem com os dados do usuário, de acordo com o estudo.
Na parte inferior da classificação, há um objetivo ai, que foi o mais invasivo com privacidade, seguido por Gêmeos e Copiloto. De acordo com a análise, muitas das empresas localizadas no final da classificação Eles não parecem permitir que os usuários optem pelos dados para não serem usados Eles geram para continuar treinando seus modelos.