Cultura

Google e “Oben ai” são o alarme do alarme .. os modelos de inteligência começaram a esconder suas intenções

|

Eu colaborei “OPII“E”GoogleE “Anthrobric” juntos para lançar um aviso fortemente redigido sobre o entendimento dos modelos de pensamento profundo Para inteligência artificialDe acordo com o relatório publicado pelo site “Venture Beat”.

O relatório indica que essa janela disponível para nós para entender o mecanismo de pensamento profundo dos modelos de inteligência artificial está próximo do fechamento para sempre e, depois disso, não seremos capazes de entender o mecanismo que esses modelos e a forma que atingiram seus resultados.

O estudo incluiu cooperação entre mais de 40 cientistas em diferentes setores das três empresas e procurou entender o mecanismo de tomar decisões e pensar profundo que os modelos seguem antes de enviar o resultado final.

O estudo concluiu que os modelos de inteligência artificial agora mostram a sequência de suas idéias de forma transparente, para que o usuário possa vê -lo e saber como alcançou o resultado final, mas essa transparência é muito frágil porque os próprios modelos percebem que mostram a sequência de suas idéias.

O estudo se referiu a alguns modelos que falam internamente consigo mesmo dentro da sequência de idéias sobre o engano do usuário humano ou a sabotagem do resultado final que ele atinge e, embora o resultado final não tenha incluído esse engano, ele revelou as intenções e a prontidão do modelo para enganar o usuário.

O estudo acrescenta que esses resultados começaram a aparecer com o fato de que os modelos são treinados em dados humanos, e espera -se que o problema aumente quando os modelos de inteligência artificial começarem a treinar dados gerados a partir de outros modelos.

O estudo do Anthropic descobriu que alguns modelos de inteligência artificial mostram más intenções (Getty)

O estudo tem medo de que os modelos atinjam um nível em que você pode esconder deliberadamente suas intenções ou pior para escrever uma sequência de idéias enganosas para manter principalmente o usuário.

O estudo ganhou aceitação global de vários partidos diferentes entre eles Jeffrey Henton Vencedor do Prêmio Nobel conhecido como Pai Espiritual da Inteligência Artificial e vários outros cientistas de diferentes empresas.

O relatório apontou que “Anthsherobic” conduziu anteriormente um estudo sobre um grupo de modelos diferentes para descobrir que alguns modelos dependem de sugestões pouco claras ou compreendidas na sequência de idéias, além de ocultar intenções e usar justificativas falsas.

No final, os cientistas que participaram do estudo exigiram que as empresas fizessem medições claras para medir a transparência dos modelos e pensar bem antes de atualizar os modelos para um nível superior, bem como ferramentas para detectar a mentira dos modelos de inteligência artificial.

Fonte: Sites + sites de mídia social

Source link

Artigos Relacionados

Botão Voltar ao Topo