Está se tornando menos tabu falar sobre a IA estar ‘consciente’

Três anos atrás, sugerindo que a IA era “senciente” era uma maneira de ser demitido no mundo da tecnologia. Agora, as empresas de tecnologia estão mais abertas a ter essa conversa.
Esta semana, ai startup Antrópico Lançou uma nova iniciativa de pesquisa para explorar se os modelos poderiam um dia experimentar “consciência”, enquanto um cientista do Google DeepMind descreveu os modelos de hoje como “entidades exóticas da mente”.
É um sinal de quanto IA avançou desde 2022, quando Blake Lemoine foi demitido De seu trabalho como engenheiro do Google, depois de reivindicar o chatbot da empresa, Lamda, tornou -se senciente. Lemoine disse que o sistema temia ser desligado e se descreveu como uma pessoa. O Google chamou suas reivindicações de “totalmente infundadas”, e a comunidade de IA se moveu rapidamente para encerrar a conversa.
Nem a antropia nem o cientista do Google estão chegando a Lemoine.
Antrópico, a startup por trás de Claude, disse na quinta -feira blog Poste que planeja investigar se os modelos podem um dia ter experiências, preferências ou até angústia.
“Devemos também nos preocupar com a potencial consciência e experiências dos próprios modelos? Devemos nos preocupar com bem -estar do modelotambém? “A empresa perguntou.
Kyle Fish, cientista de alinhamento da Anthropic Who pesquisa Você tem bem -estar, disse em um vídeo Lançado quinta -feira que o laboratório não está afirmando que Claude está consciente, mas o ponto é que não é mais responsável por assumir que a resposta é definitivamente não.
Ele disse que, à medida que os sistemas de IA se tornam mais sofisticados, as empresas devem “levar a sério a possibilidade” de que “possam acabar com alguma forma de consciência ao longo do caminho”.
Ele acrescentou: “Há questões técnicas e filosóficas incrivelmente complexas, e estamos nos estágios iniciais de tentar envolver nossas cabeças em torno delas”.
Fish disse que os pesquisadores da estimativa antrópica Claude 3,7 têm entre 0,15% e 15% de chance de estar consciente. O laboratório está estudando se o modelo mostra preferências ou aversões e testando mecanismos de exclusão que podem permitir que ele recusasse determinadas tarefas.
Em março, o Antrópico CEO Dario Amodei lançou a idéia de dar aos futuros sistemas de IA e “deixei este emprego” – não porque eles são sencientes, disse ele, mas como uma maneira de observar padrões de recusa que podem sinalizar desconforto ou desalinhamento.
Enquanto isso, no Google Deepmind, o cientista principal Murray Shanahan propôs que talvez precisassemos repensar completamente o conceito de consciência.
“Talvez precisemos dobrar ou quebrar o vocabulário da consciência para se encaixar nesses novos sistemas”, disse Shanahan em um DeepMind Podcast, publicado quinta -feira. “Você não pode estar no mundo com eles como pode com um cachorro ou um polvo – mas isso não significa que não há nada lá”.
O Google parece estar levando a ideia a sério. Uma listagem de empregos recente procurou um “pós-agi” Cientista de pesquisa, com responsabilidades que incluem o estudo da consciência da máquina.
‘Podemos muito bem dar direitos às calculadoras’
Nem todo mundo está convencido, e muitos pesquisadores reconhecem que os sistemas de IA são excelentes imitações que podem ser treinadas para agir conscientes, mesmo que não sejam.
“Podemos recompensá -los por dizer que não têm sentimentos”, disse Jared Kaplan, diretor de ciências do antropal, em entrevista ao The New York Times nesta semana.
Por favor, ajude a BI a melhorar nossos negócios, tecnologia e cobertura de inovação, compartilhando um pouco sobre sua função – isso nos ajudará a adaptar o conteúdo que mais importa para pessoas como você.
Qual é o seu cargo?
(1 de 2)
Quais produtos ou serviços você pode aprovar para compra em sua função?
(2 de 2)
Continuar
Ao fornecer essas informações, você concorda que o Business Insider pode usar esses dados para melhorar a experiência do seu site e a publicidade direcionada. Ao continuar, você concorda que aceita o
Termos de Serviço
e
política de Privacidade
.
Obrigado por compartilhar idéias sobre seu papel.
Kaplan alertou que testar sistemas de IA para consciência é inerentemente difícil, precisamente porque eles são muito bons em imitação.
Gary Marcus, um cientista cognitivo e crítico de longa data do hype na indústria da IA, disse ao Business Insider que acredita que o foco na consciência da IA é mais sobre a marca do que a ciência.
“O que uma empresa como a antropia está realmente dizendo é ‘olha como nossos modelos são inteligentes – eles são tão inteligentes que merecem direitos'”, disse ele. “Podemos também dar direitos às calculadoras e planilhas – que (diferentemente dos modelos de idiomas) nunca inventam as coisas”.
Ainda assim, Fish disse que o tópico só se tornará mais relevante à medida que as pessoas interagem com a IA de mais maneiras – no trabalho, online ou até emocionalmente.
“Isso se tornará uma pergunta cada vez mais saliente se esses modelos estão tendo experiências próprias – e se sim, que tipo”, disse ele.
Anthropic e Google Deepmind não respondeu imediatamente a um pedido de comentário.