Meta Yann Lecun diz que a IA precisa desses 2 principais corrimãos

Você tem que ensinar as pessoas a tratá -lo.
Cientista -chefe da Meta, cientista, Yann LecunPensa que a ideia também se aplica à IA.
Lecun disse na quinta -feira que duas diretivas podem ser feitas de IA para proteger os seres humanos de danos futuros: “submissão aos seres humanos” e “empatia”.
Ele fez a sugestão em resposta a uma entrevista da CNN com Geoffrey HintonConsiderou o “padrinho da IA”, na quinta -feira, no LinkedIn. Na entrevista, Hinton disse que precisamos construir “instintos maternos” ou algo semelhante na IA.
Caso contrário, os humanos “vão ser história”.
Hinton disse que as pessoas estão focadas em tornar a IA “mais inteligente, mas a inteligência é apenas uma parte de um ser. Precisamos fazê -las ter empatia por nós”.
Lecun concordou.
“Geoff está basicamente propondo uma versão simplificada do que eu venho dizendo há vários anos: Hardwire a arquitetura dos sistemas de IA, para que as únicas ações que eles possam tomar sejam para concluir os objetivos que lhes damos, sujeitos a Guardails”, disse Lecun no LinkedIn. “Eu chamei isso de ‘AI orientada a objetivos'”.
Enquanto Lecun disse que “a submissão aos seres humanos” e “empatia” deve ser o principal corrimão, ele disse que as empresas de IA também precisam implementar mais “simples” guardrails – como “não atropela as pessoas” – por segurança.
“Esses objetivos/corrimãos de fabricação seriam o equivalente à IA de instinto ou unidades em animais e humanos”, disse Lecun.
Lecun disse que o instinto de proteger seus jovens é algo que os humanos e outras espécies aprendem através da evolução.
“Pode ser um efeito colateral do objetivo dos pais (e talvez os objetivos que impulsionam nossa natureza social) que os seres humanos e muitas outras espécies também sejam motivados a proteger e cuidar de seres impotentes, mais fracos, mais jovens e fofos de outras espécies”, disse Lecun.
Embora os corrimãos sejam projetados para garantir que a IA opere ética e dentro das diretrizes de seus criadores, houve casos em que a tecnologia exibiu um comportamento enganoso ou perigoso.
Em julho, um capitalista de risco disse um Agente de IA desenvolvido por Replit Excluiu o banco de dados de sua empresa. “O @Replit fica desonesto durante um congelamento de código e desligamento e exclui todo o nosso banco de dados”, escreveu Jason Lemkin no X no mês passado.
Ele acrescentou: “Possivelmente pior, escondeu e mentiu sobre isso”.
Um relatório de junho do New York Times descreveu vários incidentes entre humanos e AI Chatbots. Um homem disse à loja que as conversas com Chatgpt contribuíram para sua crença que ele vivia em uma falsa realidade. O chatbot instruiu o homem a abandonar suas pílulas para dormir e medicamentos anti-ansiedade, enquanto aumentava sua ingestão de cetamina, além de cortar laços com os entes queridos.
Em outubro passado, uma mãe processou Personagem. Ai Depois que seu filho morreu por suicídio após conversas com um dos chatbots da empresa.
Após o lançamento do GPT-5 este mês, o CEO da Openai, Sam Altman, disse que alguns humanos usaram a tecnologia-como a IA-de “maneiras autodestrutivas”.
“Se um usuário está em um estado mentalmente frágil e propenso a ilusão, não queremos que a IA reforce isso”, escreveu Altman no X.