Negócios

O fundador do Google Brain, Andrew Ng, diz que a AGI é exagerada

Fundador do Google Brain Andrew Ng disse que ele acha que a inteligência geral artificial é superestimada.

“A AGI foi exagerada”, disse ele em uma palestra no Y Combinator publicado na quinta -feira. “Durante muito tempo, haverá muitas coisas que os humanos podem fazer isso que a IA não pode.”

A AGI refere-se a um estágio em que os sistemas de IA possuem habilidades cognitivas em nível humano e podem aprender e aplicar conhecimentos como as pessoas.

De, quem administra vários Negócios focados na IAfez as observações em resposta a uma pergunta sobre se ele acha que é mais importante que os humanos desenvolvam ferramentas de IA ou aprendam a usá -las melhor.

“Alguns de nós criam ferramentas às vezes, mas há muitas outras ferramentas que outras pessoas construirão que podemos usar”, disse ele. “Pessoas que sabem Como usar ai Para fazer com que os computadores façam o que você quiser, será muito mais poderoso “.

Ele acrescentou que não precisamos nos preocupar com as pessoas “ficando sem coisas para fazer”, mas devemos estar conscientes de que pessoas usando a IA terá vantagens sobre aqueles que não têm.

NG se junta a uma série de principais pesquisadores de IA que dizem que, dado o estado da tecnologia, os medos da AGI estão exagerados.

Cientista -chefe da Meta, cientista, Yann Lecundisse que grandes modelos de linguagem são “surpreendentes”, mas limitados.

“Eles não são um caminho para o que as pessoas chamam de AGI”, disse ele em entrevista no ano passado. “Eu odeio o termo. Eles são úteis, não há dúvida. Mas eles não são um caminho para a inteligência em nível humano”.

Google DeepMind Chief Demis Hassabis disse que a AGI é exagerada e subestimada.

“A AGI, a própria IA, é um pouco exagerada no curto prazo”, disse ele em uma conferência em Londres na semana passada. “Apesar disso, ainda está subestimado, quão grande e enorme mudança será mais parecido com um período de 10 anos”.

O CEO da Microsoft, Satya Nadella, chamou o empurrão em direção a Agi “referência de hackers. “O termo se refere quando pesquisadores e laboratórios de IA projetam modelos de IA para ter um bom desempenho nos benchmarks do setor, e não na vida real, na corrida para se tornar o modelo de melhor desempenho.



Source link

Artigos Relacionados

Botão Voltar ao Topo