Yann Lecun: as nações devem contribuir para a IA de código aberto compartilhado

A IA chegou ao topo da agenda diplomática nos últimos dois anos.
E um dos principais tópicos de discussão entre pesquisadores, executivos de tecnologia e formuladores de políticas é como Modelos de código aberto – que são gratuitos para alguém usar e modificar – deve ser governado.
Na cúpula de ação da IA em Paris, no início deste ano, o cientista -chefe da Meta da AI, Yann Lecun, disse que gostaria de ver um mundo em que “treinaremos nossas plataformas de código aberto de maneira distribuída com data centers espalhados por todo o mundo”. Cada um terá acesso a suas próprias fontes de dados, que podem manter -se confidenciais, mas “eles contribuirão para um modelo comum que constituirá essencialmente um repositório de todo o conhecimento humano”, afirmou.
Esse repositório será maior do que qualquer entidade, seja um país ou empresa, pode lidar. A Índia, por exemplo, pode não dar um corpo de conhecimento que compreende todos os idiomas e dialetos falados lá a uma empresa de tecnologia. No entanto, “eles ficariam felizes em contribuir para o treinamento de um grande modelo, se puder, é de código aberto”, disse ele.
Para alcançar essa visão, “os países precisam ter muito cuidado com regulamentos e legislação”. Ele disse que os países não devem impedir a fonte aberta, mas a favor.
Mesmo para sistemas de circuito fechado, o CEO da OpenAI, Sam Altman, disse que a regulamentação internacional é crítica.
“Acho que chegará um momento em um futuro não tão distante, como se não estivéssemos conversando décadas e décadas daqui, onde os sistemas de IA da fronteira são capazes de causar danos globais significativos”. Altman disse no podcast All-In ano passado.
Altman acredita que esses sistemas terão um “impacto negativo muito além do domínio de um país” e disse que queria vê -los regulamentados por “uma agência internacional que analisa os sistemas mais poderosos e garantindo testes razoáveis de segurança”.