Desembala as falhas dos sonhos de Techbro do futuro – Madre Jones

Vista de corte de um conceito de colônia espacial fictícia pintada pelo artista Rick Guidice como parte de um programa de arte da NASA na década de 1970. In/Rick Guidice/Flickr
Esta história foi publicada originalmente por UMAK e é reproduzido aqui como parte do Desk de clima colaboração.
Elon Musk uma vez Brincado: “Eu gostaria de morrer em Marte. Só não no impacto”. Musk é, de fato, mortal e a sério a colonização do planeta vermelho. Parte de sua motivação é a idéia de ter um planeta de “back-up”, caso alguma catástrofe futura torne a Terra inabitável.
Musk sugeriu que um milhão de pessoas possa estar ligando para Mars para casa até 2050 – e ele não está sozinho em seu entusiasmo. O capitalista de risco Marc Andreessen acredita que o mundo pode apoiar facilmente 50 bilhões de pessoas e mais do que isso quando liquidamos outros planetas. E Jeff Bezos falou em explorar os recursos da lua e do asteróides Para construir estações espaciais gigantes. “Eu adoraria ver um trilhão de seres humanos vivendo no sistema solar”, disse ele.
Não é tão rápido, apreende o jornalista científico Adam Becker. Em “Mais tudo para sempre”Becker detalha uma infinidade de falhas nos Grand Designs adotados não apenas por Musk, Andreessen e Bezos, mas por Sam Altman, Nick Bostrom, Ray Kurzweil e uma variedade de bilionários de tecnologia e pensadores focados no futuro.
Becker targets not only their aspirations for outer space, but also their claims about artificial intelligence, the need for endless growth, their ambitions for eradicating aging and death, and more—as suggested by the book’s subtitle: “AI Overlords, Space Empires, and Silicon Valley’s Crusade to Control the Fate of Humanity.”
Becker encontra a ideia de colonizar Marte Fácil de desviar, explicando que a morte pode de fato ser a única coisa que os humanos provavelmente farão lá. “Os níveis de radiação são muito altos, a gravidade é muito baixa, não há ar e a sujeira é feita de veneno”, ele coloca sem rodeios. Ele observa que temos dificuldade em convencer as pessoas a passar um grande tempo na Antártica – um lugar muito mais hospitaleiro. “Marte”, diz Becker, “faria a Antártica parecer com o Taiti”.
“Ninguém vai correr com ousadia, não viver suas vidas e construir famílias e comunidades – não agora, não em breve, e talvez nunca.”
Os outros planetas do sistema solar (e luas) são igualmente indesejáveis, e os sistemas estelares além do nosso próprio sistema solar são inimaginavelmente distantes. Ele conclui: “Ninguém vai ir a lugar nenhum, para não viver suas vidas e construir famílias e comunidades – não agora, não em breve, e talvez nunca”.
Becker vê a colonização espacial não apenas irrealista, mas também moralmente duvidosa. Por que, ele pergunta, os bilionários estão tão interessados em deixar nosso planeta em vez de cuidar dele? Ele entrevista o astrônomo Lucianne Walkowicz, que vê seu foco em asteróides assassinos e AIs desonestos – e seu aparente desinteresse nas mudanças climáticas – como uma evasão de responsabilidade. “A idéia de fazer backup da humanidade é sobre ficar sem responsabilidade, fazendo parecer que temos esse cartão livre para sair da prisão”, diz Walkowicz.
Becker tem como alvo não apenas os gurus da tecnologia, mas também o chamado longtermists (que priorizam o florescimento de humanos que viverão eras a partir de agora), racionalistas (que acreditam que a tomada de decisão deve ser guiada pela razão e lógica) e transhumanistas (que possuem uma variedade de crenças relacionadas à extensão da vida humana e fundir a humanidade com a IA). Esses grupos percebem o futuro De várias maneiras, mas subjacente a muitas de suas visões é o que Becker vê como uma fé equivocada na inteligência artificial, às vezes imaginada estar à beira de florescer em “Agi” (Inteligência Geral Artificial) mas também potencialmente perigoso Se seus objetivos divergirem dos da humanidade (os chamados Problema de alinhamento).
Nem todo mundo compartilha esse medo de IA correndo, e Becker faz questão de falar com céticos como Jaron Lanier, Melanie Mitchell e Yann Lecun, todos longe de convencer que este é um perigo real. Ele também cita o empresário e o desenvolvedor da web Maciej Cegłowski, que descreveu o problema de alinhamento da Ai Uperintelligente inalignado como “a ideia que come pessoas inteligentes”. Ainda assim, o livro não é mero ai-guru-queda da parte de Becker: ele soletrou o que esses devotos acreditam, antes de apresentar uma visão alternativa mais cética.
Becker também observa que a energia do computador pode não estar destinada a aumentar tão rapidamente quanto muitos proponentes imaginam. Ele examina a lei de Moore, a noção de que o número de transistores em circuitos integrados dobra aproximadamente a cada dois anos, observando que esse crescimento inevitavelmente enfrentará limitações impostas pelas leis da física. Becker ressalta que o próprio Gordon Moore estimou em 2010 que a taxa atual de crescimento exponencial chegaria ao fim em 10 ou 20 anos – em outras palavras, agora ou muito em breve.
Como Becker vê isso, a fé na lei de Moore é apenas uma faceta de um compromisso mal pensado com o crescimento interminável que alguns tecnófilos parecem estar defendendo. O crescimento exponencial, em particular, é por definição não sustentável. Ele cita uma analogia que o inventor e futurista Ray Kurzweil fez sobre o crescimento de Lily Pads em um lago: a cada poucos dias, o número de almofadas terá dobrado e, antes que você perceba, eles cobriam toda a lagoa. “Isso é verdade”, escreve Becker, “mas também é aí que o crescimento dos Lily Pads termina, porque eles não podem cobrir mais de 100 % da lagoa. Toda tendência exponencial funciona como esse. Todos os recursos são finitos; nada dura para sempre; tudo tem limites”.
Becker diz que, se continuarmos usando energia em nossa taxa atual (e acelerada), exploraremos a produção total de energia do sol em 1.350 anos e um pouco mais do que um milênio depois, toda a energia emitida por todas as estrelas na Via Láctea – e assim por diante.
Becker também discorda da idéia no centro do longtermismo – que as necessidades de inúmeras bilhões ou até trilhões de futuros humanos são tão importantes quanto as necessidades daqueles vivos hoje na Terra – e talvez mais importantes, por causa de seus vastos números (eventuais). (Muitas dessas idéias estão explicadas no livro de 2022 do filósofo William MacAkill, “O que devemos o futuro. ”)
Para os longmististas, nossas ações hoje devem se concentrar em permitir que esse futuro abundante se desenrolasse, mesmo que isso signifique sacrifícios aqui e agora. O problema, escreve Becker, é que simplesmente não podemos saber quais condições prevalecerão de agora, muito menos milênios, por isso é presunçoso imaginar que as decisões de hoje podem ser adaptadas para beneficiar as pessoas que não nascerão por um tempo insondável.