Ultimas Noticias

6/recent/ticker-posts

‘Dois minutos’ para o fim do mundo


A humanidade está em perigo. Nem nos momentos mais alarmantes da Guerra Fria o mundo esteve mais próximo do abismo. É o que garante o Boletim de Cientistas Atômicos, um grupo de especialistas criado para alertar a humanidade do risco de se autoexterminar. Para isso, criaram um relógio simbólico, o Relógio do Apocalipse, que mostra os minutos que nos restam até a meia-noite, ou seja, o fim do mundo. No ano passado eles colocaram os ponteiros às 23h58, indicando que estávamos a dois minutos do fim. E nada melhorou desde então, pelo contrário, razão pela qual permanece exatamente igual. Nunca em seus 72 anos de história o ponteiro dos minutos esteve tão próximo da meia-noite: em 1953, durante os testes de armamentos termonucleares soviéticos e norte-americanos, também estava a dois minutos. Se 99,9% de todas as espécies que existiram na Terra foram extintas, parece lógico pensar que este seja o futuro inevitável da humanidade. Porque – como disse Carl Sagan – “A regra é a extinção, a sobrevivência é a exceção”.

Aquecimento, instabilidade política, risco de guerra nuclear, desinformação... A humanidade está vivendo uma “tempestade perfeita”, como disse Rachel Bronson, presidenta do Boletim, que lembrou que desde 2007 foi incluída a mudança climática como uma séria ameaça à humanidade que exigia uma resposta “urgente e imediata”. “Parece que estamos normalizando um mundo muito perigoso”, acrescentou Bronson. “Estamos jogando roleta russa com a humanidade”, afirmou Jerry Brown, ex-governador da Califórnia e diretor-executivo do Boletim.
O diagnóstico do grupo, do qual fazem parte 15 prêmios Nobel, começa falando de duas ameaças principais, a mudança global e as armas atômicas: “Foram agravadas no ano passado pelo uso crescente da guerra de informação para minar a democracia em todo o mundo, aumentando o risco destas e outras ameaças e colocando o futuro da civilização em um perigo extraordinário”.
Esses medos eram inimagináveis até meados do século 20, quando as grandes superpotências começaram a brincar com fogo. Foi então que aconteceu a criação do Boletim de Cientistas Atômicos, para alertar a humanidade sobre o risco de ela se autoexterminar. Nos plácidos anos da década de noventa, o relógio chegou a estar a 17 minutos de zero hora, mas desde 2011 não parou de se aproximar da meia-noite: 23h55 em 2014, 23h57 em 2015, 23h57 e 30 segundos em 2017... Até 1947, quando esse organismo foi criado, a humanidade não tinha forma de se destruir por completo.

“Líderes impetuosos, disputas diplomáticas intensas e instabilidades regionais se combinam para criar um contexto internacional no qual os perigos nucleares são muito reais”

No entanto, são vários os fatores que poderiam desencadear a destruição da civilização humana. Historicamente se temeu, fabulou e fantasiou em inumeráveis ocasiões o fim do mundo, ou da humanidade. Mas como são os riscos que pairam agora? Podem ser organizados de várias formas: naturais e de origem humana, involuntários e deliberados, que provocariam a extinção completa da humanidade ou que nos devolveriam às cavernas.

Os quatro cavaleiros humanos

Neste momento, são quatro os principais perigos que nos ameaçam e que têm os seres humanos por trás: uma catástrofe nuclear, a mudança climática, a biotecnologia e a inteligência artificial. Os riscos de conflitos com armas nucleares e do aquecimento global foram detalhados no diagnóstico do Relógio do Apocalipse: “Líderes impetuosos, intensas disputas diplomáticas e instabilidades regionais se combinam para criar um contexto internacional em que os perigos nucleares são demasiado reais”.
Para muitos especialistas, a inteligência artificial também representa um risco significativo, caso acabe se desenvolvendo além dos interesses humanos. E não apenas submetendo-nos: ela poderia ser terrível inclusive querendo servir aos nossos propósitos. O especialista Nick Bostrom fala de uma obediência “perversa” que também acabaria nos subjugando e dá o exemplo de uma inteligência artificial à qual se pedisse proporcionar a felicidade a todas as pessoas e que respondesse implantando eletrodos nos centros de prazer dos nossos cérebros. É por isso que determinam que seu desenvolvimento seja monitorado, embora ainda estejamos longe de as máquinas poderem dar esse salto em suas capacidades que lhes permitam se adaptar a qualquer circunstância para tomar decisões por si mesmas.

Especialistas incluem a biotecnologia e a engenharia genética, cada vez mais acessíveis, entre as futuras ameaças

Os especialistas também incluem a biotecnologia e a engenharia genéticaentre as ameaças futuras. A revolução da edição genética com a técnica CRISPR permite fazer qualquer coisa com os organismos vivos. E o pior dessas novas tecnologias é que suas capacidades crescem exponencialmente junto com a facilidade e a acessibilidade de seu uso. Além disso, não há como colocar limites, como mostrou o caso do cientista chinês He Jiankui, que criou os primeiros bebês geneticamente modificados contra qualquer limite legal ou ético. “Qualquer que seja a regulamentação imposta, por razões de prudência ou éticas, nunca poderia ser plenamente aplicada em todo o mundo, assim como tampouco o fazem as leis contra as drogas ou as leis tributárias. Qualquer coisa que possa ser feita o será por alguém, de algum lugar. E isso é profundamente aterrador”, sentencia Phil Torres, autor do livro Moralidade, Previsão e Prosperidade Humana: Uma Introdução aos Riscos Existenciais (ainda não publicado no Brasil).

Catástrofes naturais... ou não

Apesar da iminência desses riscos, os especialistas alertam que não devemos subestimar os perigos naturais e do nosso entorno. Nem sequer aqueles que ainda desconhecemos da natureza, como os temíveis supervulcões, uma ameaça praticamente desconhecida até três décadas atrás. No entanto, sabemos agora que uma supererupção que ocorreu há 70.000 anos provocou a coisa mais próxima de um inverno nuclear, colocando os sapiens à beira de se tornar uma espécie efêmera na Terra.
A gripe espanhola acabou de uma só vez com dezenas de milhões de vidas, a varíola devastou até 75% dos astecas em algumas regiões, a peste negra matou entre 11% e 17% da população de todo o planeta. Em um mundo tão globalizado, uma grave epidemia desconhecida teria a capacidade de se tornar um problema planetário, como mostrou a penúltima crise de ebola.
Além disso, como diziam os gauleses, devemos vigiar para que o céu não caia sobre nossas cabeças. Há muitos asteroides e cometas potencialmente perigosos que ainda não localizamos. E é algo que vai acontecer: a cada meio milhão de anos a Terra é atingida por alguma rocha espacial de um quilômetro de diâmetro, dimensões que poderiam ser catastróficas.

Os possíveis riscos à existência da humanidade podem ser provocados involuntariamente, derivados da ignorância, de erros formidáveis ou situações inesperadas

Equivocados e ignorantes

“Assim, tanto as sociedades quanto os grupos humanos menores podem tomar decisões catastróficas por uma série sequenciada de razões: a impossibilidade de prever um problema, a impossibilidade de percebê-lo uma vez ocorrido, a incapacidade para se dispor a resolvê-lo uma vez que tenha sido percebido e o fracasso nas tentativas de resolvê-los”, escreve Jared Diamond em seu livro Colapso. Os especialistas também advertem para os possíveis riscos à existência provocados involuntariamente, isto é, derivados da ignorância, de erros formidáveis ou situações inesperadas.
Por exemplo, por um mau governo (como poderia acontecer se a mudança climática e a perda de biodiversidade fossem ignoradas), ou por uma decisão equivocada, como realizar uma grande intervenção de geoengenharia planetária com consequências terríveis e imprevistas. Muitos destes riscos podem ser apenas possíveis fatores desencadeantes: quando tropeçamos no primeiro degrau da escada, o que tememos não é uma leve perda de equilíbrio, mas continuar caindo degrau após degrau até quebramos o pescoço, como diz Bostrom em seu livro Riscos Catastróficos Globais.
“Não podemos colher os benefícios da ciência sem aceitar alguns riscos (...). Toda tecnologia é perigosa em suas primeiras fases. Em nosso mundo cada vez mais interconectado, existem novos riscos cujas consequências poderiam ser globais”, escreve Bostrom nesse mesmo texto. Por exemplo, a ameaça de chamar a atenção de uma civilização extraterrestre que nos apague do mapa. Foi isso que levou Carl Sagan a criticar a emissão de sinais desde a Terra para outros mundos como “profundamente impudente e imatura”. Porque ele preferia que fôssemos a exceção à regra das espécies terrestres.

Postar um comentário

0 Comentários