Saltar para o conteúdo

Stephen Hawking: avisos sobre AI, clima e riscos nucleares em 2026

Pessoa sentada à secretária com holograma do planeta Terra e laptop, atrás janela com foguetão a levantar voo.

Há dez anos, Stephen Hawking lançou um alerta - e, hoje, as suas advertências sobre AI, clima e riscos nucleares soam assustadoramente atuais.

Há uma década, a ideia parecia saída de um filme de ficção científica: um físico de renome mundial a sugerir que a humanidade poderia desaparecer dentro de poucos milhares de anos. Dez anos depois, várias das suas preocupações ganharam forma de maneira visível - da evolução vertiginosa da AI ao aquecimento global e a um cenário internacional carregado de tensão nuclear.

A previsão sombria de Hawking: humanidade com prazo

Em 2016, Stephen Hawking falou na histórica Oxford Union e apresentou um raciocínio incómodo: o risco anual de uma catástrofe global pode ser baixo, mas, quando acumulado ao longo de séculos e milénios, torna-se significativo. No seu cenário, a humanidade poderia ser exterminada num horizonte de 1.000 a 10.000 anos - a menos que, a tempo, se expanda para lá da Terra.

A saída que propôs parecia coisa de cinema: colonizar outros planetas, alcançar outras estrelas, transformar a humanidade numa espécie multiplanetária. Só assim, na sua lógica, os riscos ficam distribuídos por vários locais e uma única tragédia deixa de poder apagar toda a espécie.

Para Hawking, a conclusão era clara: se ficarmos limitados a um único planeta, estamos a jogar roleta russa cósmica - em cada geração, alguém puxa o gatilho uma vez.

AI, clima, armas atómicas: os riscos que Hawking identificou

O aviso de Hawking não assentava em profecias esotéricas, mas numa avaliação fria dos perigos criados pela própria humanidade. Para ele, havia três grandes blocos de risco no centro do problema: inteligência artificial, crise climática e armas de destruição maciça.

Singularidade da AI: quando as máquinas assumem o controlo

O tema em que foi mais explícito foi a inteligência artificial. Hawking receava o momento da chamada singularidade: a fase em que sistemas de AI passam a aprender sozinhos, a melhorar-se continuamente e a superar humanos em cada vez mais domínios - sem que consigamos, de facto, acompanhar o porquê das suas decisões.

  • AI como viragem histórica: Hawking considerava uma AI “completa” possivelmente o maior acontecimento da civilização.
  • Dois extremos em aberto: ou um salto de progresso radical - ou um sistema que ganha autonomia e empurra as pessoas para a margem.
  • Problema do controlo: se os objetivos de uma AI superior forem mal definidos, pode nascer uma força implacavelmente eficiente, mas hostil ao ser humano.

Em 2026, estas frases parecem desconfortavelmente concretas: a AI generativa escreve textos, cria código, analisa imagens médicas e alimenta sistemas de negociação. Estados e grandes empresas competem por modelos cada vez maiores. E, com isso, cresce também a voracidade energética dos centros de dados - ampliando precisamente a pressão ambiental contra a qual Hawking também alertava.

Crise climática e “ponto sem retorno”

Para Hawking, as alterações climáticas não eram um cenário abstrato do futuro, mas um processo em direção a pontos de rutura. Falava num “ponto sem retorno”: a partir de certo nível de aquecimento, oceanos, mantos de gelo e fenómenos meteorológicos extremos mudam de tal forma que, mesmo com medidas drásticas, o efeito passa a ser muito limitado.

Os números recentes encaixam nesta leitura: no fim de 2025, a temperatura média global já estava 1,41 graus acima do nível pré-industrial. Casas de análise estimam que o limiar crítico de 1,5 graus poderá ser ultrapassado de forma permanente dentro de poucos anos. Cada décima adicional aumenta a probabilidade de:

  • megavagas de calor mais frequentes
  • secas extensas e quebras de colheitas
  • subida do nível do mar, com deslocação de populações costeiras
  • reações em cadeia nos ecossistemas, como o declínio de florestas

A ironia é evidente: o crescimento acelerado de AI e de tecnologias intensivas em computação pode agravar a crise climática se os centros de dados forem alimentados por energia fóssil e se a procura energética global continuar a subir ano após ano.

Armas nucleares e biológicas: agressão humana com mais poder

Hawking apontava repetidamente para um problema menos tecnológico e mais psicológico: a tendência humana para a agressividade e a rivalidade. Num mundo com armas atómicas, laboratórios de biotecnologia e capacidades cibernéticas, basta um erro, um mal-entendido ou um colapso político para causar danos globais.

Ele falava num “instinto de agressão herdado” que a humanidade teria de controlar antes que a tecnologia o multiplicasse. A denúncia e o enfraquecimento de tratados de desarmamento, novos programas de rearmamento e conflitos regionais mostram como este ponto continua atual.

A Doomsday Clock aproxima-se de forma inquietante

Um dos símbolos desta convergência de riscos é a Doomsday Clock - em português, muitas vezes chamada “Relógio do Apocalipse” ou “Relógio do Juízo Final”. Foi criada em 1947 por cientistas ligados ao tema nuclear, inspirados por figuras como Albert Einstein e Robert Oppenheimer. Quanto mais perto o ponteiro fica da meia-noite, maior é, na avaliação desses especialistas, o perigo de uma catástrofe global.

Em janeiro de 2026, os peritos ajustaram o relógio para 85 segundos para a meia-noite - o ponto mais próximo do “fim” simbólico em quase oito décadas. Entre os fatores considerados estavam:

  • aumento das tensões entre potências nucleares
  • risco de expirarem acordos-chave de controlo de armamento
  • aceleração da crise climática
  • corrida por vantagens militares e económicas em AI

Os ponteiros da Doomsday Clock não são uma contagem decrescente exata - refletem um “instinto” global de cientistas, e esse sentimento está, hoje, pior do que nunca.

Salvação no espaço? Porque a ideia espacial de Hawking divide opiniões

Para Hawking, a exploração espacial era o caminho de fuga lógico: se a Terra, como único “ponto de apoio”, se torna demasiado arriscada, a espécie precisa de locais de reserva. Colónias em Marte, estações espaciais e, a longo prazo, até assentamentos noutros sistemas estelares poderiam reduzir o risco de extinção.

Em 2026, o espaço tornou-se, de facto, um foco geopolítico. A Estação Espacial Internacional aproxima-se do fim, enquanto EUA, China e Rússia planeiam:

  • infraestrutura permanente na Lua
  • constelações densas de satélites para comunicações e espionagem
  • centros de dados em órbita para aplicações de AI intensivas em dados
  • projetos militares para defesa antimíssil e vigilância

Ideias como um escudo global de proteção por foguetes no espaço alimentam o receio de que a órbita se transforme no próximo grande palco de corrida ao armamento. Isso só desloca o dilema de segurança para cima: em vez de paz garantida pela tecnologia, pode surgir uma nova ronda de ameaças nucleares e convencionais - agora entre satélites e bases lunares.

Exploração espacial como solução - ou apenas uma fuga polida?

É precisamente aqui que surge a crítica a Hawking. Muitos especialistas perguntam: a visão de “emigrar” para o espaço não absorve recursos gigantescos que fariam falta na Terra, por exemplo para a transição energética, a proteção do clima e a prevenção de crises? Tecnicamente, uma colonização em grande escala de outros planetas ainda está muito distante. Já medidas políticas para reduzir emissões, reforçar acordos internacionais e criar mecanismos de segurança são, em comparação, implementáveis com muito mais rapidez.

Há ainda uma dimensão moral: quem abandona uma casa em chamas sem apagar o fogo não resolve realmente o problema. Mesmo que cidades em Marte se tornassem reais, permaneceria a dúvida sobre se a humanidade se comportaria de outra forma - ou se apenas exportaria os mesmos padrões destrutivos.

Até que ponto o “cenário de ficção científica” é realista?

A imagem de alerta de Hawking tem ar de Hollywood: uma AI altamente avançada, escaladas políticas, colapso ambiental e pessoas a fugirem no último instante em naves. Ainda assim, não se trata apenas de dramatização; é um conjunto de tendências que pode reforçar-se mutuamente.

Um exemplo de efeito cumulativo: se países competirem por recursos num planeta degradado pelo clima, usando armamento apoiado por AI, a barreira psicológica para escalar conflitos pode baixar. Ao mesmo tempo, um clima instável dificulta a cooperação internacional - precisamente aquilo de que se precisaria para regras comuns sobre AI e tecnologia nuclear.

Por outro lado, as mesmas tecnologias também abrem oportunidades. A AI pode ajudar a operar redes elétricas com mais eficiência, acelerar a descoberta de novos medicamentos, melhorar previsões de fenómenos extremos ou otimizar reatores de fusão. Programas espaciais fornecem dados climáticos mais precisos e viabilizam redes globais de comunicação que podem ampliar o acesso a educação e investigação.

Tecnologia Risco Potencial
AI perda de controlo, sistemas de armas autónomos avanços médicos, modelação climática, ganhos de eficiência
Exploração espacial militarização do espaço, novos campos de conflito monitorização do clima, internet por satélite, salvaguarda de longo prazo da espécie
Energia nuclear acidentes, proliferação de armas eletricidade com baixas emissões de CO₂, investigação em energia de fusão

O que teria Hawking dito sobre 2026?

Hawking não era visto como um pessimista por hábito. Apesar dos avisos, mostrava frequentemente confiança de que a humanidade consegue encontrar soluções. Apostava na ciência, na educação e na cooperação internacional - desde que a política e a sociedade levem os sinais de alerta a sério.

Hoje, é provável que três questões o inquietassem em particular:

  • a disseminação rápida de AI poderosa sem “guardrails” globais
  • a implementação lenta de metas climáticas, apesar de dados claros
  • o regresso de rivalidades entre grandes potências, inclusive no espaço

Ao mesmo tempo, provavelmente insistiria que o futuro não é um guião fixo, mas um corredor de possibilidades. O “filme de ficção científica” contra o qual advertiu não é destino inevitável; é apenas um enredo possível. Quais cenas se tornam reais depende de escolhas políticas, de como desenhamos a tecnologia - e do famoso “instinto de agressão herdado” que ele sublinhava vezes sem conta.

Quando hoje se discute modelos de AI, projetos espaciais ou novas fontes de energia, volta-se, no fundo, à antiga pergunta de Hawking: usamos a nossa inteligência para conter os riscos das nossas próprias invenções - ou continuamos apenas a apertar a tensão de um enredo que ele já tinha esboçado há dez anos?


Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário