Há dez anos, Stephen Hawking lançou um alerta - e, hoje, as suas advertências sobre AI, clima e riscos nucleares soam assustadoramente atuais.
Há uma década, a ideia parecia saída de um filme de ficção científica: um físico de renome mundial a sugerir que a humanidade poderia desaparecer dentro de poucos milhares de anos. Dez anos depois, várias das suas preocupações ganharam forma de maneira visível - da evolução vertiginosa da AI ao aquecimento global e a um cenário internacional carregado de tensão nuclear.
A previsão sombria de Hawking: humanidade com prazo
Em 2016, Stephen Hawking falou na histórica Oxford Union e apresentou um raciocínio incómodo: o risco anual de uma catástrofe global pode ser baixo, mas, quando acumulado ao longo de séculos e milénios, torna-se significativo. No seu cenário, a humanidade poderia ser exterminada num horizonte de 1.000 a 10.000 anos - a menos que, a tempo, se expanda para lá da Terra.
A saída que propôs parecia coisa de cinema: colonizar outros planetas, alcançar outras estrelas, transformar a humanidade numa espécie multiplanetária. Só assim, na sua lógica, os riscos ficam distribuídos por vários locais e uma única tragédia deixa de poder apagar toda a espécie.
Para Hawking, a conclusão era clara: se ficarmos limitados a um único planeta, estamos a jogar roleta russa cósmica - em cada geração, alguém puxa o gatilho uma vez.
AI, clima, armas atómicas: os riscos que Hawking identificou
O aviso de Hawking não assentava em profecias esotéricas, mas numa avaliação fria dos perigos criados pela própria humanidade. Para ele, havia três grandes blocos de risco no centro do problema: inteligência artificial, crise climática e armas de destruição maciça.
Singularidade da AI: quando as máquinas assumem o controlo
O tema em que foi mais explícito foi a inteligência artificial. Hawking receava o momento da chamada singularidade: a fase em que sistemas de AI passam a aprender sozinhos, a melhorar-se continuamente e a superar humanos em cada vez mais domínios - sem que consigamos, de facto, acompanhar o porquê das suas decisões.
- AI como viragem histórica: Hawking considerava uma AI “completa” possivelmente o maior acontecimento da civilização.
- Dois extremos em aberto: ou um salto de progresso radical - ou um sistema que ganha autonomia e empurra as pessoas para a margem.
- Problema do controlo: se os objetivos de uma AI superior forem mal definidos, pode nascer uma força implacavelmente eficiente, mas hostil ao ser humano.
Em 2026, estas frases parecem desconfortavelmente concretas: a AI generativa escreve textos, cria código, analisa imagens médicas e alimenta sistemas de negociação. Estados e grandes empresas competem por modelos cada vez maiores. E, com isso, cresce também a voracidade energética dos centros de dados - ampliando precisamente a pressão ambiental contra a qual Hawking também alertava.
Crise climática e “ponto sem retorno”
Para Hawking, as alterações climáticas não eram um cenário abstrato do futuro, mas um processo em direção a pontos de rutura. Falava num “ponto sem retorno”: a partir de certo nível de aquecimento, oceanos, mantos de gelo e fenómenos meteorológicos extremos mudam de tal forma que, mesmo com medidas drásticas, o efeito passa a ser muito limitado.
Os números recentes encaixam nesta leitura: no fim de 2025, a temperatura média global já estava 1,41 graus acima do nível pré-industrial. Casas de análise estimam que o limiar crítico de 1,5 graus poderá ser ultrapassado de forma permanente dentro de poucos anos. Cada décima adicional aumenta a probabilidade de:
- megavagas de calor mais frequentes
- secas extensas e quebras de colheitas
- subida do nível do mar, com deslocação de populações costeiras
- reações em cadeia nos ecossistemas, como o declínio de florestas
A ironia é evidente: o crescimento acelerado de AI e de tecnologias intensivas em computação pode agravar a crise climática se os centros de dados forem alimentados por energia fóssil e se a procura energética global continuar a subir ano após ano.
Armas nucleares e biológicas: agressão humana com mais poder
Hawking apontava repetidamente para um problema menos tecnológico e mais psicológico: a tendência humana para a agressividade e a rivalidade. Num mundo com armas atómicas, laboratórios de biotecnologia e capacidades cibernéticas, basta um erro, um mal-entendido ou um colapso político para causar danos globais.
Ele falava num “instinto de agressão herdado” que a humanidade teria de controlar antes que a tecnologia o multiplicasse. A denúncia e o enfraquecimento de tratados de desarmamento, novos programas de rearmamento e conflitos regionais mostram como este ponto continua atual.
A Doomsday Clock aproxima-se de forma inquietante
Um dos símbolos desta convergência de riscos é a Doomsday Clock - em português, muitas vezes chamada “Relógio do Apocalipse” ou “Relógio do Juízo Final”. Foi criada em 1947 por cientistas ligados ao tema nuclear, inspirados por figuras como Albert Einstein e Robert Oppenheimer. Quanto mais perto o ponteiro fica da meia-noite, maior é, na avaliação desses especialistas, o perigo de uma catástrofe global.
Em janeiro de 2026, os peritos ajustaram o relógio para 85 segundos para a meia-noite - o ponto mais próximo do “fim” simbólico em quase oito décadas. Entre os fatores considerados estavam:
- aumento das tensões entre potências nucleares
- risco de expirarem acordos-chave de controlo de armamento
- aceleração da crise climática
- corrida por vantagens militares e económicas em AI
Os ponteiros da Doomsday Clock não são uma contagem decrescente exata - refletem um “instinto” global de cientistas, e esse sentimento está, hoje, pior do que nunca.
Salvação no espaço? Porque a ideia espacial de Hawking divide opiniões
Para Hawking, a exploração espacial era o caminho de fuga lógico: se a Terra, como único “ponto de apoio”, se torna demasiado arriscada, a espécie precisa de locais de reserva. Colónias em Marte, estações espaciais e, a longo prazo, até assentamentos noutros sistemas estelares poderiam reduzir o risco de extinção.
Em 2026, o espaço tornou-se, de facto, um foco geopolítico. A Estação Espacial Internacional aproxima-se do fim, enquanto EUA, China e Rússia planeiam:
- infraestrutura permanente na Lua
- constelações densas de satélites para comunicações e espionagem
- centros de dados em órbita para aplicações de AI intensivas em dados
- projetos militares para defesa antimíssil e vigilância
Ideias como um escudo global de proteção por foguetes no espaço alimentam o receio de que a órbita se transforme no próximo grande palco de corrida ao armamento. Isso só desloca o dilema de segurança para cima: em vez de paz garantida pela tecnologia, pode surgir uma nova ronda de ameaças nucleares e convencionais - agora entre satélites e bases lunares.
Exploração espacial como solução - ou apenas uma fuga polida?
É precisamente aqui que surge a crítica a Hawking. Muitos especialistas perguntam: a visão de “emigrar” para o espaço não absorve recursos gigantescos que fariam falta na Terra, por exemplo para a transição energética, a proteção do clima e a prevenção de crises? Tecnicamente, uma colonização em grande escala de outros planetas ainda está muito distante. Já medidas políticas para reduzir emissões, reforçar acordos internacionais e criar mecanismos de segurança são, em comparação, implementáveis com muito mais rapidez.
Há ainda uma dimensão moral: quem abandona uma casa em chamas sem apagar o fogo não resolve realmente o problema. Mesmo que cidades em Marte se tornassem reais, permaneceria a dúvida sobre se a humanidade se comportaria de outra forma - ou se apenas exportaria os mesmos padrões destrutivos.
Até que ponto o “cenário de ficção científica” é realista?
A imagem de alerta de Hawking tem ar de Hollywood: uma AI altamente avançada, escaladas políticas, colapso ambiental e pessoas a fugirem no último instante em naves. Ainda assim, não se trata apenas de dramatização; é um conjunto de tendências que pode reforçar-se mutuamente.
Um exemplo de efeito cumulativo: se países competirem por recursos num planeta degradado pelo clima, usando armamento apoiado por AI, a barreira psicológica para escalar conflitos pode baixar. Ao mesmo tempo, um clima instável dificulta a cooperação internacional - precisamente aquilo de que se precisaria para regras comuns sobre AI e tecnologia nuclear.
Por outro lado, as mesmas tecnologias também abrem oportunidades. A AI pode ajudar a operar redes elétricas com mais eficiência, acelerar a descoberta de novos medicamentos, melhorar previsões de fenómenos extremos ou otimizar reatores de fusão. Programas espaciais fornecem dados climáticos mais precisos e viabilizam redes globais de comunicação que podem ampliar o acesso a educação e investigação.
| Tecnologia | Risco | Potencial |
|---|---|---|
| AI | perda de controlo, sistemas de armas autónomos | avanços médicos, modelação climática, ganhos de eficiência |
| Exploração espacial | militarização do espaço, novos campos de conflito | monitorização do clima, internet por satélite, salvaguarda de longo prazo da espécie |
| Energia nuclear | acidentes, proliferação de armas | eletricidade com baixas emissões de CO₂, investigação em energia de fusão |
O que teria Hawking dito sobre 2026?
Hawking não era visto como um pessimista por hábito. Apesar dos avisos, mostrava frequentemente confiança de que a humanidade consegue encontrar soluções. Apostava na ciência, na educação e na cooperação internacional - desde que a política e a sociedade levem os sinais de alerta a sério.
Hoje, é provável que três questões o inquietassem em particular:
- a disseminação rápida de AI poderosa sem “guardrails” globais
- a implementação lenta de metas climáticas, apesar de dados claros
- o regresso de rivalidades entre grandes potências, inclusive no espaço
Ao mesmo tempo, provavelmente insistiria que o futuro não é um guião fixo, mas um corredor de possibilidades. O “filme de ficção científica” contra o qual advertiu não é destino inevitável; é apenas um enredo possível. Quais cenas se tornam reais depende de escolhas políticas, de como desenhamos a tecnologia - e do famoso “instinto de agressão herdado” que ele sublinhava vezes sem conta.
Quando hoje se discute modelos de AI, projetos espaciais ou novas fontes de energia, volta-se, no fundo, à antiga pergunta de Hawking: usamos a nossa inteligência para conter os riscos das nossas próprias invenções - ou continuamos apenas a apertar a tensão de um enredo que ele já tinha esboçado há dez anos?
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário