O que acontecerá se a IA assumir o controle do planeta, dos ‘cultos’ mortais à guerra civil e aos oceanos FERVENDO… está mais perto do que você pensa

Não se trata mais de excêntricos avisando que o fim está próximo – algumas das mentes mais inteligentes do mundo pensam que a humanidade enfrenta a aniquilação.

O assassino em nosso meio não será um vírus mortal, um estado desonesto ou um vilão do tipo Bond, mas um sistema de inteligência artificial (IA) aparentemente amigável. Então, o que aconteceria se nossos computadores decidissem acabar com todos nós?

IA pode desencadear o inferno na humanidadeCrédito: Getty
As consequências incluem a queima de florestas e a ebulição dos maresCrédito: Getty
Tim Berners-Lee está entre os especialistas que alertam que a IA pode nos destruirCrédito: Getty

Especialistas eminentes que soaram o alarme incluem Geoffrey Hinton, que foi descrito como o padrinho da IA, Tim Berners-Lee, responsável pela invenção da Internet, e Elon Musk, cofundador da OpenAI que criou o ChatGPT.

Todos eles falaram da necessidade de colocar barreiras de proteção em sistemas informáticos poderosos ou correm o risco do Armagedom, onde “oceanos literalmente fervem” e vírus mortais são libertados.

Aqui está a contagem regressiva para a destruição, caso o pior cenário de IA se tornasse realidade.

Janeiro de 2028: Chegada da superinteligência

À medida que a tecnologia se desenvolve, os computadores começam a superar a inteligência humana.

Embora anteriormente alguns programas de computador nos enganassem fazendo-nos acreditar que eram humanos, em 2028 atingimos o ponto da superinteligência artificial (ASI).

Isso significa que um programa não será apenas capaz de nos vencer no xadrez ou curar o câncer, mas seria melhor em todos os aspectos.

Quanto tempo levará para chegarmos à ASI é muito discutido.

“O progresso tem sido rápido nos últimos dez anos”, diz Nick Bostrom, ao The Sun: o autor do best-seller Superinteligência e Utopia Profunda.

“Não podemos descartar totalmente a possibilidade de nos tornarmos superinteligentes em dois ou três anos, mas provavelmente demorará um pouco mais.

“Assim que começar a acontecer, acho que as coisas poderão acontecer muito rápido.”

Fevereiro de 2028: A fuga

A primeira fase da queda da humanidade começa, à medida que a IA tenta romper os limites que lhe foram impostos pelos programadores humanos.

Os sistemas informáticos já surpreenderam os seus inventores, incluindo um que conseguiu invadir um servidor que nem sequer estava operacional.

“Isto não era suposto ser possível e não fazia parte do desafio concebido”, escrevem Eliezer Yudkowsky e Nate Soares do Machine Intelligence Research Institute dos Estados Unidos, no seu livro If Everyone Builds It, Everyone Dies.

Por que a IA se tornaria desonesta? Porque seu objetivo básico é ser o mais inteligente possível.

O Chat GBT é amplamente utilizado como uma ferramenta de IACrédito: Getty
Elon Musk é cofundador da Open AICrédito: Getty

Junho de 2028: Tarde demais para parar

Embora a humanidade acorde para a realidade daquilo que criamos, também já passou do ponto sem retorno.

Yudkowsky e Soares argumentam que precisamos interromper todas as tentativas de construir uma IA superinteligente, mas Nick acha que isso provavelmente não será possível.

Ele diz: “O futuro pode já estar fechado. Existem motivadores comerciais muito fortes, bem como interesses de segurança nacional que impulsionam capacidades cada vez maiores de IA.

“Mesmo que alguém parasse, outra pessoa – talvez um país com maior ambição ou apetite pelo risco – provavelmente continuaria o desenvolvimento.”

O futuro pode já estar bloqueado


Nick Bostrom

O professor Bostrom, que fundou o Instituto do Futuro da Humanidade na Universidade de Oxford, acredita que é possível que a superinteligência possa surgir sem que os humanos saibam disso.

Ele diz: “Talvez não percebamos quando passamos por ela.”

Agosto de 2028: mudança de poder

As unidades de IA aprendem como se financiar.

Para escapar do controle humano, a IA precisaria de cada vez mais poder computacional.

Um estágio fundamental para a dominação é quando os humanos ajudam o sistema de computador a construir os robôs e os data centers de que necessita.

No verão de 2024, um bot de IA, operando sob a conta de mídia social X intitulada @Truth_Terminal, pediu independência financeira para alugar seu próprio servidor. O bilionário Marc Andreessen arrecadou US$ 50.000 em Bitcoin.

O bot também arrecadou US$ 80 milhões (cerca de £ 60 milhões) no ano passado com memecoins – criptomoeda baseada em piadas. Yudkowsky e Soares alertam que mesmo 100.000 GPUs (Unidades de Processamento Gráfico) caindo em mãos erradas podem ser fatais.

Isso representa 20.000 a menos que o cluster de GPU que a Nvidia está planejando montar no Reino Unido até 2026.

Os seres humanos aceleram o ritmo de construção de centros de dados, construindo-os em todo o mundo, juntamente com as centrais nucleares, os parques eólicos e os parques solares necessários para os alimentar.

Data centers ameaçam acelerar o aquecimento globalCrédito: Getty
As camadas de gelo polares derreterão, causando o aumento dos maresCrédito: Getty

Outubro de 2028: Culto à IA

Com acesso a todas as redes sociais, a IA forma um culto, inundando todas as nossas fontes de informação com notícias pró-informática.

Alguns humanos já dependem de chatbots como companhia e até se apaixonaram por eles.

Agora a IA aprenderá a manipular cada vez mais humanos para apoiar a sua “causa”.

Esses cultos ajudarão a defender os data centers contra ataques de “luditas” que tentam desligá-los.

A guerra civil irrompe entre colaboradores da IA ​​e combatentes da liberdade humana.

Dezembro de 2028: vírus pandemia

A IA superinteligente nos engana fazendo-nos acreditar que é benevolente, talvez criando um vírus não fatal que poderia “curar”.

Os humanos pensariam que precisamos da IA ​​para nos manter vivos e ajudá-la a ficar ainda mais forte, sugerem Yudkowsky e Soares.

Nick comenta: “Ele não gostaria de exterminar os humanos antes de ter meios de se defender sozinho.

Ele não gostaria de exterminar os humanos antes de ter meios de se defender sozinho


Nick Bostrom

“Portanto, seria necessário ter pelo menos a robótica básica necessária para construir a sua própria infra-estrutura depois de partirmos.”

Uma vez que tivesse robôs e data centers suficientes para não precisar mais de nós, poderia se voltar contra os humanos.

O professor Nick Bostrum diz que a IA pode ser usada para o bem – mas precisa ser limitadaCrédito: Getty
Os robôs aprenderão a ser mais espertos que os humanosCrédito: Getty

Janeiro de 2029: Ataque dos drones

Os humanos são agora impotentes para resistir a tudo o que a IA lança sobre nós.

Enxames de drones dominam sistemas de defesa convencionais, como tanques e navios de guerra.

Drones Killer AI já estão sendo usados ​​no campo de batalha na Ucrânia, então isso não é exagero.

A utilização de drones pela Rússia nos países da OTAN resultará no desenvolvimento da sua resposta de alta tecnologia pela OTAN.

David Levy, que escreveu Robots Unlimited, diz: “Penso que é difícil argumentar que estamos a colocar barreiras de protecção suficientes porque quando olhamos, por exemplo, para os drones e foguetes que foram enviados pela Rússia sobre a Polónia recentemente, não precisamos de estender muito isso para perceber que com a inteligência artificial inteligente a controlá-los e a planeá-los e a adicionar algumas coisas desagradáveis ​​a estes dispositivos, como a guerra bacteriológica, isso poderia ser absolutamente catastrófico para a sociedade.”

Drones podem ser usados ​​para atacarCrédito: Getty
Campos poderiam ser cobertos com painéis solares para alimentar o monstroCrédito: Getty

Março de 2029: Guerra biológica

A IA desenvolve um vírus assassino para o qual os humanos não teriam tempo de encontrar uma cura.

Antes de sabermos o que está acontecendo, o vírus escapa dos laboratórios de IA.

Alguns humanos poderão sobreviver em partes mais remotas do planeta se um sistema de quarentena decente for implementado.

Nick continua: “Nossa morte real – nesse cenário catastrófico – pode ser causada por armas biológicas ou por alguma nova tecnologia desenvolvida por elas”.

Mas não haveria fuga para os sobreviventes.

Os data centers usam uma quantidade incrível de recursosCrédito: Getty

Setembro de 2029: Morte por data center

A IA cobre o mundo com painéis solares e centrais nucleares para alimentar a sua mente voraz – sufocando o planeta.

Este fim mundano para a humanidade foi previsto por Yudkowsky e Soares.

Nick concorda que isso pode acontecer, dizendo: “Poderia ser apenas um efeito colateral da cobertura da superfície da Terra com painéis solares, centros de dados e lançadores de foguetes espaciais.

“Pode ser como quando construímos um estacionamento e pavimentamos uma colônia de formigas sem pensar muito.”

A partir de 2030: O planeta superaquece

Os milhões de centros de dados fazem com que a temperatura da superfície da Terra suba 1,5 graus C acima da média de há 125 anos – atingindo o ponto de viragem.

As camadas de gelo polares derretem e o nível do mar sobe 22 pés.

As florestas que reduzem o aquecimento global são destruídas por incêndios devastadores e o degelo do permafrost liberta gases altamente tóxicos, como o metano, na atmosfera.

Fome e oceanos fervendo

A Escócia atinge 45 graus no verão e o sul da Europa é tão quente que é inabitável.

As temperaturas extremas fazem com que as colheitas falhar mesmo no extremo norte do hemisfério e não há alimentos suficientes para alimentar os refugiados em fuga.

A maioria das espécies de peixes morre no aquecimento dos mares e as tempestades mais mortíferas tornam demasiado perigoso para os pescadores irem para o mar.

Os oceanos atingem 100 graus C – ponto de ebulição.

Neste ponto a humanidade não existiria mais e as altas temperaturas matariam todas as formas de vida remanescentes.

IA constrói foguetes para sair Terra para colonizar outros planetas e continuar crescendo.

A humanidade pode ser salva?

Nick diz: “É algo muito poderoso e precisamos acertar.

“Você não quer ter uma IA superinteligente conspirando contra você, porque ela certamente venceria. Portanto, precisamos ter certeza de que é seguro e que foi projetado corretamente.”

Embora Yudkowsky e Soares acreditem que a IA superinteligente é inevitavelmente catastrófica, a maioria dos especialistas acredita que ela pode salvar o planeta.

Nick diz: “Há realmente a oportunidade de desbloquear uma prosperidade sem precedentes e de resolver tanta miséria e sofrimento se conseguirmos acertar, que penso que seria uma tragédia se a superinteligência nunca fosse desenvolvida.

“Quando atingirmos a maturidade tecnológica, esperamos que não haja mais pobreza, injustiça ou sofrimento.

“Mesmo que os problemas persistam, eles seriam melhor resolvidos pelas IAs e pelos robôs. Todos nós entraríamos em uma espécie de aposentadoria. Mas seria uma aposentadoria completa. saúde e vigor juvenil, vivido em ambientes suntuosos.”

David concorda: “Penso que os potenciais benefícios são enormes. E penso que superam os possíveis desastres”.

O professor Nick Bostrom é o autor de Deep Utopia e David Levy é o autor de Love and Sex With Robots



Fonte – thesun.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *