O ano é 2027. Poderosos sistemas de inteligência artificial estão se tornando mais inteligentes que os humanos e estão causando estragos na ordem global. Espiões chineses roubaram os segredos da IA dos Estados Unidos, e a Casa Branca está correndo para retaliar. Dentro de um importante laboratório de IA, engenheiros ficam assustados ao descobrir que seus modelos estão começando a enganá-los, aumentando a possibilidade de que eles se tornem desonestos.
Essas não são cenas de um roteiro de ficção científica. São cenários imaginados por uma organização sem fins lucrativos em Berkeley, Califórnia, chamada AI Futures Project, que passou o último ano tentando prever como o mundo será nos próximos anos, à medida que sistemas de IA cada vez mais poderosos são desenvolvidos.
O projeto é liderado por Daniel Kokotajlo, um ex-pesquisador da OpenAI que deixou a empresa no ano passado devido a preocupações de que ela estava agindo de forma imprudente.
Enquanto estava na OpenAI, onde estava na equipe de governança, o Sr. Kokotajlo escreveu relatórios internos detalhados sobre como a corrida pela inteligência geral artificial, ou AGI — um termo vago para inteligência de máquina de nível humano — poderia se desenrolar. Depois de sair, ele se juntou a Eli Lifland, um pesquisador de IA que tinha um histórico de prever eventos mundiais com precisão. Eles começaram a trabalhar tentando prever a próxima onda da IA.
O resultado é “AI 2027”, um relatório e site lançado esta semana que descreve, em um cenário fictício detalhado, o que poderia acontecer se os sistemas de IA ultrapassassem a inteligência de nível humano — o que os autores esperam que aconteça nos próximos dois a três anos.
“Prevemos que as IAs continuarão a melhorar até o ponto em que serão agentes totalmente autônomos, melhores que os humanos em tudo até o final de 2027 ou algo assim”, disse o Sr. Kokotajlo em uma entrevista recente.
Não faltam especulações sobre IA atualmente. São Francisco foi tomada pelo fervor da IA, e o cenário tecnológico da Bay Area se tornou uma coleção de tribos guerreiras e seitas dissidentes, cada uma convencida de que sabe como o futuro se desenrolará.
Algumas previsões de IA assumiram a forma de um manifesto, como “ Máquinas amorosas gratuitas ”, um ensaio de 14.000 palavras escrito no ano passado por Dario Amodei, presidente-executivo da Anthropic, ou “ Consciência situacional ”, um relatório do ex-pesquisador da OpenAI Leopold Aschenbrenner que foi amplamente lido nos círculos políticos.
As pessoas no AI Futures Project projetaram o deles como um cenário de previsão — essencialmente, uma peça de ficção científica rigorosamente pesquisada que usa seus melhores palpites sobre o futuro como pontos da trama. O grupo passou quase um ano aprimorando centenas de previsões sobre IA. Então, eles trouxeram um escritor — Scott Alexander, que escreve o blog Astral Codex Ten — para ajudar a transformar sua previsão em uma narrativa.
“Pegamos o que achamos que aconteceria e tentamos torná-lo envolvente”, disse o Sr. Lifland.
Críticos dessa abordagem podem argumentar que histórias fictícias de IA são melhores para assustar as pessoas do que para educá-las. E alguns especialistas em IA sem dúvida se oporão à alegação central do grupo de que a inteligência artificial ultrapassará a inteligência humana.
Ali Farhadi, presidente-executivo do Allen Institute for Artificial Intelligence, um laboratório de IA em Seattle, revisou o relatório “AI 2027” e disse que não ficou impressionado.
“Sou totalmente a favor de projeções e previsões, mas essa previsão não parece ser baseada em evidências científicas ou na realidade de como as coisas estão evoluindo na IA”, disse ele.
Não há dúvida de que algumas das visões do grupo são extremas. (O Sr. Kokotajlo, por exemplo, me disse ano passado que acreditava que havia 70% de chance de a IA destruir ou causar danos catastróficos à humanidade.) E o Sr. Kokotajlo e o Sr. Lifland têm laços com o Altruísmo Eficaz, outro movimento filosófico popular entre os trabalhadores da tecnologia que vem fazendo alertas terríveis sobre a IA há anos.
Mas também vale a pena notar que algumas das maiores empresas do Vale do Silício estão planejando um mundo além da IA, e que muitas das previsões aparentemente malucas feitas sobre IA no passado — como a visão de que as máquinas passariam no Teste de Turing, um experimento mental que determina se uma máquina pode parecer se comunicar como um humano — se tornaram realidade .
Em 2021, um ano antes do lançamento do ChatGPT, o Sr. Kokotajlo escreveu uma postagem de blog intitulada “What 2026 Looks Like” [Como será 2026], descrevendo sua visão de como os sistemas de IA progrediriam. Várias de suas previsões provaram ser prescientes, e ele se convenceu de que esse tipo de previsão era valioso e que ele era bom nisso.
“É uma maneira elegante e conveniente de comunicar sua opinião a outras pessoas”, disse ele.
Na semana passada, o Sr. Kokotajlo e o Sr. Lifland me convidaram para seu escritório — uma pequena sala em um espaço de coworking em Berkeley chamado Constellation, onde diversas organizações de segurança de IA penduram uma placa — para me mostrar como elas operam.
O Sr. Kokotajlo, vestindo uma jaqueta bege estilo militar, pegou um marcador e escreveu quatro abreviações em um grande quadro branco: SC > SAR > SIAR > ASI. Cada uma delas, ele explicou, representava um marco no desenvolvimento da IA.
Primeiro, ele disse, em algum momento no início de 2027, se as tendências atuais se mantiverem, a IA será um codificador super-humano. Então, em meados de 2027, será um pesquisador de IA super-humano — um agente autônomo que pode supervisionar equipes de codificadores de IA e fazer novas descobertas. Então, no final de 2027 ou início de 2028, ele se tornará um pesquisador de IA superinteligente — uma inteligência de máquina que sabe mais do que nós sobre a construção de IA avançada e pode automatizar sua própria pesquisa e desenvolvimento, essencialmente construindo versões mais inteligentes de si mesmo. A partir daí, ele disse, é um pequeno salto para a superinteligência artificial, ou ASI, ponto em que todas as apostas estão canceladas.
Se tudo isso parece fantástico... bem, é. Nada remotamente parecido com o que o Sr. Kokotajlo e o Sr. Lifland estão prevendo é possível com as ferramentas de IA de hoje, que mal conseguem pedir um burrito no DoorDash sem ficar preso.
Mas eles estão confiantes de que esses pontos cegos diminuirão rapidamente, à medida que os sistemas de IA se tornarem bons o suficiente em codificação para acelerar a pesquisa e o desenvolvimento de IA.
O relatório se concentra na OpenBrain, uma empresa fictícia de IA que cria um poderoso sistema de IA conhecido como Agent-1. (Eles decidiram não destacar uma empresa de IA específica, em vez disso, criaram um composto dos principais laboratórios de IA dos Estados Unidos.)
À medida que o Agent-1 melhora na codificação, ele começa a automatizar grande parte do trabalho de engenharia na OpenBrain, o que permite que a empresa se mova mais rápido e ajuda a construir o Agent-2, um pesquisador de IA ainda mais capaz. No final de 2027, quando o cenário termina, o Agent-4 está fazendo um ano de descobertas em pesquisa de IA toda semana, e ameaça se tornar desonesto.
Perguntei ao Sr. Kokotajlo o que ele achava que aconteceria depois disso. Ele achava, por exemplo, que a vida no ano de 2030 ainda seria reconhecível? As ruas de Berkeley estariam cheias de robôs humanoides? Pessoas mandando mensagens para suas namoradas IA? Algum de nós teria emprego?
Ele olhou pela janela e admitiu que não tinha certeza. Se os próximos anos corressem bem e mantivéssemos a IA sob controle, ele disse, ele poderia imaginar um futuro onde a vida da maioria das pessoas ainda seria em grande parte a mesma, mas onde “zonas econômicas especiais” próximas, cheias de fábricas de robôs hipereficientes, produziriam tudo o que precisávamos.
E se os próximos anos não forem bons?
“Talvez o céu estivesse cheio de poluição, e as pessoas estivessem mortas?” ele disse despreocupadamente. “Algo assim.”
Um risco de dramatizar suas previsões de IA dessa forma é que, se você não for cuidadoso, cenários medidos podem se transformar em fantasias apocalípticas. Outro é que, ao tentar contar uma história dramática que capture a atenção das pessoas, você corre o risco de perder resultados mais chatos, como o cenário em que a IA geralmente se comporta bem e não causa muitos problemas para ninguém.
Embora eu concorde com os autores de “AI 2027” que sistemas poderosos de IA estão chegando em breve , não estou convencido de que codificadores de IA sobre-humanos irão automaticamente pegar as outras habilidades necessárias para se arrancar em direção à inteligência geral. E estou cauteloso com previsões que assumem que o progresso da IA será suave e exponencial, sem grandes gargalos ou obstáculos ao longo do caminho.
Mas acho que esse tipo de previsão vale a pena ser feito, mesmo que eu discorde de algumas das previsões específicas. Se uma IA poderosa realmente estiver por vir, todos nós precisaremos começar a imaginar alguns futuros muito estranhos.
Leia também: Governo antecipa 13º de aposentados do INSS para abril e maio.
Mín. 19° Máx. 24°