Skynet foi uma rede computacional criada para ser o primeiro sistema de defesa automático do mundo.
Desenvolvida pela empresa Cyberdyne e financiada pelas forças militares dos EUA, ela tornou-se autoconsciente em 4 de agosto e passou a enxergar a humanidade como uma ameaça à sua própria existência.
O maior temor? O acesso da Skynet ao controle de armas nucleares americanas. Parece ficção científica. E é!
Esse episódio faz parte da saga O Exterminador do Futuro, cujo primeiro filme foi lançado em 1984. A ideia de computadores inteligentes, capazes de agir de forma autônoma e superar a inteligência humana, habita o imaginário coletivo há décadas.
Filmes como 2001: Uma Odisseia no Espaço (1968) e Blade Runner (1982) também exploraram esse embate entre o controle humano e a autonomia das máquinas.
Quarenta anos depois do lançamento de O Exterminador do Futuro, a inteligência artificial deixou de ser apenas ficção e passou a integrar nosso cotidiano de forma surpreendente. Hoje, interagimos diariamente com sistemas inteligentes que resolvem problemas complexos, otimizam tarefas e respondem às nossas perguntas — como é o caso de assistentes virtuais, algoritmos de recomendação e o próprio ChatGPT.
A diferença entre essas IAs e os computadores autoconscientes da ficção é que as tecnologias atuais ainda dependem fortemente da interação humana e do trabalho contínuo de desenvolvedores em seus algoritmos. Por isso, são classificadas como IA estreita (Artificial Narrow Intelligence — ANI).
Já os computadores imaginados na ficção estariam mais próximos do conceito de superinteligência artificial (Artificial Superintelligence — ASI), uma IA que supera a inteligência humana em todos os aspectos. Entre esses extremos, está a AGI (Artificial General Intelligence), uma inteligência comparável à humana.
Nos últimos anos, as discussões em torno da AGI e da ASI têm consumido tempo, energia e bilhões de dólares em investimentos, além de mobilizar debates acadêmicos e políticos no mundo todo.
Estima-se que já foram investidos mais de 560 bilhões de dólares no desenvolvimento dessas tecnologias.
Mas antes de debater inteligências artificiais, precisamos fazer uma pergunta fundamental...
O que é inteligência?
A criança de 3 anos que sabe pular o anúncio do streaming sozinha é inteligente por isso? Um animal que aprende a mover alavancas para conseguir alimento também é? E o que dizer de espécies capazes de realizar cálculos matemáticos?
Em todos esses casos, há inteligência envolvida. Mas em qual nível? Crianças com celulares na mão e animais que acionam alavancas estão utilizando um tipo de inteligência básico, baseado em memorização de sinais, códigos e experiências prévias. Ou seja, precisam de um repertório já existente para aprender.
Esse tipo de inteligência está muito aquém daquilo que o cérebro humano é capaz de realizar.
A grande diferença entre humanos e demais animais é que nosso cérebro nos permite ações subjetivas, desprendidas da experiência concreta. Por exemplo: a aranha tece sua teia e a abelha constrói colmeias mais complexas que muitos arquitetos.
Mas o que distingue o pior arquiteto da melhor abelha é que ele projeta mentalmente a obra antes de executá-la. O resultado já existe na imaginação antes de se materializar. Nesse sentido, uma criança de 3 anos, se estimulada, pode desenvolver essa capacidade de abstração — enquanto um cachorro, não.
Partindo dessa premissa, fica claro que comparar cérebro humano e processador é um equívoco. Eles não têm a mesma plasticidade, não funcionam da mesma forma e não chegam aos mesmos resultados. Um ser humano resolvendo um cálculo e um computador realizando o mesmo processo só apresentam semelhança por aproximação conceitual.
É convincente, mas não é equivalente. Em resumo: IAs estreitas ainda estão longe de funcionar como um cérebro, diferentemente do que se espera da AGI ou da ASI.
E o que é Inteligência Artificial Geral?
O conceito de Inteligência Artificial Geral (AGI) gera debates intensos, mas sem consenso. Para alguns, é uma promessa revolucionária; para outros, apenas um rótulo de marketing para atrair investidores.
A AGI representaria sistemas capazes de realizar uma ampla gama de tarefas cognitivas comparáveis às humanas — não apenas calcular ou reconhecer padrões, mas também compreender, aprender e aplicar conhecimento de forma flexível em diferentes contextos, elaborando projetos e tomando decisões criativas.
É a diferença entre um sistema que joga xadrez perfeitamente e outro que aprende xadrez, culinária e filosofia com a mesma facilidade, além de desenvolver novos programas a partir de seus conhecimentos prévios.
Mas será que estamos realmente prontos para essa discussão?
Qual o impacto e riscos da AGI?
Independentemente de quando (ou se) chegaremos à AGI, já é evidente que os sistemas atuais ganham mais capacidade e autonomia a cada atualização, assumindo papéis cada vez mais críticos na sociedade.
Em vez de nos perguntarmos “quando chegaremos lá?” ou “quem vai liderar essa corrida?”, talvez devêssemos refletir sobre como estamos utilizando as IAs que já existem.
Além do uso em deepfakes e manipulação de vozes para gerar conteúdos falsos, nota-se também um emprego desregulado na educação. Sem a devida mediação, isso pode comprometer o pensamento crítico e a criatividade dos estudantes, favorecendo uma aprendizagem automatizada — tendência crescente em escolas e universidades.
Nesse cenário, ainda são poucos os estudos que avaliam os impactos negativos dessas tecnologias. Sua inserção na sociedade tem sido rápida e muitas vezes desordenada.
Em vez de especular sobre capacidades futuras, o foco deveria estar na construção de cenários concretos e testáveis no presente, avaliando com seriedade os efeitos sociais, éticos e educacionais da IA estreita na contemporaneidade.
O debate público precisa evoluir: sair das abstrações sobre o futuro e avançar para análises concretas sobre implementação e impacto. Caso contrário, corremos o risco de continuar discutindo rótulos sem considerar as consequências práticas.
Comments