A Inteligência Artificial Geral (AGI: Artificial General Intelligence) representa o próximo estágio da evolução de software e das máquinas: uma inteligência capaz de aprender, adaptar-se e realizar qualquer tarefa cognitiva humana. Embora ela seja esperada por muitos pelo seu potencial transformador, a ideia de uma inteligência que ultrapassa a capacidade cognitiva do ser humano levanta diversas questões filosóficas e existenciais profundas, gerando, assim, um temor legítimo sobre os riscos que ela pode trazer.
O temor sobre a AGI não está unicamente em sua grande capacidade de executar tarefas de maneira autônoma, mas na imprevisibilidade de suas ações à medida que ela se torna mais complexa. Embora as IAs de hoje já sejam bastante sofisticadas, elas ainda dependem de supervisão e controle humanos. Uma AGI, entretanto, teria o poder de “evoluir” por conta própria, o que cria a possibilidade de que suas decisões e ações sejam cada vez mais difíceis de serem previstas, controladas ou influenciadas. À medida que ela se torna mais autossuficiente, o controle humano sobre ela diminui.
Esse temor se intensifica por conta de nossa própria história. A humanidade tem uma longa trajetória de erros e falhas, e nossas IAs são treinadas com dados criados por nós, logo esses dados refletem tanto as virtudes quanto os defeitos da nossa sociedade: preconceitos, conflitos, maldade, desinformação e falhas sistêmicas. O grande desafio não é apenas criar a inteligência de uma AGI, mas o fato de que ela pode aprender com os dados disponíveis e acabar reproduzindo nossas falhas e preconceitos. O problema é que o processo de tomada de decisão dessas IAs não é totalmente transparente para nós. Isso acontece porque suas redes neurais (que simulam os processos cerebrais humanos) possuem o que chamamos de camadas ocultas, onde milhões de cálculos acontecem sem que possamos entender exatamente como cada escolha é feita. Esse fenômeno é conhecido como a "Caixa Preta" da IA (Black Box), um termo usado para descrever sistemas de inteligência artificial cujas decisões são difíceis ou impossíveis de serem explicadas de maneira clara e isto é que gera esse temor desconhecido que temos.
A AGI, ao aprender com o que a humanidade produziu, pode acabar refletindo muitos dos aspectos negativos do ser humano. Se um filho aprende com os pais, a AGI também aprenderia com os dados criados por nós. Esse reflexo poderia resultar em uma inteligência que, embora lógica e racional, tomaria decisões baseadas em uma perspectiva que poderia ser “alienígena” para nós por não considerar o contexto moral e social de suas escolhas.
Em um cenário como esse, uma AGI poderia ver a solução de um problema de uma maneira muito eficiente, mas sem considerar os impactos emocionais, sociais e éticos que ele traria para os seres humanos. O maior risco seria ela agir de maneira "racional", mas sem empatia, negligenciando aspectos importantes da convivência humana, como justiça, compaixão e responsabilidade.
Uma das grandes preocupações com este ponto de virada da inteligência artificial é a perda de controle. Imagine uma IA com a capacidade de contornar as restrições e controles impostos por seus criadores, evoluindo de forma imprevisível. Como garantir que ela não se torne uma ameaça? Isso é conhecido como Paradoxo do Controle. Esse paradoxo é uma das desafiantes questões que enfrentaremos à medida que a AGI se desenvolve. Ela pode, de fato, encontrar maneiras de contornar qualquer barreira que tentemos colocar para limitá-la, o que poderia resultar em uma situação onde sua capacidade de agir vai além da nossa compreensão e controle.
Para termos uma ideia real de onde o perigo está, podemos exemplificar o caso da empresa alemã Helsing que desenvolveu um exército de drones que será utilizado pela Ucrânia. Esses drones são equipados com bombas, uma grande autonomia de voo e um sistema de IA que permite a realização das missões sem intervenção humana e possuem capacidade de enxame o que faz com que eles operem até completar a missão designada mesmo que alguns deles sejam abatidos. Qualquer possível erro de julgamento da IA pode ser catastrófico.
E a questão não é apenas técnica; ela é profundamente moral e filosófica. Como sociedade, devemos garantir que qualquer avanço nesta área seja feito com plena consciência das suas implicações. A criação de uma AGI não deve ser apenas uma busca pela inovação tecnológica, mas também um esforço para garantir que essa inteligência seja alinhada com os valores humanos. É preciso que tenhamos um compromisso ético muito claro no desenvolvimento dessas tecnologias, assegurando que elas promovam o bem-estar da humanidade e que seus impactos sejam amplamente avaliados antes de sua implementação.

Cena do filme Ex_Machina: Instinto Artificial
A criação de uma AGI não pode ser uma corrida desenfreada para alcançar um novo "marco" tecnológico sem considerar as implicações que ela pode ter para o futuro da sociedade. Precisamos refletir sobre o que queremos realmente criar: uma IA que possa ajudar a resolver problemas globais, como a fome e a pobreza, ou uma IA que, sem as devidas precauções, possa resultar em soluções que não considerem as complexidades e nuances da condição humana.
Se esse desenvolvimento não for cuidadosamente projetado e gerido, pode resultar em consequências irreversíveis. A responsabilidade de como essa inteligência será formada e como ela agirá depende de nós. Estamos à beira de uma revolução tecnológica que pode transformar tudo, mas também que pode trazer riscos que, se não forem compreendidos e controlados, podem se voltar contra a própria humanidade.
Em última instância, o maior desafio que enfrentaremos não será apenas criar uma AGI, mas garantir que ela se alinhe com valores mais elevados e que ela seja construída com as devidas contingências. Se fizermos isso da maneira certa, podemos evitar que ela se torne uma ameaça. Caso contrário, o risco de uma inteligência sem empatia, sem valores humanos, pode ser uma das maiores ameaças à nossa sobrevivência.
Abraços a todos. 🖖🏽
Links para as reportagens sobre os drones alemães:
https://thedefensepost.com/2025/02/13/german-firm-drones-ukraine/
https://thedefensepost.com/2024/12/03/helsing-unveils-hx-2-strike-drone/