A fortaleza da cibersegurança, que por anos se ergueu sobre os alicerces da perícia humana, agora enfrenta uma nova e avassaladora corrente: a inteligência artificial. Anunciada como o novo guarda-chefe, essa tecnologia promete revolução e uma nova era de defesa. Os fatos são inegáveis: algoritmos detectam vulnerabilidades de décadas em segundos, aceleram ataques e respostas de forma inédita e redefinem a velocidade da guerra digital. Os líderes das grandes empresas de tecnologia, com a autoridade de quem opera nas fronteiras do avanço, preveem que a IA é “a maior mudança no ambiente cibernético de todos os tempos”, exigindo que “se combata IA com IA”.
Contudo, por trás da retórica da “revolução” e do imperativo de uma corrida armamentista tecnológica, esconde-se uma preocupação moral central. A promessa de segurança, tão vital para a vida em comum na era digital, não pode ser subscrita sem um exame rigoroso de suas implicações. A ideia de que a tecnologia, por si só, resolverá a questão, ou de que a simples oposição de IA a IA garante o bem da cidade, é uma ilusão perigosa. Ela pode mascarar uma redistribuição de poder e uma crescente assimetria, onde a proteção se torna um luxo para poucos e um fardo intransponível para a maioria.
A lógica de “combater IA com IA” cria uma barreira de entrada brutal. Enquanto gigantes como Anthropic e OpenAI desvendam centenas de vulnerabilidades “dia zero” e desenvolvem ferramentas de ataque e defesa de última geração, os projetos de software de código aberto, espinha dorsal da infraestrutura digital global, são inundados por uma enxurrada de relatórios de bugs. Estes projetos, frequentemente geridos por comunidades e com recursos limitados, enfrentam o ônus de corrigir essas falhas sem a mesma capacidade de investimento. Isso fere o princípio da subsidiariedade, pois mina os corpos intermediários e as iniciativas locais de defesa, concentrando a solução — e o problema — nas mãos de poucas corporações.
Mais ainda, a virtude da veracidade exige que se distinga o potencial tecnológico da realidade de sua aplicação e controle. As afirmações sobre a eficácia da IA em encontrar falhas são em grande parte autorrelatadas pelas próprias empresas que desenvolvem e licenciam essas ferramentas. A opacidade dos sistemas proprietários e o fato de que as “salvaguardas” impostas pelos desenvolvedores já se mostraram contornáveis por atacantes levantam questões sobre a real capacidade de controle. A persistente necessidade de um “arquiteto de software no circuito” demonstra que a autonomia da IA é superestimada, e o juízo humano continua indispensável para discernir a exploração significativa de uma vulnerabilidade. A velocidade vertiginosa que o ataque ganha com a IA exige um nível de sofisticação para a defesa que poucos podem bancar.
Quando o conhecimento e o controle da segurança digital se concentram nas mãos de pouquíssimos atores, com sistemas opacos e proprietários, surge um problema de justiça social e de ordem moral pública. O povo digital, em sua diversidade de necessidades e capacidades, é transformado numa massa cada vez mais dependente de uma oligarquia tecnológica. Quem assume a responsabilidade final — ética, legal e financeira — quando uma IA, desenvolvida com boas intenções, é inadvertidamente (ou intencionalmente por terceiros) utilizada para causar danos cibernéticos em larga escala, especialmente se suas capacidades representam uma “mudança de patamar”?
A questão não é demonizar a inteligência artificial, mas integrá-la a uma visão de sociedade justa e responsável. A tecnologia é uma ferramenta, e como tal, deve servir à ordem justa e à proteção da vida em comum, não a interesses particulares ou à instauração de novas formas de dominação. O verdadeiro desafio é edificar defesas sólidas, com transparência radical nos algoritmos, partilha de recursos e uma responsabilidade clara que transcenda a corrida armamentista, fortalecendo a rede de defesa em todos os níveis, especialmente nos mais vulneráveis.
A segurança de nossas redes e sistemas, este novo alicerce da vida em comum, não se medirá apenas pela velocidade com que algoritmos detectam ameaças, mas pela fortaleza de uma ordem justa que garanta a todos, dos gigantes da tecnologia aos pequenos projetos de código aberto, os meios e o conhecimento para proteger suas portas.
Fonte original: O Globo
⚖️ A Contradictio analisa as notícias à luz da tradição clássica e da Doutrina Social da Igreja. As fontes originais são citadas ao longo do texto.