IA: Mythos preocupa governos pelo mundo – 24/04/2026 – Tec
Quando a Anthropic anunciou neste mês que havia construído um modelo de IA (inteligência artificial) tão poderoso que era perigoso demais para ser disponibilizado ao público, a empresa citou 11 empresas parceiras para montar um grupo de defesa, todas dos Estados Unidos.
Em duas semanas, o modelo chamado Mythos desencadeou uma corrida global sem precedentes na era da IA.
Segundo a Anthropic, o modelo tem uma capacidade extraordinária de encontrar e explorar falhas ocultas nos softwares que operam bancos, redes elétricas e governos do mundo, fazendo dele uma moeda de troca geopolítica —controlada por uma empresa americana.
Líderes mundiais têm tentado dimensionar os riscos de segurança e como resolvê-los. Além dos EUA, a Anthropic compartilhou o Mythos apenas com o Reino Unido
O presidente do Banco da Inglaterra alertou publicamente que a Anthropic pode ter encontrado uma forma de “abrir completamente o mundo do risco cibernético”. O Banco Central Europeu começou a questionar discretamente os bancos sobre suas defesas. A ministra das Finanças do Canadá comparou a ameaça ao fechamento do estreito de Hormuz.
Para rivais dos EUA, como China e Rússia, o Mythos evidenciou as consequências de ficar para trás na corrida da IA. Um veículo russo pró-Kremlin chamou o modelo de “pior que uma bomba nuclear”.
As reações ilustraram uma realidade sobre a qual pesquisadores de IA há muito tempo alertam: quem liderar a construção dos modelos de IA mais poderosos obterá vantagens geopolíticas desproporcionais.
Grandes avanços em IA estão começando a funcionar menos como lançamentos de produtos e mais como testes de armas, e a maioria das nações quer entender como as tecnologias funcionam e quais proteções são necessárias.
À medida que os modelos fundamentais de IA “se tornam mais consequentes, o acesso se torna mais geopolítico”, disse Eduardo Levy Yeyati, ex-economista-chefe do Banco Central da Argentina e assessor regional de crescimento e IA no BID (Banco Interamericano de Desenvolvimento).
“Eu consideraria este episódio um alerta para políticas públicas. Os governos não podem mais ignorar a questão”, disse.
Até mesmo o governo dos EUA, que se envolveu em um conflito com a Anthropic sobre o uso militar da IA da startup, tomou conhecimento do Mythos.
Na última sexta-feira (17), Dario Amodei, CEO da Anthropic, reuniu-se com autoridades da Casa Branca depois que alguns membros do governo Trump notaram o potencial do novo modelo para causar estragos em sistemas de computadores.
A Anthropic, sediada em San Francisco, disse ao New York Times que estava restringindo o acesso ao Mythos por questões de segurança. A empresa tem focado em compartilhar o modelo com mais de 40 empresas que fornecem tecnologia usada na manutenção de infraestrutura global crítica, como a internet ou redes elétricas.
A Anthropic nomeou 11 das companhias, incluindo Amazon, Apple e Microsoft, que se comprometeram a ajudar a desenvolver correções para vulnerabilidades identificadas pelo modelo.
A empresa disse que não tinha um cronograma imediato para expandir amplamente o acesso, mas que trabalharia com o governo dos EUA e parceiros da indústria para determinar os próximos passos. Afirmou também que foi bombardeada por ligações de governos, empresas e outras organizações buscando acesso e informações, mas que essas organizações podem ter níveis variados de expertise para avaliar com segurança o modelo.
A Anthropic acrescentou que espera que outros grupos lancem modelos de IA com capacidades cibernéticas semelhantes de forma mais ampla dentro de pelo menos 18 meses, dando às organizações tempo limitado para resolver problemas de segurança.
Na terça-feira (21), a Anthropic disse que estava investigando um relato de que usuários não autorizados obtiveram acesso a uma versão do Mythos.
A corrida em torno do modelo acontece em um momento de cooperação internacional mínima em IA. Governos estão olhando uns para os outros com desconfiança enquanto corporações correm para superar rivais. Não há equivalente ao Tratado de Não Proliferação Nuclear, não há inspeções compartilhadas e não há regras acordadas sobre como lidar com algo como o Mythos.
Quando a Anthropic anunciou o modelo, muitos especialistas elogiaram a cautela da empresa em limitar quem pode testar o modelo, mas expressaram preocupações sobre a falta de coordenação internacional para lidar com o risco.
O Reino Unido foi a única outra nação a obter acesso. O Instituto de Segurança em IA, organização apoiada pelo governo britânico, testou o Mythos e publicou uma avaliação independente na semana passada, confirmando que ele poderia realizar ataques cibernéticos complexos que nenhum modelo de IA anterior havia completado.
“Isso representa um avanço nas capacidades cibernéticas da IA”, disse Kanishka Narayan, ministro de IA do Reino Unido, na semana passada nas redes sociais, afirmando que o país estava tomando medidas para proteger a “infraestrutura nacional crítica”.
Outros receberam menos informações. A Comissão Europeia, o braço executivo da UE, reuniu-se com a Anthropic pelo menos três vezes desde o lançamento do Mythos, disse um funcionário do bloco. Mas a empresa não forneceu acesso ao modelo porque os dois lados não chegaram a um acordo sobre como compartilhá-lo, acrescentou.
Em comunicado, a comissão afirmou que estava “avaliando possíveis implicações” do Mythos, que “exibe capacidades cibernéticas sem precedentes”.
Claudia Plattner, presidente da agência de segurança cibernética da Alemanha, conhecida como BSI, disse que não recebeu acesso ao Mythos, mas se reuniu recentemente com funcionários da Anthropic em San Francisco para obter “informações significativas” sobre como ele funciona.
As capacidades apontam para “uma mudança de paradigma na natureza das ameaças cibernéticas”, disse Plattner em comunicado.
Entre os rivais dos EUA, a resposta tem sido mais contida. Apesar do recente embate da Anthropic com o governo Trump, Amodei deixou claro que a IA deve ser usada para defender os EUA e outras democracias e derrotar adversários autocráticos.
Nem Pequim nem Moscou fizeram declarações públicas importantes sobre o Mythos. Dentro da China, pesquisadores e a comunidade de IA em geral têm acompanhado de perto, segundo analistas que estudam a comunidade tecnológica do país.
Muitos dos bancos, empresas de energia e agências governamentais chineses operam com o mesmo software no qual o Mythos encontrou vulnerabilidades —mas, por enquanto, eles não têm lugar à mesa.
Liu Pengyu, porta-voz da Embaixada da China em Washington, disse que a China não estava familiarizada com os detalhes do Mythos, mas apoiava um ciberespaço pacífico, seguro e aberto.
O Mythos é o mais recente sinal de uma crescente divisão global em IA. Nações sem infraestrutura de computação poderosa e modelos de IA correm o risco de ficarem dependentes de empresas como Anthropic, Google e OpenAI, tendo pouca influência sobre como seus produtos são projetados e protegidos, disse Yeyati.
“A ideia de que o acesso à IA de fronteira é algo que uma empresa pode restringir unilateralmente, usando critérios opacos e sem possibilidade de recurso, deveria ser uma preocupação real”, disse.
Share this content:



Publicar comentário