IA deve acelerar ataques cibernéticos, alertam OpenAI e Anthropic
Empresas como Anthropic e OpenAI alertam sobre riscos elevados de segurança cibernética com novos modelos de IA capazes de explorar vulnerabilidades em ritmo acelerado

A próxima onda de ataques cibernéticos potencializados por IA será como nada que vimos antes.
Essa é a mensagem que a empresa de IA Anthropic enviou em um post de blog vazado na semana passada, no qual alertou que seu próximo modelo de IA, chamado Mythos, e outros semelhantes podem explorar vulnerabilidades em um ritmo sem precedentes.
E não é a única: a OpenAI alertou em dezembro que seus próximos modelos representavam um risco "alto" para a cibersegurança. Especialistas já afirmaram que a IA pode amplificar perigos existentes e gerar rapidamente novos hacks de software.
Mas o surgimento de agentes de IA, ou assistentes de IA que podem executar tarefas de forma autônoma, eleva esse risco a outro nível, alertam alguns especialistas. Um único agente de IA poderia escanear vulnerabilidades e potencialmente aproveitá-las de forma mais rápida e persistente do que centenas de hackers humanos.
"Os atacantes agênticos estão chegando", disse Shlomo Kramer, fundador e CEO da empresa de cibersegurança e redes Cato Networks. "Este é um evento divisor de águas na história da cibersegurança."
O vazamento do "Mythos"
Detalhes sobre o Mythos vazaram em um post de blog não publicado relatado primeiro pela Fortune. A Anthropic não respondeu ao pedido de comentário da CNN. Mas a empresa disse à Fortune que o vazamento foi resultado de erro humano em seu sistema de gerenciamento de conteúdo.
"Embora o Mythos esteja atualmente muito à frente de qualquer outro modelo de IA em capacidades cibernéticas, ele prenuncia uma próxima onda de modelos que podem explorar vulnerabilidades de maneiras que superam em muito os esforços dos defensores", disse a Anthropic na versão preliminar.
A empresa está permitindo que certas organizações testem o modelo antecipadamente para melhorar seus sistemas "contra a iminente onda de exploits impulsionados por IA", afirmou.
A Anthropic também está alertando privadamente autoridades governamentais sobre o potencial de ataques cibernéticos em larga escala possibilitados pelo Mythos, segundo a Axios.
Mas o próximo modelo de cada laboratório apresentará ameaças de cibersegurança cada vez mais graves, disse Kramer à CNN.
"Depois do Mythos vem o próximo modelo da OpenAI, e o próximo Google Gemini, e alguns meses depois deles estão os modelos chineses de código aberto", disse ele.
A IA está tornando possível explorar vulnerabilidades quase imediatamente após descobri-las, disse Evan Peña, diretor de segurança ofensiva da empresa de cibersegurança Armadin.
Mas ainda existem limites para o que os modelos podem fazer, segundo Peña.
Modelos avançados de IA são bons para pesquisar vulnerabilidades de software e desenvolver código para explorá-las
Mas eles não possuem o contexto que um hacker humano teria sobre quais são as informações mais valiosas de uma organização para roubar, disse Peña.
Sempre haverá espaço para humanos em um ataque cibernético usando IA, disse Joe Lin, cofundador e CEO da Twenty, uma empresa que vende capacidades cibernéticas ofensivas para o governo dos EUA.
"Devemos garantir que estamos construindo sistemas de armas onde os humanos permaneçam firmemente no controle das decisões e resultados, porque enquanto a máquina lida com a execução, o humano deve sempre ser responsável pelas consequências", ele disse.
Ataques cibernéticos com IA em ascensão
Um exemplo de como a IA tornou hackers relativamente pouco qualificados mais perigosos ocorreu em janeiro, quando um criminoso cibernético de língua russa usou várias ferramentas de IA para hackear mais de 600 dispositivos que executavam um software de firewall popular em mais de 55 países, de acordo com a equipe de pesquisa de segurança da Amazon Web Services.
O hacker usou serviços de IA generativa para "implementar e escalar técnicas de ataque bem conhecidas em todas as fases de suas operações, apesar de suas capacidades técnicas limitadas", disse a AWS.
O hacker usou o modelo Claude da Anthropic, bem como o DeepSeek de fabricação chinesa no ataque, de acordo com Eyal Sela, diretor de inteligência de ameaças da Gambit Security. Em determinado momento, o hacker pediu ao Claude em russo para criar um painel web para gerenciar centenas de alvos dos hackers, de acordo com registros de chat que o hacker teve com modelos de IA que Sela compartilhou com a CNN.
A IA dá aos hackers de diferentes habilidades "superpoderes" ao simplificar o conhecimento técnico necessário para explorar sistemas, segundo Sela.
Em fevereiro, um hacker usou o Claude em uma série de ataques contra agências governamentais mexicanas, roubando informações sensíveis de impostos e eleitores, reportou a Bloomberg.
A China e outros adversários dos EUA estão "caçando qualquer vantagem para melhorar o desempenho de sua IA nacional", disse Joe Lin, cofundador e CEO da Twenty, uma empresa que vende capacidades cibernéticas ofensivas para o governo dos EUA.
Isso significa potencialmente explorar quaisquer vazamentos de modelos de IA dos EUA para tentar "superalimentar seus próprios sistemas de armas cibernéticas", ele disse.
Os avanços da IA em cibersegurança são uma faca de dois gumes: os atacantes podem usar modelos e agentes de IA para aumentar suas habilidades, enquanto essas mesmas capacidades permitem monitoramento contínuo, identificação mais rápida de ameaças e correção automatizada em uma escala que nenhuma equipe humana poderia igualar.
Mas os atacantes só precisam encontrar uma maneira de entrar, enquanto os defensores têm que cobrir todas as superfícies
Kramer descreveu isso como construir um "exército de mocinhos" para "lutar contra o exército de bandidos" apenas para manter a linha.
"Você precisa correr o mais rápido que puder para permanecer no mesmo lugar", ele disse.


