Imagine isso: Um agente de IA escaneia seu site, encontra um campo de entrada oculto, injeta código malicioso e exfiltra dados—sem envolvimento de um programador humano.

Isso acabou de acontecer.

Pesquisadores da Universidade de Illinois deram a um agente GPT-4 um objetivo: hackear um site ao vivo. Usando apenas linguagem natural, o agente encontrou uma vulnerabilidade, contornou proteções básicas e acessou dados restritos.

Totalmente de forma autônoma. Sem ajustes especiais. E sem ajuda de programação.

Estamos entrando na era da hackeação agentiva. Não “ataques em agentes de IA” (embora esses persistam), mas ataques por agentes de IA próprios.

A melhor tecnologia sempre atrai os melhores construtores—e os piores atores, que estão automatizando o raciocínio adversarial para construir agentes que são auto-direcionados, conscientes do contexto e assustadoramente adaptáveis.

Os decks de apresentação dizem “assistentes de IA.” Enquanto modelos de ameaça de IA preveem as próximas ações dos atacantes agentivos.

Web3 não vai parar ataques impulsionados por agentes. Mas pode ajudar a contê-los, através de computação auditável, limites de taxa em cadeia, controles de acesso controlados por contratos inteligentes e registros de agentes transparentes.

Ataques agentivos não são ficção científica. Eles são operacionais.

@Quantstamp @carbonb1ack