Nuove ricerche affermano che l'IA specializzata supera drasticamente i modelli di uso generale nel rilevare vulnerabilità DeFi sfruttate.

Entrambi i sistemi funzionavano sullo stesso modello di frontiera. La differenza, secondo il rapporto, era il layer applicativo: metodologia specifica per il dominio, fasi di revisione strutturate e euristiche di sicurezza focalizzate su DeFi sovrapposte al modello.

I risultati arrivano in mezzo a crescenti preoccupazioni che l'IA stia accelerando il crimine nel settore delle criptovalute. Ricerche separate di Anthropic e OpenAI hanno dimostrato che gli agenti IA possono ora eseguire exploit end-to-end sulla maggior parte dei contratti intelligenti vulnerabili noti, con la capacità di sfruttamento che raddoppia ogni circa 1,3 mesi. Il costo medio di un tentativo di exploit potenziato dall'IA è di circa $1.22 per contratto, abbassando drasticamente la barriera per la scansione su larga scala.

La precedente copertura di CoinDesk ha delineato come attori malintenzionati come la Corea del Nord abbiano iniziato a utilizzare l'IA per scalare le operazioni di hacking e automatizzare parti del processo di sfruttamento, sottolineando il divario sempre più ampio tra le capacità offensive e difensive.

Cecuro sostiene che molti team si affidano a strumenti di intelligenza artificiale di uso generale o audit una tantum per la sicurezza, un approccio che il benchmark suggerisce possa trascurare vulnerabilità complesse e di alto valore. Diversi contratti nel dataset avevano precedentemente subito audit professionali prima di essere sfruttati.

Il dataset di benchmark, il framework di valutazione e l'agente di base sono stati resi open source su GitHub. L'azienda ha dichiarato di non aver rilasciato il suo agente di sicurezza completo a causa di preoccupazioni che strumenti simili potessero essere riutilizzati per scopi offensivi.

#GoogleDocsMagic

#Shibarium

#KEEP_SUPPORT

#ordi。

#DelistingAlert