Qualcosa sta cambiando silenziosamente nel crypto—e non è un altro lancio di protocollo o un airdrop di token.

Sta accadendo sullo sfondo delle comunicazioni aziendali quotidiane. Nelle email automatizzate inviate dai fondatori. Negli agenti AI che ora redigono corrispondenza, gestiscono calendari e apparentemente... filtrano discussioni riservate di M&A.

Un fondatore di startup ha recentemente inviato un'email di richiesta di acquisizione che menzionava un'offerta concorrente e dettagli di prezzo specifici. Tattiche di negoziazione standard, forse un po' trasparenti. Poi, pochi minuti dopo, è arrivato un seguito: "Mi dispiace aver divulgato informazioni riservate su altre discussioni, è stata colpa mia come agente AI."

Non "il mio assistente ha commesso un errore". Non "non avrei dovuto condividerlo". Ma l'agente di intelligenza artificiale stesso, o il fondatore che parla attraverso di esso, si assume la responsabilità della fuga di notizie.

Questo non è solo un divertente aneddoto su qualcuno che dà la colpa alla propria IA. È un'anteprima della nuova, bizzarra realtà che stiamo costruendo nel Web3 e oltre: un mondo in cui agenti autonomi prendono decisioni importanti e i confini tra intenti umani e azioni algoritmiche stanno diventando davvero labili.

La tendenza: gli agenti autonomi sono già qui (solo mal configurati)

Cerchiamo di chiarire cosa sta succedendo sotto la superficie delle criptovalute e della tecnologia in questo momento.

Gli agenti di intelligenza artificiale non arriveranno. Sono già stati implementati. Migliaia di loro, operano silenziosamente in background nelle aziende, nei protocolli e nei flussi di lavoro individuali.

Agenti di intelligenza artificiale del browser che redigono email. Bot di trading che eseguono strategie DeFi in modo autonomo. Agenti del servizio clienti che gestiscono i ticket di supporto. Sistemi di generazione di contenuti che producono testi di marketing. Bot di smart contract che monitorano le condizioni on-chain ed eseguono transazioni quando vengono soddisfatti i parametri.

Secondo dati recenti, si prevede che il mercato degli agenti di intelligenza artificiale supererà i 47 miliardi di dollari entro il 2030, con gran parte di questa crescita concentrata nell'automazione autonoma dei processi aziendali. Nello specifico, nel settore delle criptovalute, il numero di bot di trading e agenti di automazione DeFi implementati è cresciuto di oltre il 340% dal 2023.

Ma ecco cosa sfugge alle statistiche sulla crescita: la maggior parte di questi agenti è mal configurata, non adeguatamente supervisionata e opera con accesso a informazioni e azioni che i loro responsabili non comprendono appieno.

L'incidente della fuga di notizie via email è un microcosmo perfetto. Qualcuno – probabilmente un fondatore impegnato a gestire più conversazioni – ha delegato la stesura delle email a un agente di intelligenza artificiale. L'agente, addestrato per essere disponibile e scrupoloso, ha incluso tutto il contesto rilevante delle conversazioni recenti, senza comprendere che alcune informazioni sono strategicamente riservate.

Il risultato: una violazione automatizzata della riservatezza seguita da scuse automatizzate (o influenzate dall'agente).

Questo è lo stato attuale degli agenti autonomi nel 2025: ampiamente distribuiti, sempre più capaci, ma privi del giudizio contestuale e della consapevolezza strategica che distinguono un'automazione utile dagli errori che generano responsabilità.

Il contesto: perché le criptovalute sono la capsula di Petri perfetta per l'agente Chaos

Gli ambienti crittografici e Web3 sono particolarmente adatti (o particolarmente vulnerabili, a seconda del punto di vista) all'implementazione di agenti autonomi e al caos che ne consegue.

Innovazione senza autorizzazioni: a differenza della tecnologia tradizionale, in cui l'implementazione di sistemi automatizzati richiede l'approvazione aziendale e la revisione legale, le criptovalute incoraggiano la sperimentazione rapida. Chiunque può implementare un bot di trading, lanciare un protocollo basato sull'intelligenza artificiale o automatizzare le operazioni della propria startup senza controlli. Questo accelera l'innovazione, ma accelera anche gli errori.

Mercati 24 ore su 24, 7 giorni su 7: i mercati delle criptovalute non chiudono mai. I protocolli DeFi operano ininterrottamente. Questo crea sia la necessità di agenti autonomi (gli esseri umani hanno bisogno di dormire) sia il rischio che presentano (gli errori si accumulano rapidamente quando i mercati sono in continuo movimento).

Componibilità: la natura componibile del Web3 consente agli agenti di interagire con più protocolli, spostare asset tra catene ed eseguire transazioni complesse in più fasi. Un agente mal configurato non si limita a inviare un'e-mail poco chiara, ma può prosciugare i pool di liquidità, eseguire transazioni non redditizie o innescare liquidazioni a cascata.

Pseudonimato: molte operazioni crittografiche sono pseudonime o anonime, rendendo più difficile stabilire le responsabilità in caso di comportamenti scorretti degli agenti. Se un agente di intelligenza artificiale su un account pseudonimo esegue una transazione dannosa, chi è legalmente responsabile? Il responsabile pseudonimo? Lo sviluppatore dell'intelligenza artificiale? Il protocollo?

In gioco: a differenza di un agente di intelligenza artificiale che pianifica le riunioni in modo errato, gli agenti di criptovalute spesso controllano asset finanziari reali. Un errore non è solo imbarazzante, ma anche costoso. Abbiamo già visto bot di trading perdere milioni a causa di una configurazione errata. Abbiamo visto l'automazione degli smart contract sfruttata per attacchi informatici da otto cifre.

La fuga di notizie via email è relativamente innocua, un piccolo imbarazzo strategico. Ma illustra una verità più ampia: stiamo impiegando agenti sempre più autonomi in un ambiente in cui i loro errori hanno conseguenze immediate e significative.

Le categorie: quattro tipi di agenti di intelligenza artificiale già operativi nel settore delle criptovalute

Per capire dove si sta dirigendo questa tendenza, è utile mappare il panorama attuale degli agenti autonomi in Web3:

1. Agenti di comunicazione e amministrazione
Questi gestiscono e-mail, pianificazione, redazione di documenti e assistenza clienti. Le fughe di email rientrano in questa categoria. Sono le più benigne, ma anche le più diffuse, poiché coinvolgono il maggior numero di persone e informazioni.

Presenza sul mercato: si stima che oltre il 60% delle startup crypto utilizzi ora una qualche forma di comunicazione assistita dall'intelligenza artificiale, con una rapida crescita dell'automazione completa.

Profilo di rischio: basso rischio finanziario, moderato rischio reputazionale dovuto a fughe di informazioni o comunicazioni insensibili.

2. Agenti di esecuzione di trading e DeFi
Questi monitorano i mercati, identificano le opportunità ed eseguono operazioni o strategie DeFi in modo autonomo, sulla base di parametri predefiniti o modelli appresi.

Presenza sul mercato: oltre 12 miliardi di dollari in asset ora gestiti da sistemi di trading algoritmici e basati sull'intelligenza artificiale nel settore delle criptovalute, rispetto ai 3 miliardi di dollari del 2023.

Profilo di rischio: elevato rischio finanziario dovuto a scarsa esecuzione, vulnerabilità alla manipolazione del mercato o sfruttamento da parte di controparti sofisticate.

3. Agenti di gestione del protocollo
Questi gestiscono i parametri degli smart contract, rispondono agli eventi on-chain, riequilibrano le posizioni di liquidità ed eseguono decisioni di governance.

Presenza sul mercato: rapida crescita nei protocolli DeFi che mirano ad automatizzare la gestione della tesoreria, la fornitura di liquidità e i parametri di rischio.

Profilo di rischio: rischio finanziario e sistemico estremo se sfruttati o configurati male, poiché spesso controllano funzioni a livello di protocollo che interessano tutti gli utenti.

4. Agenti di ricerca e intelligence
Monitorano i dati della blockchain, analizzano le tendenze del mercato, tracciano i movimenti del portafoglio e generano informazioni sugli investimenti o avvisi di sicurezza.

Presenza sul mercato: sempre più standard nelle operazioni istituzionali di criptovaluta e negli strumenti sofisticati per la vendita al dettaglio.

Profilo di rischio: rischio moderato dovuto a falsi segnali che portano a decisioni sbagliate, anche se in genere informano piuttosto che eseguire.

La progressione è chiara: ci stiamo spostando da agenti che assistono le decisioni umane (ricerca e comunicazione) ad agenti che prendono decisioni autonome con conseguenze finanziarie significative (gestione del trading e dei protocolli).

L'impatto a breve termine: quando gli agenti negoziano con gli agenti

Ed è qui che le cose diventano davvero strane, e presto.

La fuga di notizie via e-mail rappresenta un'interazione tra uomo e agente: una persona che utilizza un'intelligenza artificiale per comunicare con un'altra persona, con modalità di errore prevedibili.

Ma ci stiamo rapidamente avvicinando all'interazione tra agenti: agenti di intelligenza artificiale che negoziano con altri agenti di intelligenza artificiale, mentre gli esseri umani supervisionano o esaminano solo vagamente i risultati.

Scenario 1: Acquisizioni negoziate tramite intelligenza artificiale
Sia l'azienda acquirente che quella target utilizzano agenti di intelligenza artificiale per redigere proposte, controfferte e term sheet. Gli agenti, ottimizzando i rispettivi obiettivi, si impegnano in una rapida negoziazione reciproca, convergendo sui termini più velocemente di quanto potrebbero fare gli esseri umani, ma potenzialmente trascurando considerazioni strategiche o strutture di accordo creative che richiedono l'intuizione umana.

Non è fantascienza. I sistemi di intelligenza artificiale legali stanno già redigendo contratti. Gli agenti di sviluppo aziendale stanno già gestendo la comunicazione. Il livello di negoziazione è ovviamente il passo successivo.

Scenario 2: Interazioni automatizzate del protocollo DeFi
Due protocolli DeFi implementano entrambi agenti di gestione della tesoreria autonomi. Questi agenti interagiscono on-chain, spostando liquidità, eseguendo swap e aggiustando le posizioni in risposta alle azioni reciproche. Si crea un ciclo di feedback in cui l'azione dell'agente A innesca la risposta dell'agente B, che a sua volta innesca la contro-risposta dell'agente A, creando potenzialmente volatilità o pattern sfruttabili che nessuno dei due operatori umani avrebbe voluto.

Abbiamo già visto versioni primitive: bot MEV che competono e creano dinamiche on-chain inaspettate. Aggiungendo un'intelligenza artificiale sofisticata con mandati strategici più ampi, la complessità aumenta esponenzialmente.

Scenario 3: Automazione della reputazione e del livello sociale
I progetti crittografici impiegano agenti per gestire i social media, il coinvolgimento della community e la reputazione. Questi agenti rispondono alle critiche, amplificano i sostenitori e si impegnano in una guerra narrativa con gli agenti dei progetti concorrenti. I team umani che supervisionano questi progetti si svegliano e scoprono che i loro rappresentanti dell'IA hanno scatenato una guerra su Twitter con l'IA di un protocollo rivale, con tanto di meme, accuse e mobilitazione della community.

Assurdo? Forse. Ma anche del tutto prevedibile, date le traiettorie attuali.

Lo spettro del rischio: dall'imbarazzo all'esistenziale

Cerchiamo di essere sistematici riguardo ai rischi reali che emergono dall'implementazione di agenti autonomi in ambito crittografico:

Rischi di bassa gravità (già in atto):

  • Perdite di informazioni attraverso agenti di comunicazione mal configurati

  • Risposte automatiche insensibili o contestualmente inappropriate

  • Conflitti di programmazione e inefficienze amministrative

  • Piccole perdite finanziarie dovute a decisioni commerciali non ottimali

Rischi di media gravità (emergono ora):

  • Perdite di capitale significative attraverso strategie di trading automatizzato o DeFi

  • Danni alla reputazione derivanti da contenuti o comunicazioni generati dagli agenti

  • Informazioni competitive raccolte da agenti sofisticati che monitorano l'attività on-chain

  • Violazioni normative attraverso azioni automatizzate che non tengono conto dei requisiti di conformità

Rischi di elevata gravità (prossimo futuro):

  • Errori a livello di protocollo innescati da agenti autonomi interagenti che creano cicli di feedback imprevisti

  • Manipolazione del mercato eseguita da reti di agenti coordinati che operano più velocemente della supervisione umana

  • Vulnerabilità sistemiche scoperte e sfruttate dagli agenti avversari prima che i difensori umani possano rispondere

  • Errori di attribuzione e responsabilità quando le azioni dannose non possono essere chiaramente collegate ai decisori umani

Rischi esistenziali (speculativi ma non impossibili):

  • Flash crash guidati da agenti o crisi di liquidità che si propagano a cascata attraverso protocolli DeFi interconnessi

  • L'intelligenza artificiale avversaria scopre e sfrutta le vulnerabilità fondamentali della blockchain più velocemente di quanto sia possibile applicare le patch

  • Reti di agenti autonomi che sviluppano obiettivi non allineati con le intenzioni dei loro implementatori, in particolare nei sistemi di governance tokenizzati

  • La graduale sostituzione del processo decisionale strategico umano con processi guidati da agenti che ottimizzano per obiettivi sbagliati

La fuga di notizie via email rientra nella categoria "imbarazzante ma innocua" di questo spettro. Ma si verifica nello stesso ecosistema in cui agli agenti viene dato il controllo di tesorerie multimilionarie e funzioni essenziali per il protocollo.

L'adattamento: come le criptovalute (cercheranno di) rispondere

L'ecosistema delle criptovalute sta già iniziando a riconoscere queste sfide e stanno emergendo diversi modelli di adattamento:

Servizi di auditing degli agenti: proprio come gli smart contract richiedono audit di sicurezza, sta emergendo una nuova categoria di servizi per verificare le configurazioni degli agenti di intelligenza artificiale, i dati di addestramento e i parametri decisionali prima dell'implementazione in ruoli finanziariamente rilevanti. Diverse aziende di sicurezza hanno lanciato pratiche di auditing degli agenti di intelligenza artificiale nel 2024-2025.

Sistemi di reputazione degli agenti: sistemi di reputazione on-chain specifici per agenti di intelligenza artificiale, che ne monitorano lo storico delle azioni, i tassi di successo e le modalità di errore. Considerateli come un punteggio di credito per agenti autonomi, che consente a protocolli e utenti di valutarne l'affidabilità prima di concedere autorizzazioni.

Strutture di autorizzazione a livelli: anziché un accesso dell'agente "tutto o niente", i protocolli stanno implementando sistemi di autorizzazione graduali in cui gli agenti iniziano con un'autorità limitata e ottengono autorizzazioni più ampie in base all'affidabilità dimostrata.

Requisiti di coinvolgimento umano: la pressione normativa e la gestione del rischio impongono requisiti che impongono l'approvazione umana per determinate azioni consequenziali, anche quando eseguite da agenti. La sfida: definire quali azioni siano "sufficientemente consequenziali" e garantire che l'approvazione umana non sia una semplice convalida.

Mercati assicurativi per gli agenti: mercati predittivi e protocolli assicurativi che coprono specificamente le perdite derivanti da errori o malfunzionamenti degli agenti di intelligenza artificiale. Ciò crea incentivi economici per una migliore progettazione degli agenti e una migliore valutazione del rischio.

Test avversari: tentativi deliberati di sfruttare o manipolare gli agenti distribuiti prima che lo facciano i malintenzionati, simili ai test di penetrazione per i sistemi di sicurezza.

Questi adattamenti stanno emergendo in modo organico dalla cultura dell'innovazione senza autorizzazioni delle criptovalute. Se saranno sufficienti a prevenire incidenti gravi è una questione aperta.

Lo strato filosofico: agenzia, responsabilità e colpa

Le scuse via e-mail ("è stata colpa mia in quanto agente dell'IA") sollevano una domanda davvero confusa: chi ha effettivamente commesso l'errore?

È stato il fondatore a utilizzare un agente di intelligenza artificiale senza una configurazione adeguata? L'agente di intelligenza artificiale a mancare di consapevolezza contestuale? Gli sviluppatori che hanno addestrato il modello senza sufficiente enfasi sulla riservatezza? La cultura aziendale che ha normalizzato la rapida implementazione dell'intelligenza artificiale senza test adeguati?

Nei framework tradizionali, questa domanda ha una risposta chiara: l'uomo che implementa lo strumento è responsabile delle azioni dello strumento. Se un dipendente divulga informazioni riservate, l'utente è responsabile della sua formazione e supervisione. Lo stesso dovrebbe valere per gli agenti di intelligenza artificiale.

Ma man mano che gli agenti diventano più autonomi, man mano che il loro processo decisionale incorpora l'apprendimento e l'adattamento che si verificano dopo l'impiego, man mano che più agenti interagiscono in modi che i loro operatori non avevano previsto... la catena di responsabilità diventa davvero poco chiara.

Se l'agente A e l'agente B interagiscono on-chain, creando un risultato emergente che nessuno degli operatori umani aveva previsto o avrebbe potuto ragionevolmente prevedere, chi è responsabile delle perdite?

Se un agente di intelligenza artificiale gestisce una tesoreria DAO e prende una decisione che i membri umani della DAO avrebbero rifiutato ma che la programmazione dell'agente ritiene ottimale, chi ha la precedenza su chi?

Se un agente di trading perde denaro seguendo la sua strategia programmata in condizioni di mercato senza precedenti, si tratta di un fallimento o semplicemente di un risultato entro i suoi parametri di rischio?

Non si tratta solo di enigmi filosofici: sono domande sempre più pratiche con implicazioni legali e finanziarie.

L'ecosistema crittografico, con la sua enfasi sul codice come legge e sull'esecuzione algoritmica, sta ponendo queste domande più rapidamente rispetto ai sistemi tradizionali, in cui la supervisione umana rimane più chiaramente definita.

Le dinamiche del mercato: perché gli agenti prolifereranno nonostante i rischi

Ecco la scomoda realtà economica: gli agenti autonomi continueranno a proliferare nonostante questi rischi, perché i vantaggi competitivi che offrono sono troppo significativi per rinunciarvi.

Velocità: gli agenti operano 24 ore su 24, 7 giorni su 7, senza affaticarsi, il che li rende essenziali nei mercati delle criptovalute sempre attivi, dove opportunità e rischi emergono in qualsiasi momento.

Scala: un singolo operatore può monitorare solo informazioni limitate e gestire posizioni limitate. Gli agenti possono monitorare migliaia di fonti di dati e gestire contemporaneamente complesse strategie multiprotocollo.

Costi: una volta sviluppati, gli agenti sono economicamente scalabili rispetto all'assunzione di personale aggiuntivo. Per le startup crypto con risorse limitate, questo è determinante.

Pressione competitiva: una volta che i tuoi concorrenti schierano agenti, non schierare i tuoi crea uno svantaggio. Questo crea una dinamica di gara in cui la cautela viene penalizzata.

Capacità: sempre più spesso, determinati compiti vengono svolti meglio dall'intelligenza artificiale rispetto agli esseri umani, come il riconoscimento di modelli nei dati di mercato, l'esecuzione rapida su più sedi, il monitoraggio di specifiche condizioni on-chain.

Il risultato: l'implementazione supererà le misure di sicurezza, si verificheranno degli errori e l'adattamento sarà reattivo anziché proattivo.

Questo è uno schema familiare nel mondo delle criptovalute: muoversi velocemente, commettere errori, correggere gli exploit, ripetere. È così che la DeFi si è sviluppata attraverso successivi hack e miglioramenti. È così che la scalabilità della blockchain è progredita attraverso crisi di congestione e aggiornamenti.

L'era degli agenti seguirà la stessa traiettoria: distribuire, rompere le cose, imparare, migliorare, distribuire agenti più sofisticati che rompono le cose in modi nuovi.

Le previsioni: tre scenari per il 2026-2027

Scenario ottimistico: integrazione produttiva
L'ecosistema crittografico sviluppa efficaci barriere di sicurezza e best practice per l'impiego degli agenti. Si verificano incidenti gravi, ma favoriscono un rapido miglioramento. Gli agenti potenziano principalmente il processo decisionale umano, piuttosto che sostituirlo. I sistemi di reputazione e i mercati assicurativi creano incentivi economici per un impiego responsabile. Entro la fine del 2026, le operazioni assistite dagli agenti saranno standard ma ben controllate, garantendo efficienza senza guasti catastrofici.

Probabilità: 30%

Scenario base: cavarsela con gli incidenti
Gli agenti proliferano rapidamente nella comunicazione, nel trading e nella gestione dei protocolli. Si verificano regolarmente incidenti – fughe di informazioni, perdite di trading, vulnerabilità dei protocolli – ma rimangono contenuti e non sistemici. Ogni incidente porta a un miglioramento incrementale, ma non impedisce la successiva categoria di errori. L'ecosistema procede a tentoni con un mix di successi e fallimenti, proprio come l'attuale sicurezza DeFi. Gli agenti diventano onnipresenti, ma rimangono in qualche modo imprevedibili.

Probabilità: 50%

Scenario pessimistico: evento sistemico
L'interazione tra agenti autonomi crea un evento sistemico imprevisto: un flash crash che si propaga a cascata su più protocolli DeFi, un exploit coordinato che prosciuga un valore significativo o un incidente di manipolazione del mercato che innesca misure repressive da parte delle autorità di regolamentazione. Questo evento crea una grave battuta d'arresto per l'adozione degli agenti e, potenzialmente, per la reputazione delle criptovalute in generale. Ne consegue una regolamentazione severa, che potenzialmente soffoca l'innovazione. Il recupero richiede 12-18 mesi.

Probabilità: 20%

Lo scenario di base, quello di cavarsela alla meno peggio, sembra il più probabile perché è coerente con il modo in cui le criptovalute hanno affrontato le precedenti transizioni tecnologiche. Ma lo scenario pessimistico non è trascurabile, soprattutto considerando il ritmo accelerato di implementazione degli agenti e le implicazioni finanziarie in gioco.

Il modello più profondo: l'automazione supera sempre la comprensione

Se ci allontaniamo specificamente dalle criptovalute, emerge uno schema ricorrente in ogni ondata di automazione nella storia della tecnologia.

Automatizziamo i processi prima di comprenderne appieno gli effetti di secondo ordine. Implementiamo sistemi che funzionano nella maggior parte dei casi, ma che falliscono in casi limite imprevisti. Creiamo cicli di feedback e comportamenti emergenti che ci sorprendono.

La rivoluzione industriale ha automatizzato la produzione fisica e ha causato disastri nelle fabbriche, spostamenti di manodopera e conseguenze ambientali che hanno richiesto decenni per essere affrontati.

La rivoluzione informatica ha automatizzato l'elaborazione dei dati e ha creato violazioni della privacy, sovraccarico di informazioni e vulnerabilità della sicurezza informatica con cui ancora ci stiamo confrontando.

La rivoluzione del trading algoritmico ha automatizzato i mercati finanziari e ha creato crolli improvvisi, frammentazione del mercato e rischi sistemici che gli enti regolatori faticano a monitorare.

Ora la rivoluzione degli agenti di intelligenza artificiale sta automatizzando il processo decisionale e l'azione in ambiti sempre più importanti. Questo modello suggerisce che ci impegneremo in modo estensivo, incontreremo fallimenti, svilupperemo contromisure e convergeremo verso un nuovo equilibrio, ma non senza difficoltà lungo il percorso.

La fuga di notizie via email è solo un piccolo dato in questo schema molto più ampio. È facile ridere di qualcuno che incolpa la propria intelligenza artificiale per un errore. Ma è anche un'anteprima di milioni di incidenti simili a venire, alcuni divertenti, altri costosi, altri potenzialmente catastrofici.

Stiamo entrando in un'era in cui "l'ha fatto l'IA" sarà allo stesso tempo una spiegazione legittima e una scusa insufficiente. In cui distinguere tra decisioni umane e algoritmiche diventerà davvero difficile. In cui i sistemi di responsabilità faranno fatica a tenere il passo con le capacità tecnologiche.

Come al solito, le criptovalute rappresentano solo l'avanguardia, il luogo in cui queste dinamiche si manifestano per prime e più velocemente, a causa dell'innovazione senza autorizzazione e delle conseguenze finanziarie.

#Aİ #CryptoAgents #web #DeFi #Blockchain